33
1. Conceptos de Seguridad Los conceptos fiabilidad, confidencialidad, integridad o disponibilidad son muy comunes en el ámbito de la seguridad y aparecen como fundamentales en toda arquitectura de seguridad de la información, ya sea en el ámbito de la protección de datos, normativa vigente relacionada con la protección de datos de carácter personal, como de códigos de buenas prácticas o recomendaciones sobre gestión de la seguridad de la información y de prestigiosas certificaciones internacionales, éstas últimas, relacionadas con la auditoría de los sistemas de información. Suele referirse al grupo de estas características como CIDAN, nombre sacado de la inicial de cada característica. Por estos motivos es importante tener una idea clara de estos conceptos Fiabilidad Existe una frase que se ha hecho famosa dentro del mundo de la seguridad. Eugene Spafford, profesor de ciencias informáticas en la Universidad Purdue (Indiana, EEUU) y experto en seguridad de datos, dijo que “el único sistema seguro es aquel que está apagado y desconectado, enterrado en un refugio de cemento, rodeado por gas venenoso y custodiado por guardianes bien pagados y muy bien armados. Aún así, yo no apostaría mi vida por él”. Hablar de seguridad informática en términos absolutos es imposible y por ese motivo se habla mas bien de fiabilidad del sistema, que, en realidad es una relajación del primer término. Definimos la Fiabilidad como la probabilidad de que un sistema se comporte tal y como se espera de él. En general, un sistema será seguro o fiable si podemos garantizar tres aspectos: Confidencialidad: acceso a la información solo mediante autorización y de forma controlada. Integridad: modificación de la información solo mediante autorización. Disponibilidad: la información del sistema debe permanecer accesible mediante autorización. Existe otra propiedad de los sistemas que es la Confiabilidad, entendida como nivel de calidad del servicio que se ofrece. Pero esta propiedad, que hace referencia a la disponibilidad, estaría al mismo nivel que la seguridad. En nuestro caso mantenemos la Disponibilidad como un aspecto de la seguridad. Confidencialidad Se trata de la cualidad que debe poseer un documento o archivo para que este solo se entienda de manera comprensible o sea leído por la persona o sistema que este autorizado.

1. Conceptos de Seguridad · Hablar de seguridad informática en ... los datos que están almacenados en el hardware y que son procesados por las ... Amenazas lógicas Estas amenazas,

Embed Size (px)

Citation preview

1. Conceptos de Seguridad

Los conceptos fiabilidad, confidencialidad, integridad o disponibilidad son muy comunes en el ámbito de la seguridad y aparecen como fundamentales en toda arquitectura de seguridad de la información, ya sea en el ámbito de la protección de datos, normativa vigente relacionada con la protección de datos de carácter personal, como de códigos de buenas prácticas o recomendaciones sobre gestión de la seguridad de la información y de prestigiosas certificaciones internacionales, éstas últimas, relacionadas con la auditoría de los sistemas de información. Suele referirse al grupo de estas características como CIDAN, nombre sacado de la inicial de cada característica.

Por estos motivos es importante tener una idea clara de estos conceptos

Fiabilidad

Existe una frase que se ha hecho famosa dentro del mundo de la seguridad. Eugene Spafford, profesor de ciencias informáticas en la Universidad Purdue (Indiana, EEUU) y experto en seguridad de datos, dijo que “el único sistema seguro es aquel que está apagado y desconectado, enterrado en un refugio de cemento, rodeado por gas venenoso y custodiado por guardianes bien pagados y muy bien armados. Aún así, yo no apostaría mi vida por él”.

Hablar de seguridad informática en términos absolutos es imposible y por ese motivo se habla mas bien de fiabilidad del sistema, que, en realidad es una relajación del primer término.

Definimos la Fiabilidad como la probabilidad de que un sistema se comporte tal y como se espera de él.

En general, un sistema será seguro o fiable si podemos garantizar tres aspectos:

Confidencialidad: acceso a la información solo mediante autorización y de forma controlada.

Integridad: modificación de la información solo mediante autorización.

Disponibilidad: la información del sistema debe permanecer accesible mediante autorización.

Existe otra propiedad de los sistemas que es la Confiabilidad, entendida como nivel de calidad del servicio que se ofrece. Pero esta propiedad, que hace referencia a la disponibilidad, estaría al mismo nivel que la seguridad. En nuestro caso mantenemos la Disponibilidad como un aspecto de la seguridad.

Confidencialidad

Se trata de la cualidad que debe poseer un documento o archivo para que este solo se entienda de manera comprensible o sea leído por la persona o sistema que este autorizado.

De esta manera se dice que un documento (o archivo o mensaje) es confidencial si y solo si puede ser comprendido por la persona o entidad a quien va dirigida o esté autorizada. En el caso de un mensaje esto evita que exista una intercepción de este y que pueda ser leído por una persona no autorizada.

Por ejemplo, si Andrea quiere enviar un mensaje a Bruno y que solo pueda leerlo Bruno, Andrea cifra el mensaje con una clave (simétrica o asimétrica), de tal modo que solo Bruno sepa la manera de descifrarlo, así ambos usuarios están seguros que solo ellos van a poder leer el mensaje.

Integridad

La integridad es la cualidad que posee un documento o archivo que no ha sido alterado y que además permite comprobar que no se ha producido manipulación alguna en el documento original. Aplicado a las bases de datos seria la correspondencia entre los datos y los hechos que refleja.

Teniendo como muestra el ejemplo anterior. Finalmente Bruno compara ambas funciones resumen, que se trata de una función que produce un valor alfanumérico que identifica cualquier cambio que se produzca en el mensaje, y si éstas funciones son iguales, quiere decir que no ha existido manipulación del mensaje

Autenticación

La autenticación es la situación en la cual se puede verificar que un documento ha sido elaborado (o pertenece) a quien el documento dice.

Aplicado a la verificación de la identidad de un usuario, la autenticación se produce cuando el usuario puede aportar algún modo de que se pueda verificar que dicha persona es quien dice ser, a partir de ese momento se considera un usuario autorizado.

Otra manera de definirlo seria, la capacidad de determinar si una determinada lista de personas ha establecido su reconocimiento sobre el contenido de un mensaje.

Disponibilidad

Se trata de la capacidad de un servicio, de unos datos o de un sistema, a ser accesible y utilizable por los usuarios (o procesos) autorizados cuando estos lo requieran.

No repudio

El no repudio o irrenunciabilidad es un servicio de seguridad estrechamente relacionado con la autenticación y que permite probar la participación de las partes en una comunicación. La diferencia esencial con la autenticación es que la primera se produce entre las partes que establecen la comunicación y el servicio de no repudio se produce frente a un tercero, de este modo, existirán dos posibilidades:

No repudio en origen: El emisor no puede negar que envío porque el destinatario tiene pruebas del envío, el receptor recibe una prueba infalsificable del origen del envío, lo cual evita que el emisor, de negar tal envío, tenga éxito ante el juicio de terceros. En este caso la prueba la crea el propio emisor y la recibe el destinatario

No repudio en destino: El receptor no puede negar que recibió el mensaje porque el emisor tiene pruebas de la recepción. Este servicio proporciona al emisor la prueba de que el destinatario legítimo de un envío,

realmente lo recibió, evitando que el receptor lo niegue posteriormente. En este caso la prueba irrefutable la crea el receptor y la recibe el emisor.

Si la autenticidad prueba quién es el autor de un documento y cual es su destinatario, el “no repudio” prueba que el autor envió la comunicación (no repudio en origen) y que el destinatario la recibió (no repudio en destino).

Relación de los servicios de seguridad

En la imagen superior se ilustra como se relacionan los diferentes servicios de seguridad, unos dependen de otros jerárquicamente, así si no existe el de mas abajo, no puede aplicarse el superior. De esta manera, la disponibilidad se convierte en el primer requisito de seguridad, cuando existe esta, se puede disponer de confidencialidad, que es imprescindible para conseguir integridad, para poder obtener autenticación es imprescindible la integridad y por ultimo el no repudio solo se obtiene si se produce previamente la autenticación.

2. ELEMENTOS VULNERABLES EN EL SISTEMA INFORMATICO

En un sistema informático lo que queremos proteger son sus activos, es decir, los recursos que forman parte del sistema y que podemos agrupar en:

Hardware: elementos físicos del sistema informático, tales como procesadores, electrónica y cableado de red, medios de almacenamiento (cabinas, discos, cintas, DVDs,...).

Software: elementos ló́gicos o programas que se ejecutan sobre el hardware, tanto si es el propio sistema operativo como las aplicaciones.

Datos: comprenden la información lógica que procesa el software haciendo uso del hardware. En general serán informaciones estructuradas en bases de datos o paquetes de información que viajan por la red.

Otros: fungibles, personas, infraestructuras,.. aquellos que se 'usan y gastan' como puede ser la tinta y papel en las impresoras, los soportes tipo DVD o incluso cintas si las copias se hacen en ese medio, etc.

De ellos los mas críticos son los datos, el hardware y el software. Es decir, los datos que están almacenados en el hardware y que son procesados por las aplicaciones software.

Incluso de todos ellos, el activo mas crítico son los datos. El resto se puede reponer con facilidad y los datos ... sabemos que dependen de que la empresa tenga una buena política de copias de seguridad y sea capaz de reponerlos en el estado mas próximo al momento en que se produjo la pérdida. Esto puede suponer para la empresa, por ejemplo, la dificultad o imposibilidad de reponer dichos datos con lo que conllevaría de pérdida de tiempo y dinero.

Una vulnerabilidad o fallo de seguridad, es todo aquello que provoca que nuestros sistemas informáticos funcionen

de manera diferente a como como funcionaban, afectando a la seguridad de los mismos, pudiendo llegar a provocar

entre otras cosas la pérdida y robo de información sensible.

Las amenazas pueden ser de diferentes tipos, que son hardware, software, factor humano, y datos.

Vulnerabilidades en el hardware

Se pueden producir de forma intencionada o no. Incendios fortuitos en los sistemas, fallos físicos, rotura física de

cables.

Otras vulnerabilidades pueden ser el desgaste el uso constante del hardware dejando el hardware obsoleto hasta

dejarlo inutilizable.

El descuido y mal uso es otro de los factores requiriendo un mantenimiento, ya que no seguir estos hábitos supone

un mayor desgaste reduciendo el tiempo de vida útil.

El suministro de energía es otro punto ya que los picos de voltaje pueden dañar nuestros sistemas porque es

recomendable instalar sistemas de suministro de energía.

Vulnerabilidades en el Software

Los ataques al software se pueden centrar contra los programas del sistema operativo, a los programas de utilidad o

a los programas de usuario. Necesita de mayores conocimientos técnicos (para los ataques hardware, por ejemplo,

bastaría con unas tijeras, un mazo... cerillas...)

Existe gran variedad de ataques software:

Bomba lógica: el programa incluye instrucciones que, al cumplirse una condición, provocan una distorsión

del funcionamiento normal del programa, que normalmente, deriva en daños al ordenador que lo ejecuta.

Esta técnica es usada por algunos programadores. Introducen en la aplicación un código que se activa en una fecha

determinada para que, si no ha cobrado por su trabajo ese día, destruya la información del ordenador en el que ha

sido instalado

Código Malicioso: es cualquier software que entra en un sistema de cómputo sin ser invitado e intentar

romper las reglas, esto incluye troyanos, virus, gusanos, bombas y otras amenazas.

Virus: Conocidos por todos los virus atacan a ficheros de nuestro sistema con el propósito normalmente

de dañar nuestro sistema.

Puertas traseras: Son programas que permiten la entrada en el sistema de manera que el usuario habitual

del mismo no tenga conocimiento de este ataque.

Troyanos: El objetivo de estos programas no es el mismo para el que aparentemente están diseñados. Se

utilizan normalmente para instalar puertas traseras.

Ingeniería Social: Consiste en mantener un trato con la persona administradora para indagar en sus

costumbres o conocerla para elaborar un ataque más preparado. Esto incluye también suplantación de

identidad.

Vulnerabilidades conocidas

Vulnerabilidad de desbordamiento de buffer: Si un programa no controla la cantidad de datos que se

copian en buffer, puede llegar un momento en que se sobrepase la capacidad del buffer y los bytes que

sobran se almacenan en zonas de memoria adyacentes.

En esta situación se puede aprovechar para ejecutar código que nos de privilegios de administrador.

Vulnerabilidad de condición de carrera (race condition): Si varios procesos acceden al mismo tiempo a un

recurso compartido puede producirse este tipo de vulnerabilidad. Es el caso típico de una variable, que

cambia su estado y puede obtener de esta forma un valor no esperado.

Vulnerabilidad de Cross Site Scripting (XSS): Es una vulnerabilidad de las aplicaciones web, que permite

inyectar código VBSript o JavaScript en páginas web vistas por el usuario. El phishing es una aplicación de

esta vulnerabilidad. En el phishing la víctima cree que está accediendo a una URL (la ve en la barra de

direcciones), pero en realidad está accediendo a otro sitio diferente. Si el usuario introduce sus

credenciales en este sitio se las está enviando al atacante.

Vulnerabilidad de denegación del servicio: La denegación de servicio hace que un servicio o recurso no

esté disponible para los usuarios. Suele provocar la pérdida de la conectividad de la red por el consumo

del ancho de banda de la red de la víctima o sobrecarga de los recursos informáticos del sistema de la

víctima.

Vulnerabilidad de ventanas engañosas (Window Spoofing): Las ventanas engañosas son las que dicen

que eres el ganador de tal o cual cosa, lo cual es mentira y lo único que quieren es que el usuario de

información. Hay otro tipo de ventanas que si las sigues obtienen datos del ordenador para luego realizar

un ataque.

3. Amenazas.Tipos

Clasificación de las amenazas:

De forma general podemos agrupar las amenazas en:

Amenazas físicas

Amenazas lógicas

Estas amenazas, tanto físicas como lógicas, son materializadas básicamente por:

las personas

programas específicos

catástrofes naturales

Podemos tener otros criterios de agrupación de las amenazas, como son:

Origen de las amenazas

Amenazas naturales: inundación, incendio, tormenta, fallo eléctrico, explosión, etc...

Amenazas de agentes externos: virus informáticos, ataques de una organización criminal, sabotajes terroristas, disturbios y conflictos sociales, intrusos en la red, robos, estafas, etc...

Amenazas de agentes internos: empleados descuidados con una formación inadecuada o descontentos, errores en la utilización de las herramientas y recursos del sistema, etc...

Intencionalidad de las amenazas

Accidentes: averías del hardware y fallos del software, incendio, inundación, etc...

Errores: errores de utilización, de explotación, de ejecución de procedimientos, etc...

Actuaciones malintencionadas: robos, fraudes, sabotajes, intentos de intrusión, etc...

Naturaleza de las amenazas

La agrupación de las amenazas atendiendo al factor de seguridad que comprometen es la siguiente:

Interceptación

Modificación

Interrupción

Fabricación

1. Flujo normal de la información: se corresponde con el esquema superior de la figura.

Se garantiza:

Confidencialidad: nadie no autorizado accede a la información.

Integridad: los datos enviados no se modifican en el camino.

Disponibilidad: la recepción y acceso es correcto.

2. Interceptación: acceso a la información por parte de personas no autorizadas. Uso de privilegios no adquiridos.

Detección difícil, no deja huellas.

Se garantiza:

Integridad.

Disponibilidad

No se garantiza:

Confidencialidad: es posible que alguien no autorizado acceda a la información

Ejemplos:

Copias ilícitas de programas

Escucha en línea de datos

3. Modificación: acceso no autorizado que cambia el entorno para su beneficio.

Detección difícil según circunstancias.

Se garantiza:

Disponibilidad: la recepción es correcta.

No se garantiza:

Integridad: los datos enviados pueden ser modificados en el camino.

Confidencialidad: alguien no autorizado accede a la información.

Ejemplos:

Modificación de bases de datos

Modificación de elementos del HW

4. Interrupción: puede provocar que un objeto del sistema se pierda, quede no utilizable o no disponible.

Detección inmediata.

Se garantiza:

Confidencialidad: nadie no autorizado accede a la información.

Integridad: los datos enviados no se modifican en el camino.

No se garantiza:

Disponibilidad: puede que la recepción no sea correcta.

Ejemplos:

Destrucción del hardware

Borrado de programas, datos

Fallos en el sistema operativo

5. Fabricación: puede considerarse como un caso concreto de modificación ya que se consigue un objeto similar al atacado de forma que no resulte sencillo distinguir entre objeto original y el fabricado.

Detección difícil. Delitos de falsificación.

En este caso se garantiza:

Confidencialidad: nadie no autorizado accede a la información.

Integridad: los datos enviados no se modifican en el camino.

Disponibilidad: la recepción es correcta.

Ejemplos:

Añadir transacciones en red

Añadir registros en base de datos

Amenazas provocadas por personas

La mayor parte de los ataques a los sistemas informáticos son provocados, intencionadamente o no, por las personas.

¿Qué se busca?

En general lo que se busca es conseguir un nivel de privilegio en el sistema que les permita realizar acciones sobre el sistema no autorizadas.

Podemos clasificar las personas 'atacantes' en dos grupos:

1. Activos: su objetivo es hacer daño de alguna forma. Eliminar información, modificar o sustraerla para su provecho.

2. Pasivos: su objetivo es curiosear en el sistema.

Repasamos ahora todos los tipos de personas que pueden constituir una amenaza para el sistema informático sin entrar en detalles:

1. Personal de la propia organización 2. Ex-empleados 3. Curiosos 4. Crackers

5. Terroristas 6. Intrusos remunerados

Amenazas físicas

Dentro de las amenazas físicas podemos englobar cualquier error o daño en el hardware que se puede presentar en cualquier momento. Por ejemplo, daños en discos duros, en los procesadores, errores de funcionamiento de la memoria, etc. Todos ellos hacen que la información o no esté accesible o no sea fiable.

Otro tipo de amenazas físicas son las catástrofes naturales. Por ejemplo hay zonas geográficas del planeta en las que las probabilidades de sufrir terremotos, huracanes, inundaciones, etc, son mucho mas elevadas.

En estos casos en los que es la propia Naturaleza la que ha provocado el desastre de seguridad, no por ello hay que descuidarlo e intentar prever al máximo este tipo de situaciones.

Hay otro tipo de catástrofes que se conocen como de riesgo poco probable. Dentro de este grupo tenemos los taques nucleares, impactos de meteoritos, etc. y que, aunque se sabe que están ahí, las probabilidades de que se desencadenen son muy bajas y en principio no se toman medidas contra ellos.

Ya hemos explicado el concepto de amenaza física. Vamos a conocer ahora cuáles son las principales amenazas físicas de un sistema informático.

Tipos de amenazas físicas

Las amenazas físicas las podemos agrupar en las producidas por:

1. Acceso físico

Hay que tener en cuenta que cuando existe acceso físico a un recurso ya no existe seguridad sobre él. Supone entonces un gran riesgo y probablemente con un impacto muy alto.

A menudo se descuida este tipo de seguridad.

El ejemplo típico de este tipo es el de una organización que dispone de tomas de red que no están controladas, son libres.

2. Radiaciones electromagnéticas

Sabemos que cualquier aparato eléctrico emite radiaciones y que dichas radiaciones se pueden capturar y reproducir, si se dispone del equipamiento adecuado. Por ejemplo, un posible atacante podría 'escuchar' los datos que circulan por el cable telefónico.

Es un problema que hoy día con las redes wifi desprotegidas, por ejemplo, vuelve a estar vigente.

3. Desastres naturales

Respecto a terremotos el riesgo es reducido en nuestro entorno, ya que España no es una zona sísmica muy activa. Pero son fenómenos naturales que si se produjeran tendrían un gran impacto y no solo en términos de sistemas informáticos, sino en general para la sociedad.

Siempre hay que tener en cuenta las características de cada zona en particular. Las posibilidades de que ocurra una inundación son las mismas en todas las regiones de España. Hay que conocer bien el entorno en el que están físicamente los sistemas informáticos.

4. Desastres del entorno

Dentro de este grupo estarían incluidos sucesos que, sin llegar a ser desastres naturales, pueden tener un impacto igual de importante si no se disponen de las medidas de salvaguarda listas y operativas.

Puede ocurrir un incendio o un apagón y no tener bien definidas las medidas a tomar en estas situaciones o simplemente no tener operativo el SAI que debería responder de forma inmediata al corte de suministro eléctrico.

Descripcion de algunas amenazas físicas

Veamos algunas amenazas físicas a las que se puede ver sometido un CPD y alguna sugerencia para evitar este tipo de riesgo.

Por acciones naturales: incendio, inundación, condiciones climatológicas, señales de radar, instalaciones eléctricas, ergometría, …

Por acciones hostiles: robo, fraude, sabotaje,...

Por control de accesos: utilización de guardias, utilización de detectores de metales, utilización de sistemas biométricos, seguridad con animales, protección electrónica,...

Como se puede comprobar, evaluar y controlar permanentemente la seguridad física del edificio que alberga el CPD es la base para comenzar a integrar la seguridad como una función primordial dentro de cualquier organismo.

Tener controlado el ambiente y acceso físico permite:

disminuir siniestros

trabajar mejor manteniendo la sensación de seguridad

descartar falsas hipótesis si se produjeran incidentes

tener los medios para luchar contra accidentes

Las distintas alternativas enumeradas son suficientes para conocer en todo momento el estado del medio en el que se trabaja y así tomar decisiones en base a la información ofrecida por los medios de control adecuados.

Estas decisiones pueden variar desde el conocimiento de la áreas que recorren ciertas personas hasta la extremo de evacuar el edificio en caso de accidentes.

Amenazas lógicas

El punto más débil de un sistema informático son las personas relacionadas en mayor o menor medida con él. Puede ser inexperiencia o falta de preparación, o sin llegar a ataques intencionados propiamente, simplemente sucesos accidentales. Pero que, en cualquier caso, hay que prevenir.

Entre algunos de los ataques potenciales que pueden ser causados por estas personas, encontramos:

Ingeniería social: consiste en la manipulación de las personas para que voluntariamente realicen actos que normalmente no harían.

Shoulder Surfing: consiste en "espiar" físicamente a los usuarios para obtener generalmente claves de acceso al sistema.

Masquerading: consiste en suplantar la identidad de cierto usuario autorizado de un sistema informático o su entorno.

Basureo: consiste en obtener información dejada en o alrededor de un sistema informático tras la ejecución de un trabajo.

Actos delictivos: son actos tipificados claramente como delitos por las leyes, como el chantaje, el soborno o la amenaza.

Atacante interno: la mayor amenaza procede de personas que han trabajado o trabajan con los sistemas. Estos posibles atacantes internos deben disponer de los privilegio mínimos, conocimiento parcial, rotación de funciones y separación de funciones, etc.

Atacante externo: suplanta la identidad de un usuario legítimo. Si un atacante externo consigue penetrar en el sistema, ha recorrido el 80% del camino hasta conseguir un control total de un recurso.

Algunas amenazas lógicas

Las amenazas lógicas comprenden una serie de programas que pueden dañar el sistema informático. Y estos programas han sido creados:

de forma intencionada para hacer daño: software malicioso o malware (malicious software)

por error: bugs o agujeros.

Enumeramos algunas de las amenazas con las que nos podemos encontrar:

1. Software incorrecto

Son errores de programación (bugs) y los programas utilizados para aprovechar uno de estos fallos y atacar al sistema son los exploits. Es la amenaza más habitual, ya que es muy sencillo conseguir un exploit y utilizarlo sin tener grandes conocimientos.

2. Exploits

Son los programas que aprovechan una vulnerabilidad del sistema. Son específicos de cada sistema operativo, de la configuración del sistema y del tipo de red en la que se encuentren. Pueden haber exploits diferentes en función del tipo de vulnerabilidad.

3. Herramientas de seguridad

Puede ser utilizada para detectar y solucionar fallos en el sistema o un intruso puede utilizarlas para detectar esos mismos fallos y aprovechar para atacar el sistema. Herramientas como Nessus o Satan pueden ser útiles pero también peligrosas si son utilizadas por crackers buscando información sobre las vulnerabilidades de un host o de una red completa.

4. Puertas traseras

Durante el desarrollo de aplicaciones los programadores pueden incluir 'atajos' en los sistemas de autenticación de la aplicación. Estos atajos se llaman puertas traseras, y con ellos se consigue mayor velocidad a la hora de detectar y depurar fallos. Si estas puertas traseras, una vez la aplicación ha sido finalizada, no se destruyen, se está dejando abierta una puerta de entrada rápida.

5. Bombas lógicas

Son partes de código que no se ejecutan hasta que se cumple una condición. Al activarse, la función que realizan no esta relacionada con el programa, su objetivo es es completamente diferente.

6. Virus

Secuencia de código que se incluye en un archivo ejecutable (llamado huésped), y cuando el archivo se ejecuta, el virus también se ejecuta, propagándose a otros programas.

7. Gusanos

Programa capaz de ejecutarse y propagarse por sí mismo a través de redes, y puede llevar virus o aprovechar bugs de los sistemas a los que conecta para dañarlos.

8. Caballos de Troya

Los caballos de Troya son instrucciones incluidas en un programa que simulan realizar tareas que se esperan de ellas, pero en realidad ejecutan funciones con el objetivo de ocultar la presencia de un atacante o para asegurarse la entrada en caso de ser descubierto.

9. Spyware

Programas espía que recopilan información sobre una persona o una organización sin su conocimiento. Esta información luego puede ser cedida o vendida a empresas publicitarias. Pueden recopilar información del teclado de la víctima pudiendo así conocer contraseña o nº de cuentas bancarias o pines.

10. Adware

Programas que abren ventanas emergentes mostrando publicidad de productos y servicios. Se suele utilizar para subvencionar la aplicación y que el usuario pueda bajarla gratis u obtener un descuento. Normalmente el usuario es consciente de ello y da su permiso.

11. Spoofing

Técnicas de suplantación de identidad con fines dudosos.

12. Phishing

Intenta conseguir información confidencial de forma fraudulenta (conseguir contraseñas o pines bancarios) haciendo una suplantación de identidad. Para ello el estafador se hace pasar por una persona o empresa de la confianza del usuario mediante un correo electrónico oficial o mensajería instantánea, y de esta forma conseguir la información.

13. Spam

Recepción de mensajes no solicitados. Se suele utilizar esta técnica en los correos electrónicos, mensajería instantánea y mensajes a móviles.

14. Programas conejo o bacterias

Programas que no hacen nada, solo se reproducen rápidamente hasta que el número de copias acaba con los recursos del sistema (memoria, procesador, disco, etc.).

15. Técnicas salami

Robo automatizado de pequeñas cantidades dinero de una gran cantidad origen. Es muy difícil su detección y se suelen utilizar para atacar en sistemas bancarios.

4. Seguridad fisica y ambiental

Sistemas de alimentación interrumpida

Un SAI es un dispositivo que gracias a sus baterías puede proporcionarte energía eléctrica tras un apagón a todos los dispositivos que tengas conectados durante un tiempo ilimitado permitiendo poder apagar los equipos sin que sufran fuertes sus fuentes de alimentación. Los dispositivos hardware no irán enchufados a las tomas de corriente directamente se enchufaran al SAI que estará conectado al enchufe, asiendo de este modo el intermediario entre la red eléctrica y los dispositivos hardware. Otra de las funciones de los SAI es mejorar la calidad de la energía eléctrica que llega a los aparatos filtrando subidas y bajadas de tensión y eliminando armónicos en caso de usar corriente alterna. Los SAI dan energía eléctrica a equipos llamados cargar criticas como pueden ser aparatos médicos, industriales o informáticos que requieren tener siempre alimentación y que esta sea de calidad

2.2.1 Causas y efectos de los problemas de la red eléctrica

El papel de un SAI es suministrar potencia eléctrica en ocasiones de fallo de suministro en un intervalo corto sin embargo muchos sistemas de alimentación interrumpida son capaces de corregir otros fallos de suministro. Los nueves problemas de la energía son :

1. Corte de energía o apagones: Es la perdida total de suministro eléctrico causado por relámpagos fallos de la linea de energía, excesos de demandas accidentes y desastres naturales. Pueden causar daños en el equipo electrónico, perdida de datos, o parada del sistema.

2. Bajada de voltaje momentánea o micro-cortes: Es la caída momentánea del voltaje generada por el arranque de grandes cargas encendidos de maquinarias pesadas o fallos de equipos, se presenta de manera similar a los apagones pero en oleadas repentinas, causa principalmente daños al hardware y perdida de datos.

3. Ciclo de tensión o altos voltajes momentáneos: Producidos por una rápida reducción de cargas cuando el equipo pesado es apagado, o por voltajes que están por encima del ciento diez por ciento de la nominal, los resultados pueden ser daños irreversibles.

4. Bajadas de tensión sostenidas: Bajo voltaje sostenido en la linea por periodos largos de unos cuantos minutos, horas y hasta días pueden ser causados por una reducción intencionada de la tensión para conservar energías durante los periodos de mayor demanda. Puede causar daños al hardware principalmente.

5. Sobrevoltaje o lineas de tensión: sobrevoltaje en la linea por periodos largos. Puede ser causado por un relámpago y puede incrementar el voltaje de la linea hasta 6000 volteos en exceso casi siempre ocasiona perdidas de la información y daños del hardaware.

6. Ruido eléctrico: Interferencias de alta frecuencia causada por radiofrecuencia o interferencias electromagnéticas, pueden ser causadas por transmisores, maquinas de soldar, impresoras, relámpagos,.... Introduce errores en los programas y archivos así como daños a los componentes electrónicos.

7. Variación de frecuencia: Se refiere a un cambio de estabilidad de la frecuencia, resultado de un generador o pequeños sitios de cogeneracion siendo cargados o descargados, puede causar funcionamiento errático de los equipos, perdidas de información, caídas del sistema y daños de equipos.

8. Transientes o micropicos: Es la caída instantánea del voltaje en el rango de los nanosegundos, la duración normal es mas corta que un pico , puede originar comportamientos extraños y proporcionado estrés en los componentes electrónicos quedando propensos a fallos.

9. Distorsión armónica: Es la distorsión de la onda normal, causadas por cargas no lineales conectadas a la misma red de los equipos informáticos y/o aplicaciones criticas: maquinas fax, copiadoras, son ejemplos de cargas no lineales puede provocar sobrecalentamiento en los ordenadores errores de comunicación y daño del hardware.

Consecuencias:

Un mal suministro de energía eléctrica afecta a la productividad de las empresas, ya que destruye información, dañan las infraestructuras, generan estrés y generan perdidas.

2.2.2 Tipos de SAIs

Según el tipo de energía eléctrica que producen a su salida hay dos tipos:

SAI de continua: Los equipos o cargas conectados a los SAI requieren una alimentación de corriente continua por lo tanto estos transformaran corriente alterna a la red a corriente continua y la usaran para alimentar a la carga y almacenarla en su batería, por lo tanto no requieren convertidores en la batería y las cargas.

SAI de alterna: Estos SAIs obtienen en su salida una señal alterna por lo que necesitan un inversor para transformar la señal continua que tienen las baterías en una señal alterna. Habitualmente es el tipo de SAI que se comercializa ya que los equipos informáticos requieren corriente alterna para su funcionamiento, la mayoría de los SAI comerciales permiten conexión de red o red local entre PC y el sai para motorizar su estado en el PC mediante el software según los fallos eléctricos que corrigen disponibilidad, habilidad, etc se pueden clasificar en:

SAI offline o interactivo no senoidal (protección nivel 3 equipos básicos): Por su precio es el más extendido, sobre todo para la protección de pequeñas cargas. Estos tipos de sai alimentan las cargas criticas con una seguridad protección relativa dependiendo de tipo offline(estabilizados o/y con o sin filtros). Dentro de una escala de 1 al 100 estarían entre 40-60 en relación a protección. Básicamente los equipos ofline actúan en el momento en que la red desaparece o baja por debajo de los 220 voltios, y produciendo en el cambio de red a baterías un pequeño micro-corte en el cual para una mayoría de equipos eléctricos e informáticos es inapreciable no así para equipos muy sostificados.

SAI on-line y line interactive(protección nivel 5): El SAI on-line cumple verdaderamente para todos los problemas ocasionados por fallos en la compañía eléctrica tanto como por otros problemas ocasionados por las lineas eléctricas dentro de polígonos industriales, y oficinas como puede ser el ruido eléctrico, suele dar una protección de 70-90 sobre 100. Existen diferentes tipos pero todos cumplen su función dejando pocas ventanas abiertas a posibles problemas.

SAI on-line doble conversión (protección de nivel nueve): La verdadera diferencia de los SAI se encuentra en los equipos ya que off line linea interactiva y on-line de una conversión depende de una u otra manera de la entrada eléctrica al equipo cumpla una mínimas condiciones para el correcto funcionamiento de los equipos. Los equipos de doble conversión no depende de la linea de entrada para trabajar con una doble conversión de eliminando por completo todos los problemas ocasionados por la compañías eléctricas ademas de los problemas meteorológicos.

Sistemas biométricos

Definimos la biometría como la parte de la biología que estudia de forma cuantitativa la variabilidad individual de los seres vivos utilizando métodos estadísticos. La biometría es una tecnología que realiza mediciones de forma electrónica, guardad compara características únicas, para la identificación de personas. La forma de identificación consiste en la comparación de características físicas de cada persona, por un patrón conocido y almacenado en una base de datos. Los lectores biométricos que identifican a la persona por lo que es manos, ojos, huellas digitales y voz. Beneficios de una tecnología biométrica:

Pueden eliminar la necesidad de poseer una tarjeta para acceder y de una contraseña difícil de recordar o que finalmente acabe escrita en una papel y visible para cualquier persona.

Los coste de administración son mas pequeños se realizan un mantenimiento del lector y una persona se encarga de mantener una base de datos. Además las características biometrícas son intransferibles a otra persona.

La emisión de calor: Se mide la emisión de calor del cuerpo (termo-grama) realizando un mapa de valores sobre la

forma de cada persona.

Huella digital: Pasado en el principio no existe dos huellas digitales idénticas, este sistema viene siendo usado desde

el siglo pasado con excelentes resultados. Cada huella digital posee pequeños arcos, ángulos, bucles, remolinos

llamados minucias. Características y la posición de cada una de ellas es lo analizado para establecer la identificación

de una persona. Esta testado que cada persona posee 30 minucias y que dos personas no tiene mas de 8 minucias

iguales de lo que hace el método sumamente fiable.

Verificación de la voz: La emisión de una o mas frases es grabada y en el acceso se compara la voz, entonación,

diptongos, agudeza, etc.... Este sistema es muy sensible a factores externos como el ruido, el estado de animo,

enfermedades, envejecimiento, etc

Verificación de patrones oculares: Estos modelos esta basados en los patrones del iris o la retina y en estos

momentos son los considerados en lo mas eficaces. Su principal resistencia por parte de las personas a que les

analice los ojos por rebelarse en los mismo enfermedades que en ocasiones se quieran mantener en secreto.

Verificación automática de firmas: Mientras es posible para que falsificador producir una buena copia visual o

facesinin es extremadamente difícil reproducir la dinámicas de una persona, por ejemplo, las firmas que genuinan

con exactitud. Esta técnica usada visiones acústicas toma los datos del proceso dinámico de firmas o de escribir.

La secuencia sonora de emisión acústica generada en el proceso de escribir constituyen un patrón que es único en

cada individuo. EL patrón contiene información expresa sobre la manera en que la escritura es ejecutada, el

equipamiento de colección de firmas es inherentemente de bajo coste y robusto, excepcionalmente consta de un

bloque de metal por un otro material con propiedades acústicas similares y una computadora con bases de datos

con patrones de firmas asociadas a cada usuario.

Existe unas otras soluciones a la biometría mas complejas y menos usadas en acceso a organizaciones o a un

sistemas informático concreto como son la geometría de las manos y el reconocimiento facial.

5. Seguridad logica

La seguridad lógica se refiere a la seguridad en el uso de software y los sistemas, la protección de los datos,

procesos y programas, así como la del acceso ordenado y autorizado de los usuarios a la información. La “seguridad

lógica” involucra todas aquellas medidas establecidas por la administración -usuarios y administradores de recursos

de tecnología de información- para minimizar los riesgos de seguridad asociados con sus operaciones cotidianas

llevadas a cabo utilizando la tecnología de información. El Manual sobre Normas Técnicas de Control Interno

Relativas a los Sistemas de Información Computadorizados emitido por la Contraloría General de la República,

establece en la norma Nº 305-03 sobre seguridad lógica, que el acceso a los archivos de datos y programas sólo se

permitirá al personal autorizado. Los principales objetivos que persigue la seguridad lógica son:

Restringir el acceso a los programas y archivos

Asegurar que se estén utilizando los datos, archivos y programas correctos en y por el procedimiento

correcto.

Una copia de seguridad o backup (su nombre en inglés) en tecnología de la información o informática

es una copia de seguridad - o el proceso de copia de seguridad - con el fin de que estas copias adicionales

puedan utilizarse para restaurar el original después de una eventual pérdida de datos. Fundamentalmente

son útiles para tres cosas: Primero: recuperarse de una catástrofe informática, Segundo: recuperar una

pequeña cantidad de archivos que pueden haberse eliminado accidentalmente o corrompido. La pérdida

de datos es muy común: El 66% de los usuarios de internet han sufrido una seria pérdida de datos. Ya que

los sistemas de respaldo contienen por lo menos una copia de todos los datos que vale la pena salvar,

deben de tenerse en cuenta los requerimientos de almacenamiento. La organización del espacio de

almacenamiento y la administración del proceso de efectuar la copia de seguridad son tareas

complicadas. Para brindar una estructura de almacenamiento es conveniente utilizar un modelo de

almacenaje de datos.

Antes de que los datos sean enviados a su lugar de almacenamiento se lo debe seleccionar, extraer y manipular. Se

han desarrollado muchas técnicas diferentes para optimizar el procedimiento de efectuar los backups. Estos

procedimientos incluyen entre otros optimizaciones para trabajar con archivos abiertos y fuentes de datos en uso y

también incluyen procesos de compresión, cifrado, y procesos de duplicación, entendiéndose por esto último a una

forma específica de compresión donde los datos superfluos son eliminados. Muchas organizaciones e individuos

tratan de asegurarse que el proceso de backup se efectúe de la manera esperada y trabajan en la evaluación y la

validación de las técnicas utilizadas. También es importante reconocer las limitaciones y los factores humanos que

están involucrados en cualquier esquema de backup que se utilice. Las copias de seguridad garantizan dos

objetivos: integridad y disponibilidad.

Copias de seguridad e imagenes de respaldo

Tipos de copia de seguridad

La utilidad Copia de seguridad admite cinco métodos para hacer copia de seguridad de los datos del equipo o de la

red.

Copia de seguridad de copia

Copia todos los archivos seleccionados pero no los marca individualmente como copiados (es decir, no desactiva

el atributo de modificado). Este método es útil cuando desea realizar copias de seguridad de archivos entre copias

de seguridad normales e incrementales, ya que no afecta a estas otras operaciones.

Copia de seguridad diaria

Copia todos los archivos seleccionados que se hayan modificado el día en que se realiza la copia diaria. Los

archivos incluidos en la copia de seguridad no se marcan como copiados (es decir, no se desactiva el atributo de

modificado).

Copia de seguridad diferencial

Copia los archivos creados o modificados desde la última copia de seguridad normal o incremental. Los archivos no

se marcan como copiados (es decir, no se desactiva el atributo de modificado). Si realiza una combinación de copias

de seguridad normal y diferencial, para restaurar los archivos y las carpetas debe disponer de la última copia de

seguridad normal y de la última copia de seguridad diferencial.

Copia de seguridad incremental

Sólo copia los archivos creados o modificados desde la última copia de seguridad normal o incremental. Marca los

archivos como copiados (es decir, se desactiva el atributo de modificado). Si usa una combinación de copias de

seguridad normal e incremental, la restauración de los datos debe realizarse con el último conjunto copia de

seguridad normal y todos los conjuntos de copia de seguridad incremental.

Copia de seguridad normal

Copia todos los archivos seleccionados y los marca como copiados (es decir, se desactiva el atributo de

modificado). En las copias de seguridad normales sólo necesita la copia más reciente del archivo o la cinta que

contiene la copia de seguridad para restaurar todos los archivos. Las copias de seguridad normales se suelen realizar

al crear por primera vez un conjunto de copia de seguridad.

La combinación de copias de seguridad normales e incrementales utiliza el mínimo espacio de almacenamiento

posible y es el método de copia de seguridad más rápido. Sin embargo, la recuperación de archivos puede ser difícil

y laboriosa ya que el conjunto de copia de seguridad puede estar repartido entre varios discos o cintas.

Si realiza una copia de seguridad de sus datos empleando una combinación de copias de seguridad normales y

diferenciales consumirá más tiempo, especialmente si los datos sufren cambios frecuentes, aunque será más fácil

restaurar los datos ya que el conjunto de copia de seguridad sólo estará repartido en unos pocos discos o cintas.

Copia de seguridad normal

Copia todos los archivos seleccionados y los marca como copiados (es decir, se desactiva el atributo de

modificado). En las copias de seguridad normales sólo necesita la copia más reciente del archivo o la cinta que

contiene la copia de seguridad para restaurar todos los archivos. Las copias de seguridad normales se suelen realizar

al crear por primera vez un conjunto de copia de seguridad.

La combinación de copias de seguridad normales e incrementales utiliza el mínimo espacio de almacenamiento

posible y es el método de copia de seguridad más rápido. Sin embargo, la recuperación de archivos puede ser difícil

y laboriosa ya que el conjunto de copia de seguridad puede estar repartido entre varios discos o cintas.

Si realiza una copia de seguridad de sus datos empleando una combinación de copias de seguridad normales y

diferenciales consumirá más tiempo, especialmente si los datos sufren cambios frecuentes, aunque será más fácil

restaurar los datos ya que el conjunto de copia de seguridad sólo estará repartido en unos pocos discos o cintas.

Medios de almacenamiento

Las unidades de almacenamiento son dispositivos o periféricos del sistema, que actúan como medio de soporte

para la grabación de los programas de usuario y de los datos que son manejados por las aplicaciones que se

ejecutan en estos sistemas; en otras palabras nos sirven para guardar la información en nuestro computador.

Estos dispositivos realizan las operaciones de lectura o escritura de los medios o soportes donde se almacenan o

guardan, lógica y físicamente, los archivos de un sistema informático.

Los dispositivos que no se utilizan exclusivamente para grabación (por ejemplo manos, bocas, instrumentos

musicales) y dispositivos que son intermedios en el proceso de almacenamiento y recuperación (por ejemplo, ojos,

oídos, cámaras, escáneres, micrófonos, altavoces, monitores, proyectores de vídeo) no son por lo general

considerados como dispositivos de almacenamiento. Los dispositivos usados exclusivamente para grabación (por

ejemplo impresoras), exclusivamente para lectura (por ejemplo lectores de códigos de barras), o los dispositivos

que procesan solamente una forma de información (por ejemplo fonógrafos) pueden o no considerarse dispositivos

de almacenamiento. En computación éstos se conocen como dispositivos de entrada-salida.

Disco duro

Los discos duros tienen una gran capacidad de almacenamiento de información, pero al estar alojados

normalmente dentro de la computadora (discos internos), no son extraíbles fácilmente. Para intercambiar

información con otros equipos (si no están conectados en red) se tienen que utilizar unidades de disco, como los

disquetes, los discos ópticos (CD, DVD), los discos magneto-ópticos, memorias USB o las memorias flash, entre

otros.

El disco duro almacena casi toda la información que manejamos al trabajar con una computadora. En él se aloja,

por ejemplo, el sistema operativo que permite arrancar la máquina, los programas, archivos de texto, imagen,

vídeo, etc. Dicha unidad puede ser interna (fija) o externa (portátil), dependiendo del lugar que ocupe en el

gabinete o caja de computadora.

Un disco duro está formado por varios discos apilados sobre los que se mueve una pequeña cabeza magnética que

graba y lee la información.

Este componente, al contrario que el micro o los módulos de memoria, no se pincha directamente en la placa,

sino que se conecta a ella mediante un cable. También va conectado a la fuente de alimentación, pues, como

cualquier otro componente, necesita energía para funcionar.

Además, una sola placa puede tener varios discos duros conectados.

Las características principales de un disco duro son:

Capacidad: Se mide en gigabytes (GB). Es el espacio disponible para almacenar secuencias de 1 byte. La

capacidad aumenta constantemente desde cientos de MB, decenas de GB, cientos de GB y hasta TB.

Velocidad de giro: Se mide en revoluciones por minuto (RPM). Cuanto más rápido gire el disco, más rápido

podrá acceder a la información la cabeza lectora. Los discos actuales giran desde las 4.200 a 15.000 RPM,

dependiendo del tipo de ordenador al que estén destinadas.

Capacidad de transmisión de datos: De poco servirá un disco duro de gran capacidad si transmite los datos

lentamente. Los discos actuales pueden alcanzar transferencias de datos de 3 GB por segundo.

También existen discos duros externos que permiten almacenar grandes cantidades de información. Son muy

útiles para intercambiar información entre dos equipos. Normalmente se conectan al PC mediante un conector USB.

Cuando el disco duro está leyendo, se enciende en la carcasa un LED (de color rojo, verde u otro). Esto es útil para

saber, por ejemplo, si la máquina ha acabado de realizar una tarea o si aún está procesando datos.

Disquetera

La unidad de 3,5 pulgadas permite intercambiar información utilizando disquetes magnéticos de 1,44 MB de

capacidad. Aunque la capacidad de soporte es muy limitada si tenemos en cuenta las necesidades de las

aplicaciones actuales se siguen utilizando para intercambiar archivos pequeños, pues pueden borrarse y reescribirse

cuantas veces se desee de una manera muy cómoda, aunque la transferencia de información es bastante lenta si la

comparamos con otros soportes, como el disco duro o un CD-ROM.

Para usar el disquete basta con introducirlo en la ranura de la disquetera. Para expulsarlo se pulsa el botón

situado junto a la ranura, o bien se ejecuta alguna acción en el entorno gráfico con el que trabajamos (por ejemplo,

se arrastra el símbolo del disquete hasta un icono representado por una papelera).

La unidad de disco se alimenta mediante cables a partir de la fuente de alimentación del sistema. Y también va

conectada mediante un cable a la placa base. Un diodo LED se ilumina junto a la ranura cuando la unidad está

leyendo el disco, como ocurre en el caso del disco duro.

En los disquetes solo se puede escribir cuando la pestaña esta cerrada.

Cabe destacar que el uso de este soporte en la actualidad es escaso o nulo, puesto que se ha vuelto obsoleto

teniendo en cuenta los avances que en materia de tecnología se han producido.

Unidad de CD-ROM o "lectora“

La unidad de CD-ROM permite utilizar discos ópticos de una mayor capacidad que los disquetes de 3,5 pulgadas:

hasta 700 MB. Ésta es su principal ventaja, pues los CD-ROM se han convertido en el estándar para distribuir

sistemas operativos, aplicaciones, etc.

El uso de estas unidades está muy extendido, ya que también permiten leer los discos compactos de audio.

Para introducir un disco, en la mayoría de las unidades hay que pulsar un botón para que salga una especie de

bandeja donde se deposita el CD-ROM. Pulsando nuevamente el botón, la bandeja se introduce.

En estas unidades, además, existe una toma para auriculares, y también pueden estar presentes los controles de

navegación y de volumen típicos de los equipos de audio para saltar de una pista a otra, por ejemplo.

Una característica básica de las unidades de CD-ROM es la velocidad de lectura, que normalmente se expresa

como un número seguido de una «x» (40x, 52x,..). Este número indica la velocidad de lectura en múltiplos de 128

kB/s. Así, una unidad de 52x lee información de 128 kB/s × 52 = 6,656 kB/s, es decir, a 6,5 MB/s.

Unidad de CD-RW (regrabadora) o "grabadora“

Las unidades de CD-ROM son de sólo lectura. Es decir, pueden leer la información en un disco, pero no pueden

escribir datos en él.

Una regrabadora puede grabar y regrabar discos compactos. Las características básicas de estas unidades son la

velocidad de lectura, de grabación y de regrabación. En los discos regrabables es normalmente menor que en los

discos que sólo pueden ser grabados una vez. Las regrabadoras que trabajan a 8X, 16X, 20X, 24X, etc., permiten

grabar los 650, 700 o más megabytes (hasta 900 MB) de un disco compacto en unos pocos minutos. Es habitual

observar tres datos de velocidad, según la expresión ax bx cx (a:velocidad de lectura; b: velocidad de grabación; c:

velocidad de regrabación).

Unidad de DVD-ROM o "lectora de DVD“

Las unidades de DVD-ROM son aparentemente iguales que las de CD-ROM, pueden leer tanto discos DVD-ROM

como CD-ROM. Se diferencian de las unidades lectoras de CD-ROM en que el soporte empleado tiene hasta 17 GB

de capacidad, y en la velocidad de lectura de los datos. La velocidad se expresa con otro número de la «x»: 12x,

16x... Pero ahora la x hace referencia a 1,32 MB/s. Así: 16x = 21,12 MB/s.

Unidad de DVD-RW o "grabadora de DVD“

Puede leer y grabar y regrabar imágenes, sonido y datos en discos de varios gigabytes de capacidad, de una

capacidad de 650 MB a 9 GB.

Unidad de disco magneto-óptico

La unidad de discos magneto-ópticos permiten el proceso de lectura y escritura de dichos discos con tecnología

híbrida de los disquetes y los discos ópticos, aunque en entornos domésticos fueron menos usadas que las

disqueteras y las unidades de CD-ROM, pero tienen algunas ventajas en cuanto a los disquetes:

Por una parte, admiten discos de gran capacidad: 230 MB, 640 Mb o 1,3 GB.

Además, son discos reescribibles, por lo que es interesante emplearlos, por ejemplo, para realizar copias de

seguridad.

Lector de tarjetas de memoria

El lector de tarjetas de memoria es un periférico que lee o escribe en soportes de memoria flash. Actualmente,

los instalados en computadores (incluidos en una placa o mediante puerto USB), marcos digitales, lectores de DVD y

otros dispositivos, suelen leer varios tipos de tarjetas.

Una tarjeta de memoria es un pequeño soporte de almacenamiento que utiliza memoria flash para guardar la

información que puede requerir o no baterías (pilas), en los últimos modelos la batería no es requerida, la batería

era utilizada por los primeros modelos. Estas memorias son resistentes a los rasguños externos y al polvo que han

afectado a las formas previas de almacenamiento portátil, como los CD y los disquetes.

Otros dispositivos de almacenamiento

Otros dispositivos de almacenamiento son las memorias flash o los dispositivos de almacenamiento

magnéticos de gran capacidad.

Cinta perforada: se trata de un medio muy obsoleto, consistente en tarjetas o cintas de papel perforadas.

Memoria flash: Es un tipo de memoria que se comercializa para el uso de aparatos portátiles, como

cámaras digitales o agendas electrónicas. El aparato correspondiente o bien un lector de tarjetas, se

conecta a la computadora a través del puerto USB o Firewire.

Discos y cintas magnéticas de gran capacidad: Son unidades especiales que se utilizan para realizar copias

de seguridad o respaldo en empresas y centros de investigación. Su capacidad de almacenamiento puede

ser de cientos de gigabytes.

Almacenamiento en línea: Hoy en día también debe hablarse de esta forma de almacenar información.

Esta modalidad permite liberar espacio de los equipos de escritorio y trasladar los archivos a discos rígidos

remotos provistos que garantizan normalmente la disponibilidad de la información. En este caso podemos

hablar de dos tipos de almacenamiento en línea: un almacenamiento de corto plazo normalmente

destinado a la transferencia de grandes archivos vía web; otro almacenamiento de largo plazo, destinado

a conservar información que normalmente se daría en el disco rígido del ordenador personal.

En informática , (el acrónimo 'RAID Redundant Array of Inexpensive Disks, «conjunto redundante de discos

independientes») hace referencia a un sistema de almacenamiento que usan múltiples discos duros o SSD entre los

que se distribuyen o replican los datos. Dependiendo de su configuración (a la que suele llamarse «nivel»), los

beneficios de un RAID respecto a un único disco son uno o varios de los siguientes: mayor integridad, mayor

tolerancia a fallos, mayor throughput (rendimiento) y mayor capacidad. En sus implementaciones originales, su

ventaja clave era la habilidad de combinar varios dispositivos de bajo coste y tecnología más antigua en un conjunto

que ofrecía mayor capacidad, fiabilidad, velocidad o una combinación de éstas que un solo dispositivo de última

generación y coste más alto.

En el nivel más simple, un RAID combina varios discos duros en una sola unidad lógica. Así, en lugar de ver varios

discos duros diferentes, el sistema operativo ve uno solo. Los RAIDs suelen usarse en servidores y normalmente

(aunque no es necesario) se implementan con unidades de disco de la misma capacidad. Debido al decremento en

el precio de los discos duros y la mayor disponibilidad de las opciones RAID incluidas en los chipsets de las placas

base, los RAIDs se encuentran también como opción en las computadoras personales más avanzadas. Esto es

especialmente frecuente en las computadoras dedicadas a tareas intensivas y que requiera asegurar la integridad

de los datos en caso de fallo del sistema. Esta característica no está obviamente disponible en los sistemas RAID por

software, que suelen presentar por tanto el problema de reconstruir el conjunto de discos cuando el sistema es

reiniciado tras un fallo para asegurar la integridad de los datos. Por el contrario, los sistemas basados en software

son mucho más flexibles (permitiendo, por ejemplo, construir RAID de particiones en lugar de discos completos y

agrupar en un mismo RAID discos conectados en varias controladoras) y los basados en hardware añaden un punto

de fallo más al sistema (la controladora RAID).

Todas las implementaciones pueden soportar el uso de uno o más discos de reserva (hot spare), unidades

preinstaladas que pueden usarse inmediatamente (y casi siempre automáticamente) tras el fallo de un disco del

RAID. Esto reduce el tiempo del período de reparación al acortar el tiempo de reconstrucción del RAID.

RAID 0 (Data Striping)

Un RAID 0 (también llamado conjunto dividido, volumen dividido, volumen seccionado) distribuye los datos

equitativamente entre dos o más discos sin información de paridad que proporcione redundancia. Es importante

señalar que el RAID 0 no era uno de los niveles RAID originales y que no es redundante. El RAID 0 se usa

normalmente para incrementar el rendimiento, aunque también puede utilizarse como forma de crear un pequeño

número de grandes discos virtuales a partir de un gran número de pequeños discos físicos. Un RAID 0 puede ser

creado con discos de diferentes tamaños, pero el espacio de almacenamiento añadido al conjunto estará limitado

por el tamaño del disco más pequeño (por ejemplo, si un disco de 300 GB se divide con uno de 100 GB, el tamaño

del conjunto resultante será sólo de 200 GB, ya que cada disco aporta 100GB). Una buena implementación de un

RAID 0 dividirá las operaciones de lectura y escritura en bloques de igual tamaño, por lo que distribuirá la

información equitativamente entre los dos discos. También es posible crear un RAID 0 con más de dos discos, si

bien, la fiabilidad del conjunto será igual a la fiabilidad media de cada disco entre el número de discos del conjunto;

es decir, la fiabilidad total —medida como MTTF o MTBF— es (aproximadamente) inversamente proporcional al

número de discos del conjunto (pues para que el conjunto falle es suficiente con que lo haga cualquiera de sus

discos).

RAID 1

Un RAID 1 crea una copia exacta (o espejo) de un conjunto de datos en dos o más discos. Esto resulta útil cuando

el rendimiento en lectura es más importante que la capacidad. Un conjunto RAID 1 sólo puede ser tan grande como

el más pequeño de sus discos. Un RAID 1 clásico consiste en dos discos en espejo, lo que incrementa

exponencialmente la fiabilidad respecto a un solo disco; es decir, la probabilidad de fallo del conjunto es igual al

producto de las probabilidades de fallo de cada uno de los discos (pues para que el conjunto falle es necesario que

lo hagan todos sus discos).

Adicionalmente, dado que todos los datos están en dos o más discos, con hardware habitualmente

independiente, el rendimiento de lectura se incrementa aproximadamente como múltiplo lineal del número del

copias; es decir, un RAID 1 puede estar leyendo simultáneamente dos datos diferentes en dos discos diferentes, por

lo que su rendimiento se duplica. Para maximizar los beneficios sobre el rendimiento del RAID 1 se recomienda el

uso de controladoras de disco independientes, una para cada disco (práctica que algunos denominan splitting o

duplexing).

Como en el RAID 0, el tiempo medio de lectura se reduce, ya que los sectores a buscar pueden dividirse entre los

discos, bajando el tiempo de búsqueda y subiendo la tasa de transferencia, con el único límite de la velocidad

soportada por la controladora RAID. Sin embargo, muchas tarjetas RAID 1 IDE antiguas leen sólo de un disco de la

pareja, por lo que su rendimiento es igual al de un único disco. Algunas implementaciones RAID 1 antiguas también

leen de ambos discos simultáneamente y comparan los datos para detectar errores.

Al escribir, el conjunto se comporta como un único disco, dado que los datos deben ser escritos en todos los

discos del RAID 1. Por tanto, el rendimiento no mejora.

El RAID 1 tiene muchas ventajas de administración. Por ejemplo, en algunos entornos 24/7, es posible «dividir el

espejo»: marcar un disco como inactivo, hacer una copia de seguridad de dicho disco y luego «reconstruir» el

espejo. Esto requiere que la aplicación de gestión del conjunto soporte la recuperación de los datos del disco en el

momento de la división. Este procedimiento es menos crítico que la presencia de una característica de snapshot en

algunos sistemas de archivos, en la que se reserva algún espacio para los cambios, presentando una vista estática

en un punto temporal dado del sistema de archivos. Alternativamente, un conjunto de discos puede ser

almacenado de forma parecida a como se hace con las tradicionales cintas.

RAID 5

Un RAID 5 es una división de datos a nivel de bloques distribuyendo la información de paridad entre todos los

discos miembros del conjunto. El RAID 5 ha logrado popularidad gracias a su bajo coste de redundancia.

Generalmente, el RAID 5 se implementa con soporte hardware para el cálculo de la paridad. RAID 5 necesitará un

mínimo de 3 discos para ser implementado.

En el gráfico de ejemplo anterior, una petición de lectura del bloque «A1» sería servida por el disco 0. Una

petición de lectura simultánea del bloque «B1» tendría que esperar, pero una petición de lectura de «B2» podría

atenderse concurrentemente ya que seria servida por el disco 1.

Cada vez que un bloque de datos se escribe en un RAID 5, se genera un bloque de paridad dentro de la misma

división (stripe). Un bloque se compone a menudo de muchos sectores consecutivos de disco. Una serie de bloques

(un bloque de cada uno de los discos del conjunto) recibe el nombre colectivo de división (stripe). Si otro bloque, o

alguna porción de un bloque, es escrita en esa misma división, el bloque de paridad (o una parte del mismo) es

recalculada y vuelta a escribir. El disco utilizado por el bloque de paridad está escalonado de una división a la

siguiente, de ahí el término «bloques de paridad distribuidos». Las escrituras en un RAID 5 son costosas en términos

de operaciones de disco y tráfico entre los discos y la controladora.

Los bloques de paridad no se leen en las operaciones de lectura de datos, ya que esto sería una sobrecarga

innecesaria y disminuiría el rendimiento. Sin embargo, los bloques de paridad se leen cuando la lectura de un sector

de datos provoca un error de CRC. En este caso, el sector en la misma posición relativa dentro de cada uno de los

bloques de datos restantes en la división y dentro del bloque de paridad en la división se utilizan para reconstruir el

sector erróneo. El error CRC se oculta así al resto del sistema. De la misma forma, si falla un disco del conjunto, los

bloques de paridad de los restantes discos son combinados matemáticamente con los bloques de datos de los

restantes discos para reconstruir los datos del disco que ha fallado «al vuelo».

Lo anterior se denomina a veces Modo Interino de Recuperación de Datos (Interim Data Recovery Mode). El

sistema sabe que un disco ha fallado, pero sólo con el fin de que el sistema operativo pueda notificar al

administrador que una unidad necesita ser reemplazada: las aplicaciones en ejecución siguen funcionando ajenas al

fallo. Las lecturas y escrituras continúan normalmente en el conjunto de discos, aunque con alguna degradación de

rendimiento. La diferencia entre el RAID 4 y el RAID 5 es que, en el Modo Interno de Recuperación de Datos, el RAID

5 puede ser ligeramente más rápido, debido a que, cuando el CRC y la paridad están en el disco que falló, los

cálculos no tienen que realizarse, mientras que en el RAID 4, si uno de los discos de datos falla, los cálculos tienen

que ser realizados en cada acceso.

El fallo de un segundo disco provoca la pérdida completa de los datos.

El número máximo de discos en un grupo de redundancia RAID 5 es teóricamente ilimitado, pero en la práctica es

común limitar el número de unidades. Los inconvenientes de usar grupos de redundancia mayores son una mayor

probabilidad de fallo simultáneo de dos discos, un mayor tiempo de reconstrucción y una mayor probabilidad de

hallar un sector irrecuperable durante una reconstrucción. A medida que el número de discos en un conjunto RAID

5 crece, el MTBF (tiempo medio entre fallos) puede ser más bajo que el de un único disco. Esto sucede cuando la

probabilidad de que falle un segundo disco en los N-1 discos restantes de un conjunto en el que ha fallado un disco

en el tiempo necesario para detectar, reemplazar y recrear dicho disco es mayor que la probabilidad de fallo de un

único disco. Una alternativa que proporciona una protección de paridad dual, permitiendo así mayor número de

discos por grupo, es el RAID 6.

Algunos vendedores RAID evitan montar discos de los mismos lotes en un grupo de redundancia para minimizar

la probabilidad de fallos simultáneos al principio y el final de su vida útil.

Las implementaciones RAID 5 presentan un rendimiento malo cuando se someten a cargas de trabajo que

incluyen muchas escrituras más pequeñas que el tamaño de una división (stripe). Esto se debe a que la paridad

debe ser actualizada para cada escritura, lo que exige realizar secuencias de lectura, modificación y escritura tanto

para el bloque de datos como para el de paridad. Implementaciones más complejas incluyen a menudo cachés de

escritura no volátiles para reducir este problema de rendimiento.

En el caso de un fallo del sistema cuando hay escrituras activas, la paridad de una división (stripe) puede quedar en

un estado inconsistente con los datos. Si esto no se detecta y repara antes de que un disco o bloque falle, pueden

perderse datos debido a que se usará una paridad incorrecta para reconstruir el bloque perdido en dicha división.

Esta potencial vulnerabilidad se conoce a veces como «agujero de escritura». Son comunes el uso de caché no

volátiles y otras técnicas para reducir la probabilidad de ocurrencia de esta vulnerabilidad.

Una red de área de almacenamiento, en inglés SAN (Storage Area Network), es una red de almacenamiento

integral. Se trata de una arquitectura completa que agrupa los siguientes elementos:

- Una red de alta velocidad de canal de fibra o SCSI.

- Un equipo de interconexión dedicado (conmutadores, puentes, etc).

- Elementos de almacenamiento de red (discos duros).

Presentación de una SAN

Una SAN es una red dedicada al almacenamiento que está conectada a las redes de comunicación de una

compañía. Además de contar con interfaces de red tradicionales, los equipos con acceso a la SAN tienen una

interfaz de red específica que se conecta a la SAN.

Ventajas y desventajas

El rendimiento de la SAN está directamente relacionado con el tipo de red que se utiliza. En el caso de una red

de canal de fibra, el ancho de banda es de aproximadamente 100 megabytes/segundo (1.000 megabits/segundo) y

se puede extender aumentando la cantidad de conexiones de acceso.

La capacidad de una SAN se puede extender de manera casi ilimitada y puede alcanzar cientos y hasta miles de

terabytes.

Una SAN permite compartir datos entre varios equipos de la red sin afectar el rendimiento porque el tráfico de

SAN está totalmente separado del tráfico de usuario. Son los servidores de aplicaciones que funcionan como una

interfaz entre la red de datos (generalmente un canal de fibra) y la red de usuario (por lo generalEthernet).

Por otra parte, una SAN es mucho más costosa que una NAS ya que la primera es una arquitectura completa que

utiliza una tecnología que todavía es muy cara. Normalmente, cuando una compañía estima el TCO (Coste total de

propiedad) con respecto al coste por byte, el coste se puede justificar con más facilidad.

Además es una red concebida para conectar servidores, matrices (arrays) de discos y librerías de soporte.

Principalmente, está basada en tecnología fibre channel y más recientemente en iSCSI. Su función es la de conectar

de manera rápida, segura y fiable los distintos elementos que la conforman.

NAS (del inglés Network Attached Storage) es el nombre dado a una tecnología de almacenamiento dedicada a

compartir la capacidad de almacenamiento de un computador (Servidor) con ordenadores personales o servidores

clientes a través de una red (normalmente TCP/IP), haciendo uso de un Sistema Operativo optimizado para dar

acceso con los protocolos CIFS, NFS, FTP o TFTP.

Generalmente, los sistemas NAS son dispositivos de almacenamiento específicos a los que se accede desde los

equipos a través de protocolos de red (normalmente TCP/IP). También se podría considerar un sistema NAS a un

servidor (Linux, Windows, ...) que comparte sus unidades por red, pero la definición suele aplicarse a sistemas

específicos.

Los protocolos de comunicaciones NAS están basados en ficheros por lo que el cliente solicita el fichero completo

al servidor y lo maneja localmente, están por ello orientados a información almacenada en ficheros de pequeño

tamaño y gran cantidad. Los protocolos usados son protocolos de compartición de ficheros como NFS o Microsoft

Common Internet File System (CIFS).

Muchos sistemas NAS cuentan con uno o más dispositivos de almacenamiento para incrementar su capacidad

total. Frecuentemente, estos dispositivos están dispuestos en RAID (Redundant Arrays of Independent Disks) o

contenedores de almacenamiento redundante.

El Almacenamiento en nube o Cloud storage es un modelo de almacenamiento basado en redes, ideado en los

1960s , donde los datos están alojados en espacios de almacenamiento virtualizados y por lo general están alojados

por terceros. Las compañías de alojamiento operan enormes centro de procesamiento de datos; y los usuarios que

requieren que sus datos sean alojados compran o alquilan la capacidad de almacenamiento que requieren. Los

operadores de los centros de datos, se a nivel servicio, virtualizan los recursos de acuerdo a los requerimientos del

cliente y solo exhiben los entornos con los recursos requeridos, mientras que los clientes por ellos mismos

administran el almacenamiento y funcionamiento de archivos, datos o aplicaciones. Físicamente los recursos

pueden estar repartido en múltiples servidores físicos.

Los servicios de Almacenamiento en nube pueden ser accedidos por diferentes medios, como una web service

API, interface web de usuario o alguna otra seleccionada por el cliente.

Control de acceso logico

- Autenticación:

En la seguridad de ordenador, la autenticación es el proceso de intento de verificar la identidad digital del

remitente de una comunicación como una petición para conectarse. El remitente siendo autenticado puede ser una

persona que usa un ordenador, un ordenador por sí mismo o un programa del ordenador. En un web de confianza,

"autenticación" es un modo de asegurar que los usuarios son quién ellos dicen que ellos son - que el usuario que

intenta realizar funciones en un sistema es de hecho el usuario que tiene la autorización para hacer así.

- Autorización:

Proceso por el cual la red de datos autoriza al usuario identificado a acceder a determinados recursos de la

misma.

- Identificación:

Es el proceso por el cual alguien que quiera acceder a cualquier sistema tiene que superar este apartado para

acceder a el, como por ejemplo tener un nombre de usuario y una contraseña.

Como norma general algunas de estas normas son las siguientes:

1 Se deben utilizar al menos 8 caracteres para crear la clave. Según un estudio de la Universidad de Wichita,

el número medio de caracteres por contraseña para usuarios entre 18 y 58 años habituales de Internet es

de 7. Esto conlleva el peligro de que el tiempo para descubrir la clave se vea reducido a minutos o incluso

segundos. Sólo un 36% de los encuestados indicaron que utilizaban un número de caracteres de 7 o

superior.

2 Se recomienda utilizar en una misma contraseña dígitos, letras y caracteres especiales.

3 Es recomendable que las letras alternen aleatoriamente mayúsculas y minúsculas. Hay que tener

presente el recordar qué letras van en mayúscula y cuáles en minúscula. Según el mismo estudio, el 86%

de los usuarios utilizan sólo letras minúsculas, con el peligro de que la contraseña sea descubierta por un

atacante casi instantáneamente.

4 Elegir una contraseña que pueda recordarse fácilmente y es deseable que pueda escribirse rápidamente,

preferiblemente, sin que sea necesario mirar el teclado.

5 Las contraseñas hay que cambiarlas con una cierta regularidad. Un 53% de los usuarios no cambian nunca

la contraseña salvo que el sistema le obligue a ello cada cierto tiempo. Y, a la vez, hay que procurar no

generar reglas secuenciales de cambio. Por ejemplo, crear una nueva contraseña mediante un incremento

secuencial del valor en relación a la última contraseña. P. ej.: pasar de “01Juitnx” a “02Juitnx”.

6 Utilizar signos de puntuación si el sistema lo permite. P. ej.: “Tr-.3Fre”. En este caso de incluir otros

caracteres que no sean alfa-numéricos en la contraseña, hay que comprobar primero si el sistema permite

dicha elección y cuáles son los permitidos. Dentro de ese consejo se incluiría utilizar símbolos como: ! " #

$ % & ' ( ) * + , - . / : ; < = > ? @ [ \ ] ^ _ ` { | } ~

7 7 Existen algunos trucos para plantear una contraseña que no sea débil y se pueda recordar más

fácilmente. Por ejemplo se pueden elegir palabras sin sentido pero que sean pronunciables, etc. Nos

podemos ayudar combinando esta selección con números o letras e introducir alguna letra mayúscula.

Otro método sencillo de creación de contraseñas consiste en elegir la primera letra de cada una de las

palabras que componen una frase conocida, de una canción, película, etc. Con ello, mediante esta sencilla

mnemotecnia es más sencillo recordarla. Vg: de la frase “Comí mucho chocolate el domingo 3, por la

tarde”, resultaría la contraseña: “cmCeD3-:xLt”. En ella, además, se ha introducido alguna mayúscula, se

ha cambiado el “por” en una “x” y, si el sistema lo permite, se ha colocado algún signo de puntuación (-).

La auditoría informática es un proceso llevado a cabo por profesionales especialmente capacitados para el efecto, y

que consiste en recoger, agrupar y evaluar evidencias para determinar si un sistema de información salvaguarda el

activo empresarial, mantiene la integridad de los datos, lleva a cabo eficazmente los fines de la organización, utiliza

eficientemente los recursos, y cumple con las leyes y regulaciones establecidas. Permiten detectar de forma

sistemática el uso de los recursos y los flujos de información dentro de una organización y determinar qué

información es crítica para el cumplimiento de su misión y objetivos, identificando necesidades, duplicidades,

costes, valor y barreras, que obstaculizan flujos de información eficientes.

Dentro de la auditoría informática destacan los siguientes tipos (entre otros):

Auditoría de la gestión: la contratación de bienes y servicios, documentación de los programas, etc.

Auditoría legal del Reglamento de Protección de Datos: Cumplimiento legal de las medidas de seguridad

exigidas por el Reglamento de desarrollo de la Ley Orgánica de Protección de Datos.

Auditoría de los datos: Clasificación de los datos, estudio de las aplicaciones y análisis de los flujogramas.

Auditoría de las bases de datos: Controles de acceso, de actualización, de integridad y calidad de los

datos.

Auditoría de la seguridad: Referidos a datos e información verificando disponibilidad, integridad,

confidencialidad, autenticación y no repudio.

Auditoría de la seguridad física: Referido a la ubicación de la organización, evitando ubicaciones de

riesgo, y en algunos casos no revelando la situación física de esta. También está referida a las protecciones

externas (arcos de seguridad, CCTV, vigilantes, etc.) y protecciones del entorno.

Auditoría de la seguridad lógica: Comprende los métodos de autenticación de los sistemas de

información.

Auditoría de las comunicaciones. Se refiere a la auditoria de los procesos de autenticación en los sistemas

de comunicación.

Auditoría de la seguridad en producción: Frente a errores, accidentes y fraudes.

En la realización de una auditoría informática el auditor puede realizar las siguientes pruebas:

Pruebas sustantivas: Verifican el grado de confiabilidad del SI del organismo. Se suelen obtener mediante

observación, cálculos, muestreos, entrevistas, técnicas de examen analítico, revisiones y conciliaciones.

Verifican asimismo la exactitud, integridad y validez de la información.

Pruebas de cumplimiento: Verifican el grado de cumplimiento de lo revelado mediante el análisis de la

muestra. Proporciona evidencias de que los controles claves existen y que son aplicables efectiva y

uniformemente.

Las principales herramientas de las que dispone un auditor informático son:

Observación

Realización de cuestionarios

Entrevistas a auditados y no auditados

Muestreo estadístico

Flujogramas

Listas de chequeo

'Mapas conceptuales

Criptografía se ocupa de las técnicas mediante técnicas de cifrado y/o codificado, para hacerlos ininteligibles a

intrusos (lectores no autorizados) que intercepten esos mensajes. Por tanto el único objetivo de la criptografía era

conseguir la confidencialidad de los mensajes. Para ello se diseñaban sistemas de cifrado y códigos. En esos tiempos

la única criptografía que había era la llamada criptografía clásica.

La aparición de las Tecnologías de la Información y la Comunicación y el uso masivo de las comunicaciones digitales

han producido un número creciente de problemas de seguridad. Las transacciones que se realizan a través de la red

pueden ser interceptadas. La seguridad de esta información debe garantizarse. Este desafío ha generalizado los

objetivos de la criptografía para ser la parte de la criptología que se encarga del estudio de los algoritmos,

protocolos (se les llama protocolos criptográficos) y sistemas que se utilizan para proteger la información y dotar de

seguridad a las comunicaciones y a las entidades que se comunican. Para ello los criptógrafos investigan, desarrollan

y aprovechan técnicas matemáticas que les sirven como herramientas para conseguir sus objetivos.

La criptografía actualmente se encarga del estudio de los algoritmos, protocolos y sistemas que se utilizan para

dotar de seguridad a las comunicaciones, a la información y a las entidades que se comunican.1 El objetivo de la

criptografía es diseñar, implementar, implantar, y hacer uso de sistemas criptográficos para dotar de alguna forma

de seguridad. Por tanto se ocupa de proporcionar:

Confidencialidad. Es decir garantiza que la información está accesible únicamente a personal autorizado.

Para conseguirlo utiliza códigos y técnicas de cifrado.

Integridad. Es decir garantiza la corrección y completitud de la información. Para conseguirlo puede usar

por ejemplo funciones hash criptográficas MDC, protocolos de compromiso de bit, o protocolos de

notarización electrónica.

No repudio. Es decir proporciona protección frente a que alguna de las entidades implicadas en la

comunicación, pueda negar haber participado en toda o parte de la comunicación. Para conseguirlo puede

usar por ejemplo firma digital.

Autenticación. Es decir proporciona mecanismos que permiten verificar la identidad del comunicante.

Para conseguirlo puede usar por ejemplo función hash criptográfica MAC o protocolo de conocimiento

cero.

Soluciones a problemas de la falta de simultaneidad en la telefirma digital de contratos. Para conseguirlo

puede usar por ejemplo protocolos de transferencia inconsciente.

Un sistema criptográfico es seguro respecto a una tareas si un adversario con capacidades especiales no puede

romper esa seguridad, es decir, el atacante no puede realizar esa tarea específica.

Historia de la criptografía

El primer método de criptografía fue en el siglo V a.C, era conocido como "Escítala". El segundo criptosistema que

se conoce fue documentado por el historiador griego Polibio: un sistema de sustitución basado en la posición de las

letras en una tabla. Otro de los métodos criptográficos utilizados por los griegos fue la escítala espartana, un

método de trasposición basado en un cilindro que servía como clave en el que se enrollaba el mensaje para poder

cifrar y descifrar.

Durante los siglos XVII, XVIII y XIX, el interés de los monarcas por la criptografía fue notable. Las tropas de Felipe II

emplearon durante mucho tiempo una cifra con un alfabeto de más de 500 símbolos que los matemáticos del rey

consideraban inexpugnable. Cuando el matemático francés François Viète consiguió criptoanalizar aquel sistema

para el rey de Francia, a la sazón Enrique IV, el conocimiento mostrado por el rey francés impulsó una queja de la

corte española ante del papa Pío V acusando a Enrique IV de utilizar magia negra para vencer a sus ejércitos.

Durante la Primera Guerra Mundial, los Alemanes usaron el cifrado ADFGVX. Este método de cifrado es similar a la

del tablero de ajedrez Polibio. Consistía en una matriz de 6 x 6 utilizado para sustituir cualquier letra del alfabeto y

los números 0 a 9 con un par de letras que consiste de A, D, F, G, V, o X.

A partir del siglo XX, la criptografía usa una nueva herramienta que permitirá conseguir mejores y más seguras

cifras: las máquinas de cálculo. La más conocida de las máquinas de cifrado posiblemente sea la máquina alemana

Enigma: una máquina de rotores que automatizaba considerablemente los cálculos que era necesario realizar para

las operaciones de cifrado y descifrado de mensajes.

A mediados de los años 70, el Departamento de Normas y Estándares norteamericano publica el primer diseño

lógico de un cifrado que estaría llamado a ser el principal sistema criptográfico de finales de siglo: el Estándar de

Cifrado de Datos o DES. En esas mismas fechas ya se empezaba a gestar lo que sería la, hasta ahora, última

revolución de la criptografía teórica y práctica: los sistemas asimétricos. Estos sistemas supusieron un salto

cualitativo importante, ya que permitieron introducir la criptografía en otros campos que hoy día son esenciales,

como el de la firma digital.

En criptografía un cifrado , es un procedimiento que utilizando un algoritmo (algoritmo de cifrado) con cierta

clave (clave de cifrado) transforma un mensaje, sin atender a su estructura lingüística o significado, de tal forma

que sea incomprensible o, al menos, difícil de comprender, a toda persona que no tenga la clave secreta (clave de

descifrado) del algoritmo que se usa para poder descifrarlo (algoritmo de descifrado). Por tanto tenemos dos

algoritmos (el de cifrado y el de descifrado) y dos claves (clave de cifrado y clave de descifrado). Estas dos claves

pueden ser iguales (criptografía simétrica) o no (criptografía asimétrica).

Un sistema de cifrado se denomina:

simétrico cuando utiliza la misma clave para cifrar y descifrar.

asimétrico al usar claves diferentes: una pareja compuesta por una clave pública , que sirve para cifrar, y

por una clave privada , que sirve para descifrar. El punto fundamental sobre el que se sostiene esta

descomposición pública/privada es la imposibilidad práctica de deducir la clave privada a partir de la clave

pública. Se suele denominar a este tipo de cifrado usando las siglas PKE (del inglés Public-Key Encryption).

Los métodos más conocidos son el DES, el Triple DES y el AES para la criptografía simétrica, y el RSA para la

criptografía asimétrica, llamada también criptografía de clave pública.

La utilización de un sistema simétrico o asimétrico depende de las tareas a cumplir. La criptografía asimétrica

presenta dos ventajas principales: suprime el problema de transmisión segura de la clave, y permite la firma

electrónica. No reemplaza sin embargo los sistemas simétricos ya que los tiempos de cálculo son claramente más

cortos por los sistemas simétricos que los asimétricos.

Mediante los métodos de descifrado conseguimos:

- Interpretar un mensaje escrito en un lenguaje secreto compuesto por signos especiales

- Interpretar el significado de una cosa confusa o un asunto difícil de entender

Medidas de Seguridad

En informática es necesario implantar todas las medidas de seguridad posibles para evitar el robo o la pérdida de

los datos que sean potencialmente vitales para la empresa, de tal forma que hay que establecer políticas de

seguridad para conseguir esto mismo. Además habrá que implantar mecanismos de seguridad física y lógica.

Y dentro de la seguridad lógica, habrá que diferenciar entre seguridad activa y seguridad pasiva.

Políticas de seguridad

El proponer o identificar una política de seguridad requiere un alto compromiso con la organización, agudeza

técnica para establecer fallas y debilidades, y constancia para renovar y actualizar dicha política en función del

dinámico ambiente que rodea las organizaciones modernas.

Las Políticas de Seguridad son un conjunto de requisitos definidos por los responsables de un sistema, que indica en

términos generales que está y que no está permitido en el área de seguridad durante la operación general del

sistema.

Características de una política de seguridad

Las características principales de una política de seguridad deben de ser:

Ser holística (cubrir todos los aspectos relacionados con la misma).

Adecuarse a las necesidades y recursos.

Ser atemporal. El tiempo en el que se aplica no debe influir en su eficacia y eficiencia.

Definir estrategias y criterios generales a adoptar en distintas funciones y actividades, donde se conocen

las alternativas ante circunstancias repetidas.

Seguridad activa y seguridad pasiva

La seguridad informática se divide en dos términos, la seguridad activa y la seguridad pasiva:

Seguridad Activa

Tiene como objetivo proteger y evitar posibles daños en los sistemas informáticos. Podemos encontrar diferentes

recursos para evitarlos como:

Una de esas técnicas que podemos utilizar es el uso adecuado de contraseñas, que podemos añadirles

números, mayúsculas, etc.

El uso de software de seguridad informática

Encriptación de los datos.

Seguridad Pasiva

Su fin es minimizar los efectos causados por un accidente, un usuario o malware. Las prácticas de seguridad pasiva

más frecuentes y más utilizadas son:

El uso de hardware adecuado contra accidentes y averías.

Utilizar copias de seguridad de los datos y del sistema operativo.

Análisis Forense

¿Qué es el análisis forense?

El análisis forense de sistemas tiene como objetivo averiguar lo ocurrido durante un incidente de seguridad

utilizando varios métodos.

Se busca dar respuesta a los interrogantes que normalmente envuelven a todo incidente: el origen del problema,

qué información ha sido afectada y en qué grado, y finalmente cuándo, dónde, cómo y por qué se originó el ataque.

Funcionalidad y Fases

El análisis forense pasa por varias fases, que abarcan desde el momento del ataque o desastre hasta obtener todos

los detalles del mismo, analizados en un informe.

Fases del análisis forense (I)

El análisis forense pasa por cuatro pasos o fases, detalladas en la siguiente imagen:

Fases del análisis (I)

1) Identificación: Es muy importante conocer los antecedentes, situación actual y el proceso que se quiere

seguir para poder tomar la mejor decisión con respecto a las búsquedas y la estrategia de investigación.

2) Preservación: Este paso incluye la revisión y generación de las imágenes forenses de la evidencia para

poder realizar el análisis. Al realizar una imagen forense, nos referimos al proceso que se requiere para

generar una copia “bit-a-bit” de todo el disco, el cual permitirá recuperar, en el siguiente paso, toda la

información contenida y borrada del disco duro.

3) Análisis: Proceso de aplicar técnicas científicas y analíticas a los medios duplicados por medio del proceso

forense para poder encontrar pruebas de ciertas conductas. Se pueden realizar búsquedas de cadenas de

caracteres, acciones específicas del o de los usuarios de la máquina.

4) Presentación: Es el recopilar toda la información que se obtuvo a partir del análisis para realizar el reporte

y la generación (si es el caso) de una pericial y de su correcta interpretación sin hacer uso de tecnicismos.

Respuesta a incidentes

La respuesta a incidentes es la capacidad de reaccionar anta un problema informático y darle una solución rápida y

eficaz.

Elementos necesarios para una respuesta a incidentes eficaz

Para responder correctamente a cualquier incidente, se necesita lo siguiente:

Minimizar la cantidad y gravedad de los incidentes de seguridad.

Crear un CSIRT principal (Computer Security Incident Response Team, Equipo de respuesta a incidentes de

seguridad informática).

Definir un plan de respuesta a incidentes.

Contener los daños y minimizar los riesgos.

Análisis de evidencias digitales

Al realizar la investigación y el análisis forense, es imprescindible obtener las diversas capturas de las evidencias que

se detecten.

Por evidencia entendemos toda información que podamos procesar en un análisis. Por supuesto que el único fin del

análisis de las evidencias es saber con la mayor exactitud qué fue lo que ocurrió.

Evidencias digitales

Por evidencia digital se entiende:

El último acceso a un fichero o aplicación (unidad de tiempo)

Un Log en un fichero

Una cookie en un disco duro

El uptime de un sistema (Time to live o tiempo encendido)

Un fichero en disco

Un proceso en ejecución

Archivos temporales

Restos de instalación

Un disco duro, pen-drive, etc...

Herramientas de análisis forense

Como el análisis forense es tan extenso, hay varias herramientas utilizables para cada una de sus fases y de cada

uno de los comportamientos que pueda tomar la investigación.

Algunas herramientas

Algunas de estas herramientas son:

EnCase: Esta herramienta tiene varias opciones para analizar y recuperar los archivos que puedan haber

sido dañados, eliminados o sustraídos durante un ataque.

Keylogger: Bien usada, esta herramienta permite saber las actividades de un ordenador, ya que guarda y

envía todo lo escrito por el teclado a una dirección conocida.