lunes, 14 de febrero de 2011

Evidencias electrónicas y procedimientos judiciales


Por Javier López, Socio del Departamento de Litigation de ECIJA.

No son pocas las ocasiones en las que, los que vivimos entre dos mundos, el informático y el jurídico, hemos de coordinar ambas facetas para poder ofrecer soluciones que resulten realmente efectivas. Sin duda, este es el caso de las evidencias electrónicas, donde el cumplimiento de todos los requisitos técnicos y legales es imprescindible para la validez de la prueba ante los Tribunales.

¿Por qué una evidencia electrónica? Al igual que muchos pleitos no podrían resolverse sin un informe pericial que determinara, por ejemplo, cuál es la razón por la que un motor dejó de funcionar, cada vez más, se están generando procedimientos que requieren de una evidencia electrónica que permita al Juez saber si se produjeron determinados hechos en equipos informáticos o en Internet, finalidad que no logra cumplir la tradicional pericial.

Y, ¿qué es una evidencia electrónica? Podemos definirla como el soporte susceptible de almacenar información digital con la finalidad de acreditar hechos ante los Tribunales. Esto es, sin manipularlos, se recopilan los rastros dejados en equipos informáticos, routers, firewalls o servidores de correo tras su uso, para, por sí, o en relación, con otros hechos probados, dejar constancia de la existencia de determinados sucesos. Obviamente, de cara a ser aportado a un procedimiento judicial, es necesario que se acompañe de un informe donde se detalle el contenido y alcance de la evidencia, el cuál, habrá de ser ratificado por el Perito informático en el acto del juicio.

Pero, ¿realmente, las evidencias electrónicas son admitidas por los Tribunales? Sí, siempre que respeten los requisitos procesales que establecen las Leyes, evitando, en todo caso, realizar actos que pudieran vulnerar el derecho a la intimidad de las personas o el secreto de las comunicaciones (Licitud); así como que cumplan las exigencias técnicas que requiere la adecuada incautación de la prueba (Integridad) y la preservación de la Cadena de Custodia, de manera que existan garantías de que la prueba no ha sido manipulada, pues el proceso de acceso, obtención, transferencia y almacenamiento de los datos debe estar perfectamente documentado y disponible para su revisión (Autenticidad). Por último, para evitar que la evidencia electrónica pierda su razón de ser, ha de ser entendible, de forma que facilite su comprensión por los Jueces (Claridad).

Estas cuestiones revisten especial importancia en el ámbito laboral, donde se ha establecido la doctrina que debe aplicarse respecto al control empresarial de las nuevas tecnologías utilizadas por el trabajador, disponiendo la obligatoriedad de crear previamente las reglas de uso de los medios informáticos y de comunicación facilitados por la empresa a los trabajadores (con aplicación de prohibiciones absolutas o parciales), así como de informar a los empleados sobre que va a existir un control, y de los medios que han de aplicarse en orden a comprobar la corrección de los usos, así como de las medidas que han de adoptarse para garantizar la efectiva utilización laboral de los medios informáticos y de comunicación.

Y es que hay que tener en cuenta que, además de las amenazas de seguridad creadas por personas externas a la empresa que puedan acceder a los sistemas informáticos, es creciente el número de antiguos empleados que sustraen información confidencial (listados de contactos de clientes, correos electrónicos, datos de facturación, etc.) mediante copias en CD o DVD, memorias USB, cuentas de correo personales o cualquier otro método de almacenamiento masivo de información; o que realizan borrados intencionados de información con la finalidad de perjudicar a la compañía. Por ello, incluso, en ocasiones, es necesario recurrir a la recuperación de datos para rescatar aquella información que pueda servir como prueba para reconstruir las evidencias electrónicas.

Hoy en día, es rara la actividad humana que no tiene un reflejo en el cibermundo. Lógicamente, los procedimientos judiciales no podían quedarse al margen de esta situación, por lo que, además del progresivo proceso de modernización de los trámites, los Jueces, cada vez más, requieren sistemas de acreditación de hechos adaptados a la realidad actual, donde la comisión de "delitos virtuales” es tan relevante como la que se produce en el mundo off-line. Por ello, las evidencias electrónicas se están convirtiendo en un medio imprescindible para resolver litigios y lograr transacciones extrajudiciales, que no hubieran podido solucionarse por los métodos tradicionales.

Artículo tomado de:
http://www.csospain.es/Evidencias-electronicas-y-procedimientos-judiciales/seccion-actualidad/articulo-202413

viernes, 11 de febrero de 2011

Criptografía cuántica, seguridad total para las comunicaciones de su empresa



Por Verónica Fernández Mármol y Gonzalo Álvarez Marañón, miembros del Grupo de Investigación en Criptología y Seguridad de la Información del CSIC.

La mecánica cuántica y sus paradojas abandonan los libros de texto de física para entrar de lleno en la seguridad de la información. La física cuántica, la óptica cuántica y la criptografía unen sus fuerzas para crear lo que se ha dado en llamar criptografía cuántica, la primera forma de transmitir información de manera segura protegida por las leyes de la física. Gracias a este canal de comunicación cuántica, ningún intruso podrá obtener información sobre los bits que están siendo transmitidos. Los primeros sistemas comerciales ya están operativos y a la venta, con la promesa de proteger su información de manera cien por cien segura.

Si nos preguntasen “¿qué ha hecho la física cuántica por ti?”, tal vez no sabríamos qué responder. Y sin embargo, nuestra vida cotidiana está plagada de aparatos y dispositivos cuyo funcionamiento se basa en las leyes de la mecánica cuántica: desde los transistores integrados a escalas masivas en los procesadores de nuestros ordenadores y teléfonos móviles, hasta los láseres que nos permiten escuchar CD musicales o ver películas en DVD, pasando por el receptor GPS para guiarnos por las carreteras o los relojes atómicos para conocer la hora con gran precisión.

A pesar de lo maravilloso de estos inventos, lo mejor está aún por llegar, de la mano de la revolución en la información cuántica. Los científicos están comenzando a explotar las paradójicas propiedades del mundo cuántico para construir nuevos sistemas de procesamiento y de transmisión de información. Una de tales paradojas es que enviar y almacenar información secreta será más fácil y difícil a la vez: por un lado, en el mundo cuántico pueden enviarse mensajes de manera totalmente segura, mientras que por otro lado pueden construirse ordenadores capaces de atacar los algoritmos de criptografía actuales.

Aunque todavía los ordenadores cuánticos quedan lejos en el horizonte, los primeros sistemas comerciales de criptografía cuántica ya están a la venta. En este artículo se arroja una mirada crítica a los logros actuales de la criptografía cuántica.

La criptografía cuántica no existe

La computación cuántica constituye un nuevo paradigma computacional basado en la mecánica cuántica, que encierra la promesa de resolver eficientemente problemas como la factorización de enteros, el logaritmo discreto y la simulación cuántica (véase el recuadro Computación cuántica). Los ordenadores cuánticos no manipularán bits de información, sino bits cuánticos o qubits, los cuales poseen la sorprendente propiedad de representar el estado “1” ó “0” simultáneamente.

A pesar de tratarse de uno de los campos de investigación más activos de la actualidad, lo cierto es que a día de hoy solamente existen algunos pequeños prototipos de procesadores de laboratorio capaces de manejar unos pocos qubits, pero nada que podamos llamar propiamente un ordenador cuántico, comparable a nuestros ordenadores.

Por usar un símil con la informática clásica, ni siquiera nos encontramos en la época pionera del ENIAC o del Colossus, primeros proto ordenadores concebidos durante la década de los 40 precisamente en el seno de la criptografía, equipados con válvulas de vacío, diodos de cristal y relés. La informática y con ella la revolución de las comunicaciones no despegó hasta la invención del transistor por los Laboratorios Bell en 1947. El transistor dio lugar a los circuitos integrados y demás elementos de la alta escala de integración y posibilitó la construcción de ordenadores cada vez más pequeños, según la famosa Ley de Moore, propuesta en 1965 por Gordon Moore, cofundador de Intel. Ahora bien, cuando la miniaturización alcanza la escala atómica, o se busca un nuevo paradigma computacional o no es posible seguir miniaturizando. Hoy por hoy, no se ha descubierto el elemento cuántico que permita la alta integración y escalabilidad, posibilitando así el despegue de la computación cuántica.

Para crear un ordenador cuántico se necesita un sistema físico que se comporte cuánticamente durante un período de tiempo suficientemente largo y que pueda ser accedido y manipulado fácilmente. Se está experimentando intensamente en laboratorios de investigación de todo el mundo con qubits basados en partículas cuánticas (átomos, fotones, etc.) o qubits basados en estructuras macroscópicas a las que se obliga a comportarse cuánticamente. Algunos laboratorios han conseguido crear métodos de control cuánticos que manejan hasta 12 qubits, mientras que sólo se han conseguido procesadores cuánticos de 2 qubits que realicen un algoritmo. Además, todos requieren una complicada y costosa tecnología, generan tasas de errores de hasta el 20 por ciento y sus qubits poseen tiempos de vida de menos de 1 microsegundo. Para poder ser práctica, la computación cuántica necesitaría miles de qubits, hoy por hoy nada más que un sueño de ciencia ficción.

Por otro lado, aunque se han ideado numerosos algoritmos cuánticos para efectuar tareas como factorizar enteros o realizar búsquedas en una base de datos, no existe propiamente ningún algoritmo cuántico de criptografía.

Por lo tanto, si aún no existen los ordenadores cuánticos ni existen algoritmos cuánticos de criptografía, ¿podemos hablar de criptografía cuántica? Con propiedad, no. Hoy en día, lo que todo el mundo entiende cuando se menciona el término criptografía cuántica es en realidad la distribución cuántica de claves.



Artículo tomado de:
http://www.csospain.es/Criptografia-cuantica,-seguridad-total-para-las-comunicacion/seccion-tecnolog%C3%ADas/articulo-200543

martes, 8 de febrero de 2011

Los seis riesgos de la seguridad en los entornos virtuales


Por María Campos, country manager de Stonesoft Ibérica

Mejorar la gestión y la flexibilidad son ventajas inherentes a la virtualización de entornos de trabajo. Pero el principal riesgo se produce al gestionar tales entornos como se venía haciendo en el mundo físico. Partiendo de los datos extraídos de la consultora Gartner a finales del pasado año, se pueden evaluar los seis principales riesgos a tener en cuenta:

1. No tener en cuenta la seguridad en los proyectos de virtualización:
La seguridad debe ser una reflexión previa a la virtualización, y no un pensamiento secundario posterior. Según Gartner, un 40% de los proyectos de implantación de virtualización durante el año 2009 se llevaron a cabo sin que el departamento de seguridad TI estuviera implicado en las etapas de planificación y en la arquitectura inicial del proceso.

Muchos responsables de TI creen que nada cambia en el mundo virtual, y consideran que poseen conocimientos y técnicas suficientes como para proteger los flujos de trabajo, los sistemas operativos y el hardware con la misma eficiencia que antaño. Pero cometen un grave error, pues ignoran la nueva capa de software que introducen las máquinas virtuales.

Los profesionales de la seguridad han de ser conscientes que el riesgo que no se conoce, ni se comunica, ni puede ser controlado. Para estar cómodos en estos nuevos entornos, deben implementar una extensión de su red de firewalls e IPSs mediante el uso de idéntica tecnología, pero sólo en una plataforma diferente (VM, o máquina virtual).

Lo que se debe hacer -asegura el informe- es no comprar más métodos de seguridad, sino ampliar los procedimientos sobre la misma. Solo así se abordará adecuadamente la protección de los centros de datos virtuales.

2. Una amenaza en la capa de virtualización afectaría a todas las cargas de trabajo dependientes:
La capa de virtualización representa otra importante plataforma de TI en la infraestructura de una empresa, pero, como cualquier software, contiene vulnerabilidades que pueden ser objeto de ataques. Los hackers han fijado su punto de mira en esta tecnología para poner en jaque las cargas de trabajo. Por ese motivo, la capa debe ser “parcheada”.

Para Gartner, lo principal es que las organizaciones no confíen en el host basado en controles de seguridad para detectar o proteger lo que se encuentra bajo la capa. En nuestra opinión, es importante proteger estos servidores con un IPS desde el exterior, así como asegurar las aplicaciones internas de uso con un cortafuegos virtual y un IPS, garantizando así el control de los datos de la aplicación.

3. Falta de visibilidad y control de las redes internas virtuales.
Gartner recomienda que, como mínimo, las organizaciones busquen el mismo tipo de control en las redes virtuales que en las físicas, para no perder visibilidad y capacidad de gestión al dar el salto a la virtualización. Con ello, se pretende reducir la posibilidad de una mala configuración. Una vez que una aplicación está virtualizada, es imposible que una red de solución de base muestre qué está pasando con el servidor de la máquina virtual, por lo que las herramientas de seguridad deben ser virtualizadas para protegerlo desde dentro.

Asimismo, la gestión de las soluciones de seguridad ha de ser coherente con los equipos en la gestión de los cortafuegos e IPSs físicos actuales. Con todo esto, se garantiza que las habilidades sigan igual y la carga de administración continúe siendo mínima.

4. Las cargas de trabajo de los distintos niveles de seguridad se consolidan en un único servidor físico sin la suficiente separación:
Los sistemas más críticos y las cargas de trabajo más sensibles están en el punto de mira de la virtualización. Esto puede convertirse en un problema cuando las cargas más delicadas se mezclan con el resto, incluidas en zonas de seguridad diferentes dentro del mismo servidor físico y sin la adecuada separación. Por ello, las empresas deben exigir una separación en las redes físicas actuales para cargas de trabajo de diferentes niveles.

Lo importante es crear confianza en este entorno, y por ello, aunque estén en el mismo servidor VM, las aplicaciones virtuales de diferentes zonas deben estar separadas, ya sea por un firewall de nivel 2 de seguridad o un IPS Lo ideal sería que, si el sistema de gestión es el mismo para las soluciones de seguridad física y virtual, la carga de administración sea también idéntica.

5. Un control inadecuado de acceso administrativo a la capa Hypervisor VMM y a las herramientas administrativas.
El acceso a esta capa debe estar rigurosamente controlado, pero esto es difícil puesto que la mayoría de plataformas de virtualización ofrecen múltiples vías de administración. Gartner propone restringir el acceso y basar el apoyo de control en las responsabilidades administrativas para delimitar quién puede hacer qué en el entorno virtual.

Es importante mantener el control para poder corregir los cambios sobre la marcha, por lo que las herramientas de seguridad que se utilicen deben de ser administradas de forma central, así como tener los derechos de acceso y los procesos de registro. Si empleamos todos estos recursos al mismo tiempo, mucho mejor, pues reduciremos el tiempo de gestión y eliminaremos costosos errores.

6. Pérdida potencial por la separación de las funciones de red y los controles de seguridad.
Cuando los servidores físicos se concentran en una sola máquina, aumenta el riesgo de que los usuarios o administradores, sin darse cuenta, accedan a datos que exceden los niveles de privilegio habitual. Gartner recomienda que el mismo equipo responsable de la configuración de la topología de red en el medio físico esté también al frente de los entornos virtuales.

Se debe favorecer la plataforma de virtualización de arquitecturas que reemplazan el código de apoyo de conmutación, de modo que las políticas de contención y las configuraciones físicas y virtuales sean las mismas. Es muy importante que se apliquen los mismos principios a nivel físico y a nivel virtual, valorando especialmente la necesidad de poder saltar con facilidad de una a otra opción.

Sería más aconsejable utilizar el mismo sistema de gestión a través de la LAN/WAN física y en el entorno virtual, donde se puede seguir trabajando con los mismos papeles, equipos y administradores en ambos ambientes. En este sentido, lo ideal es, utilizar los recursos técnicos y humanos para obtener un único sistema de gestión segura.

Artículo tomado de:
http://www.csospain.es/Los-seis-riesgos-de-la-seguridad-en-los-entornos-virtuales/seccion-alertas/articulo-201149

Top 10 de las vulnerabilidades internas de las redes: ¡El peligro está dentro!

Por Derek Manky, jefe de proyecto, ciberseguridad e investigación de amenazas del centro FortiGuard de Fortinet.

Actualmente los dispositivos de seguridad de red realizan una encomiable labor manteniendo a los cibervampiros fuera de nuestras redes. Pero, ¿qué se puede hacer cuando el peligro se encuentra dentro del propio perímetro de seguridad? He aquí las diez vías por las que una red puede verse infectada desde su interior y las pautas para evitarlo.

1) Los lectores USB
La ubiquidad de estos lectores ha llevado a los hackers a desarrollar malware específico como el conocido gusano Conficker, que se ejecuta de forma automática al conectar la llave al USB. Este problema se intensifica con las configuraciones por defecto de muchos sistemas operativos que ejecutan automáticamente la mayoría de los programas (incluyendo los maliciosos). Aconsejamos cambiar las políticas de autorun que vengan por defecto en su ordenador. He aquí los pasos a seguir para un entorno Windows: http://support.microsoft.com/kb/967715

2) Portátiles y Netbooks
Todas las compañías tienen información sensible que no debe salir de sus oficinas. Esto se convierte en un peligro cuando la información está almacenada en un portátil no seguro. A menos que el portátil utilice un algoritmo de encriptación, los datos pueden ser recuperados por cualquiera. La solución: Implemente un sistema de archivado encriptado para los datos sensibles. Hay una amplia oferta de este tipo de soluciones, como la open source TrueCrypt. El control de end points que entran y salen del sistema interno es también importante.

3) Puntos de Acceso inalámbrico (APs)
Los ataques a redes inalámbricas realizados por Wardrivers son comunes y han causado graves daños. Por ejemplo, TJ Stores, propietario de Marshalls y TJMaxx, sufrió un ataque a través de este método; los intrusos penetraron en los ordenadores de su oficina en los que se guardaba datos de transacciones de sus clientes como la tarjeta de crédito, de debido y cheques. Este ataque supuso para la compañía un coste de más de 500 millones de dólares. El protocolo de encriptación inalámbrica (WEP) contiene conocidas vulnerabilidades que se ven afectadas por ataques como Aircrack. Otros protocolos más robustos como el Acceso inalámbrico protegido (WPA) y WPA2 son todavía propensos a sufrir ataques si no se utilizan unas claves seguras.

Se recomienda usar el WPA2 Enterprise con RADIUS junto con un AP capaz de ofrecer autenticación y reforzar las medidas de seguridad.

4) Variedad de dispositivos USB
Si un end point puede leer y ejecutar datos desde un dispositivo, puede presentar tanto peligro como un pendrive. Tal es el caso de cámaras digitales, reproductores de MP3 e incluso marcos digitales. En 2008, Best Buy declaró que habían encontrado un virus en los marcos de fotos Insignia que procedían directamente del fabricante. La solución es reforzar el control y las políticas de activos sobre qué y cuándo pueden estos dispositivos acceder al sistema.

5) Conexiones internas
Los empleados de una compañía pueden acceder, accidental o premeditadamente, a áreas de la red corporativa a las que no deberían tener acceso. Se deben cambiar las claves regularmente y cumplir con las políticas de autenticación y acceso.

6) El troyano humano
El troyano humano se adentra en la empresa camuflado, de hombre de negocios, con un mono de operario y en menos de un minuto puede infectar la red corporativa desde la sala de servidores. Hay que recordar a los empleados que deben pedir las autorizaciones a personas ajenas a la organización identificándoles.

7) Medios ópticos
Al igual que con los dispositivos USB que mencionábamos antes, es importante implementar y reforzar el control y las políticas de acceso respecto a los dispositivos que pueden acceder a la red como los CDs.

8) La mente prodigiosa
Además de estas medidas para mitigar las posibles amenazas que supone la tecnología digital, no debemos olvidar que la mente humana es una gran base de datos, ¿quién te observa mientras tecleas tus claves en el ordenador? La mejor salvaguardia es ser consciente y estar alerta de cualquier amenaza siempre que estemos manejando información sensible.

9) Smartphones y otros dispositivos digitales
Estos nuevos dispositivos presentan las mismas amenazas que los portátiles y las llaves USB. La importancia de estos dispositivos radica en su potencialidad para eludir las soluciones DLP tradicionales. Aplique las mismas reglas que a los dispositivos USB y medios ópticos.

10) Email
Los emails pueden ser en sí mismos un foco de infección. Un correo electrónico es capaz de sustraer las credenciales de acceso de un empleado. Este robo puede ser utilizado para futuros ataques. En el caso de la seguridad del correo electrónico, identificar la fuente es clave. Podemos conocer quién es el emisor utilizando tecnología PGP o con unas cuantas preguntas antes de enviarle información sensible. Se debe reforzar el control de los accesos a las direcciones de alias así como recordar a los empleados las políticas de seguridad de la compañía.

Artículo tomado de:
http://www.csospain.es/Top-10-de-las-vulnerabilidades-internas-de-las-redes-%C2%A1El-pel/seccion-tecnolog%C3%ADas/articulo-202850