Jesús Estrada Villegas
Ingeniero Superior en Electrónica
Licenciado en Ciencias Físicas
Master Ejecutivo en Dirección de Seguridad Global (MEDSEG)
Diplomado en Dirección de Seguridad Informática y Redes
Certified Information Systems Auditor (CISA)
Certified Information Systems Security Professional (CISSP)
Profesor del Master Ejecutivo en Dirección de Seguridad Global (MEDSEG)
Profesor del Master Ejecutivo en Dirección de Sistemas de Emergencia (MEDSEM)
Responsable de Desarrollo Informático
Cuando hace pocos meses se difundió la noticia de que, posiblemente, la conjetura de Poincaré podría pasar en breve a ser conocida como teorema de Poincaré tras quedar demostrada por el ruso Grigori Yakovlevich Perelman, problablemente más de uno se alegró ante tamaño logro del conocimiento humano para después preguntarse: “eh, esto, bien, y ¿para qué sirve?”
Sin duda, gran parte de los desarrollos científicos son autocontenidos y no tiene sentido preguntarse el “para que sirven” del mismo modo que no tiene sentido el preguntarse para qué sirven otras facetas de la creación humana. Sin embargo, pocos campos científicos han sido tan fértiles, tan útiles y nos han aportado tanto como la física cuántica.
Desde sus primeros pasos, permitió el uso, al inicio descontrolado y después completamente seguro, del poder del átomo para, poco después, y gracias al descubrimiento del mayor invento del siglo XX, el transistor MosFET, iniciar la era de la sociedad de la información en la que actualmente nos encontramos.
Y a la larga lista de conocimientos e invenciones derivados de este saber, recientemente se ha añadido la aplicación de la mecánica cuántica al mundo de las tecnologías de la información a través de la computación y la criptografía cuántica.
Antes de nada debemos mencionar que la conocida Ley de Moore que afirma que la densidad de integración de los microprocesadores, relacionada directamente con su potencia de cálculo, se dobla aproximadamente cada dieciocho meses está a punto de perder la validez que ha ostentado durante las tres últimas décadas.
Y no debido a incapacidad tecnológica, porque prácticamente se sabe todo lo que hay que saber sobre el trabajo con semiconductores sólidos, sino por las propias leyes de comportamiento de la naturaleza: nuestros chips y transistores son ya tan pequeños que los electrones encargados de transmitir la información y conmutar los estados, los famosos bits 1 y 0, ya no se comportan según las reglas de nuestro mundo cotidiano, sino según otras, no más difíciles, pero sí mucho más extrañas: las leyes de la mecánica cuántica.
Según esto, La computación cuántica es un nuevo paradigma de computación distinto al de la computación clásica. La idea básica es el uso de qubits en lugar de bits y generar a partir de ellos nuevas puestas lógicas que implementen nuevos algoritmos. Una misma tarea puede tener diferente complejidad en computación clásica y en computación cuántica, lo que ha dado lugar a una gran expectación, ya que algunos problemas intratables pasan a ser tratables. En particular los relacionados con el cifrado de información.
Un qubit (del inglés quantum bit) es un estado cuántico en un espacio vectorial complejo bidimensional. Un qubit es la unidad mínima de información cuántica. Sus dos estados básicos se llaman, convencionalmente, |0> y |1>. Esto es significativamente distinto al estado de un bit clásico, que puede asumir solamente un valor 0 ó 1.
Sin embargo, la diferencia más importante entre un qubit y un bit clásico no es la naturaleza continua de este estado (que se puede replicar con cualquier cantidad análoga), sino que múltiples qubits pueden experimentar un entrelazamiento o enredo cuántico. El enredo es una interacción no local que permite a un conjunto de qubits expresar superposiciones de diferentes cadenas binarias (01010 y 11111, por ejemplo) simultáneamente. En este "paralelismo cuántico" se cifra la potencia del cómputo cuántico.
Aún no se ha resuelto el problema de qué hardware sería el ideal para la computación cuántica. Se ha definido una serie de condiciones que debe cumplir, conocida como la lista de Di Vinzenzo, y hay varios candidatos actualmente.
-El sistema ha de poder inicializarse, esto es, llevarse a un estado de partida conocido y controlado.
-Ha de ser posible hacer manipulaciones a los qubits de forma controlada, con un conjunto de operaciones que forme un conjunto universal de puertas lógicas (para poder reproducir a cualquier otra puerta lógica posible).
-El sistema ha de mantener su coherencia cuántica a lo largo del experimento.
-Ha de poder leerse el estado final del sistema, tras el cálculo.
-El sistema ha de ser escalable: tiene que haber una forma definida de aumentar el número de qubits, para tratar con problemas de mayor coste computacional.
-En 2004, científicos del Instituto de Física aplicada de la Universidad de Bonn publicaron resultados sobre un registro cuántico experimental. Para ello utilizaron átomos neutros que almacenan información cuántica. Su objetivo actual es construir una puerta cuántica, con lo cual se tendrían los elementos básicos que constituyen los procesadores, que son el corazón de los computadores actuales. Cabe destacar que un chip de tecnología VLSI contiene actualmente más de 100.000 puertas, de manera que su uso práctico todavía se presenta en un horizonte lejano.
Así que, si de momento no hay resultados prácticos y se piensa que éstos no llegarán hasta dentro de 25 o 30 años… ¿qué puede ofrecer esta nueva tecnología a la seguridad?
La pista nos la da que con las máquinas actuales el romper un cifrado de comunicación es sólo cuestión de tiempo… algo así como un año de trabajo para una clave RSA de 1024 bits y una eternidad para una clave de 2048 bits. Sin embargo, la computación cuántica podría resolver el mensaje y abrir nuestros más preciados secretos en un solo ciclo de reloj. Pero esto lo trataremos en nuestro siguiente artículo donde comentaremos qué sabemos de la computación cuántica y comenzaremos a tratar la criptografía cuántica.