
Espero expresarme bien, ya que he tenido que estudiar física cuántica para burros y así redactar este artículo correctamente, si alguien ve un fallo que me corrija. Bueno, empecemos.
Todo empieza con la noticia de que Google, con la ayuda de la NASA, compraron la empresa de informática D Wave por 10 millones de dólares para introducir dicha tecnología en sus futuros dispositivos, todo eso para aprovechar su capacidad de procesamiento y poder averiguar si el usuario de Google Glass pestañea queriendo o inconscientemente, entre otras aplicaciones.
¿Qué diferencia hay entre la computación clásica y la cuántica? La mayor de todas radica entre bits y Q-bits. Un bit representa los dígitos 0 ó 1, mientras que un Q-bit, según la computación cuántica, en la cual intervienen las leyes de la mecánica cuántica, estando la partícula en superposición coherente: puede ser 0, 1 y puede ser 0 y 1 a la vez, creando de este modo nuevos algoritmos, siendo así el procesamiento de 30 Q-bits capaz de calcular 10 Tflops mientras que la actual a penas llega a un Gflop (las operaciones de coma flotante por segundo son una medida del rendimiento de un ordenador).

Uno de los obstáculos principales para la computación cuántica es el problema de la decoherencia cuántica, que causa la pérdida del carácter unitario (y, más específicamente, la reversibilidad) de los pasos del algoritmo cuántico. Los tiempos de decoherencia para los sistemas candidatos, en particular el tiempo de relajación transversal (en la terminología usada en la tecnología de resonancia magnética nuclear e imaginería por resonancia magnética) está típicamente entre nanosegundos y segundos, a temperaturas bajas. Las tasas de error son típicamente proporcionales a la razón entre tiempo de operación frente a tiempo de decoherencia, de forma que cualquier operación debe ser completada en un tiempo mucho más corto que el tiempo de decoherencia. Si la tasa de error es lo bastante baja, es posible usar eficazmente la corrección de errores cuántica, con lo cual sí serían posibles tiempos de cálculo más largos que el tiempo de decoherencia y, en principio, arbitrariamente largos. Se cita con frecuencia una tasa de error límite de 10-4, por debajo de la cual se supone que sería posible la aplicación eficaz de la corrección de errores cuánticos.
Otro de los problemas principales es la escalabilidad, especialmente teniendo en cuenta el considerable incremento en qubits necesarios para cualquier cálculo que implica la corrección de errores. Para ninguno de los sistemas actualmente propuestos es trivial un diseño capaz de manejar un número lo bastante alto de qubits para resolver problemas computacionalmente interesantes hoy en día.
Actualmente, el dispositivo cuenta con un sensor orientado hacia dentro que se utiliza opcionalmente para detectar si el propietario está usando las Glass o no. Si se lo quita, entra en reposo; si se lo pone, volverá a encenderse. Pero existen errores en los cuales las gafas confunden el parpadeo involuntario por voluntarios, así que si su función es la de realizar una foto, tomará una cada vez que parpadee el usuario, por lo que posiblemente, este gesto quede descartado en la versión final del aparato.
Lógicamente cuando salga Google Glass al mercado en el 2014 no vendrán con este chip incorporado. Por lo visto la pantalla transparente, el auricular coclear y que sean las primeras gafas que quizá sustituyan a los móviles no son motivo suficiente para contentar a Google.
Fuente: Slashgear