En los primeros días, los ordenadores cuánticos contaban con unos pocos qubits, enfrentándose a desafíos enormes en términos de estabilidad y corrección de errores. Sin embargo, con el tiempo, la comunidad científica y las empresas tecnológicas han trabajado incansablemente para superar estos obstáculos. Ahora mismo IBM ha deslumbrado al mundo de la computación cuántica con el lanzamiento de Condor, el primer ordenador cuántico con más de 1.000 qubits. Este hito representa un avance impresionante en la carrera por desarrollar máquinas cuánticas cada vez más potentes.

Calidad sobre cantidad: Enfoque en la resistencia a errores

Aunque Condor marca un logro monumental, IBM ha anunciado un cambio estratégico. En lugar de seguir la tendencia de incrementar el número de qubits, la compañía se enfocará en mejorar la resistencia a errores. Acaba de presentar Heron, un chip con 133 qubits y una tasa de error históricamente baja, con el que IBM busca consolidar su posición como líder en la computación cuántica.

El futuro de la computación cuántica

La computación cuántica promete realizar cálculos más allá de las capacidades de las computadoras clásicas. Sin embargo, los desafíos de la corrección de errores han llevado a IBM a explorar nuevas técnicas, como el quantum low-density parity check (qLDPC). Aunque el camino hacia la implementación es desafiante, IBM vislumbra un futuro donde las computadoras cuánticas realicen cálculos útiles a finales de la década.

IBM no solo está definiendo el presente de la computación cuántica, sino que también está esculpiendo su futuro. Con chips más robustos y estrategias innovadoras, la compañía busca llevar la computación cuántica más allá de los límites conocidos. La era cuántica está tomando forma, y IBM lidera el camino hacia una revolución informática sin precedentes.

 

374
Suscribirse
Notificación
0 Comments
Inline Feedbacks
Ver todos los comentarios
0
¡Aquí puedes dejar tus comentarios!x