El mundo de las computadoras con una capacidad exponencial para operar se superó sucesivas veces en los últimos tiempos; qué puede venir, según los analistas

AVvXsEh_Mm0nxaR2m_6g0OreN0CdQSZg_joeXZ73

Eagle, el nuevo procesador cuántico desarrollado por IBM

El debate sobre la agenda de futuro está, al igual que sucede con la economía o las decisiones en la vida cotidiana, repleto de sesgos. Uno muy habitual consiste en creer que el punto de explosión de una tecnología se da cuando esta equipara a los mejores humanos en eficiencia y calidad, cuando, en realidad, el derrame se produce a partir de resultados que son “lo suficientemente buenos” para la mayor parte de la población.

Por ejemplo, las imágenes que toman los fotógrafos profesionales son mejores que las de quienes no se capacitaron, pero la difusión de cámaras de altísima resolución en celulares (una tecnología popularizada en los últimos años) hace que esta profesión haya ingresado en un replanteo total, porque se multiplicó por millones la disponibilidad de fotos tal vez no perfectas, pero “lo suficientemente buenas” para la mayor parte de los consumidores. Se debate si la inteligencia artificial (IA) podrá escribir como Borges o Hemingway, pero pasamos por alto el hecho (disruptivo) de que los sistemas de lenguaje natural (como GPT-3 y otros) ya pueden escribir por nosotros la mayoría de los mails que mandamos a diario. En el mundo de la cuántica aplicada a distintas tecnologías (y especialmente a la computación) se está dando una dinámica similar. Todos los titulares sobre este tema se los lleva la especulación sobre la “supremacía” cuántica: el momento en el cual los ordenadores de este tipo pueden solucionar un problema que todas las PC tradicionales del mundo no logran abordar, algo que ya ocurrió (primero con un proyecto de Google y luego en China), aunque con desafíos que por ahora no tienen una aplicación práctica. La “supremacía” se asemeja al concepto de “ventaja amplia”. La “ventaja estrecha”, en cambio, es menos glamorosa y genera menos titulares: el momento en el cual “piezas de Lego” cuánticas se empiezan a insertar en procesos dominados por computación tradicional para hacerlos más eficientes. Y se vuelven “lo suficientemente buenas”.

Rebobinemos la historia por un par de párrafos: la computación cuántica fue anticipada en un famoso discurso del físico Richard Feynman a principios de los 80. En la computación tradicional, los bits pueden ser 1 o 0, pero en la cuántica los qbits pueden superponerse y adoptar muchos más valores, con lo cual la capacidad de cómputo –para algunos problemas– se multiplica exponencialmente.

Durante décadas, la predicción de Feynman fue solo teórica, porque la inestabilidad y el “ruido” de los sistemas de qbits los volvían un desafío ingenieril casi imposible de resolver. Pero en 2021 llegaron muy buenas noticias por el lado del hardware, e incluso se anunciaron nuevas tecnologías que permiten estabilizar los qbits sin tener que ir a temperaturas extremas bajo cero, lo que elevaba el costo de estos ordenadores a decenas de millones de dólares.

El panorama cambió drásticamente en los últimos tres años, a tal punto que en este ambiente se habla de “los viejos tiempos” para referirse a… ¡2018!

Google logró la supremacía con una máquina de 54 qbits, y en noviembre IBM se anotó un nuevo récord, con una computadora cuántica (“Eagle”) de 127 qbits.

“Están pasando cosas increíbles porque muchas disciplinas, como la física, la geología, la biología y la geología, entre otras, se están volcando masivamente a las ciencias de datos” (que son el lenguaje tanto de la cuántica como de la IA), cuenta a la nacion Facundo Sapienza, que hizo las carreras de Matemática y Física en Ciencias Exactas de la UBA en paralelo y que actualmente cursa su doctorado en Berkeley. Su tesis fue sobre cuántica y en Estados Unidos trabaja en IA. “La Argentina no tiene nada que envidiarle a ningún país en talento de físicos, nuestras restricciones son económicas, por ejemplo de falta de presupuesto para comprar instrumental en laboratorios”, agrega Sapienza.

Además de las mencionadas IBM y Google, en esta carrera están también –con distintos abordajes– Intel, Microsoft, Honeywell y IonQ, la primera startup del rubro en hacer una oferta pública de acciones con un valor inicial de US$2000 millones.

Se espera que pronto haga su IPO también la firma californiana Rigetti. Su CEO, Chad Rigetti, sostuvo en un reciente reportaje que en el entorno de los 100-200 qbits empezaremos a ver aplicaciones comerciales interesantes, y defendió el concepto de “ventaja angosta” como verdadera cota de disrupción. ¿Cuál será el primer sector en “enchufar” partes cuánticas a sus procesos computacionales? Rigetti cree que el de los derivados financieros. La industria farmacéutica sigue en la cola de entusiasmo.

Luego del hito de la supremacía logrado por Sycamore a Google con 54 qbits, hubo una demostración exitosa de 60 por parte de la Universidad de Ciencias y Tecnología de China (USTC) en Hefei. Aquí el progreso no debe leerse en forma lineal: un ordenador de 200 qbits no es “el doble” de poderoso que uno de 100, sino más potente (y difícil de estabilizar) en varios órdenes de magnitud. IBM espera llegar a los 400 qbits a fin de este año y probablemente a los 1000 qbits en 2023.

“Es importante remarcar el hecho de que se sigue estabilizando la tecnología y se sigue incrementando el rendimiento de los procesadores cuánticos”, cuenta a LA NACION Román Zambrano, CTO de IBM para la Argentina y Uruguay. Si tiene que nombrar las áreas en las que cree que esta nueva tecnología será más impactante, cree que no hay que dejar de considerar “el rendimiento de algoritmos de machine learning para acelerar la explotación de datos y el desarrollo de modelo de inteligencia artificial; la posibilidad de recrear ciertos procesos que por su escala o complejidad son difíciles de representar en modelos tradicionales, y la criptografía y la seguridad”.

Para Rigetti y otros expertos, el camino cuántico es “la liana” a la cual la computación va a pasarse para poder seguir sosteniendo la ley de Moore (crecimiento exponencial en la capacidad de cómputo) que apalancó la revolución digital en las últimas décadas. Esta vez el camino no pasará por seguir haciendo chips cada vez más diminutos, sino con un formato completamente distinto.

En la literatura de innovación se habla de las “tecnologías de propósito general” (TPG) para describir aquellas avenidas de avance que tienen impacto en todos (o casi todos) los sectores de la economía. Lo fueron la electricidad, el motor de combustión interna, la PC, internet o la movilidad. En estos “años interesantes” hay varias TPG interactuando: la IA, la descentralización (Web3) o la biotecnología, que va más allá del negocio de la salud y tiene efectos sobre la energía, la alimentación, la infraestructura, etcétera. La cuántica tal vez sea la TPG menos conocida, la más críptica y difícil de descifrar, pero no por ello la menos fascinante.

Sebastián Campanario



Source link

Por admin

Deja una respuesta

Tu dirección de correo electrónico no será publicada.