Bio, cuántica y analógica: los paradigmas que buscan ser la computación del futuro
Bio, cuántica y analógica: los paradigmas que buscan ser la computación del futuro E n 2019, en el escenario de Congreso Futuro, el entonces vicepresidente de Estrategia y Ecosistema de IBM, Robert Sutor, proyectó que, en el corto plazo, la computación cuántica superaría a la tradicional, que tendría sus días contados. "Esa es tecnología que data de hace uno 70 años", afirmó.
Dos años después, Fred Jordan, CEO y cofundador de FinalSpark, una compañía que usa neuronas para procesar información, dijo a Bloomberg que "en el futuro se consumirá menos energía con computadores con partes vivas". La carrera por superar a la computación clásica, sustentada en transistores y arquitectura electrónica basada en silicio, está desatada. Y no porque esta última no haya evolucionado.
De hecho, se ha miniaturizado, dio origen a los servicios en la nube, al big data y a sistemas de inteligencia artificial capaces de procesar información tan rápido que parece que se conversara con la máquina, señala Ania Cravero, académica del Departamento de Ciencias de la Computación e Informática de la Universidad de La Frontera. Su problema radica en que la miniaturización basada en silicio se está acercando a límites físicos, y aumentar la capacidad de procesamiento implica crecientes desafíos energéticos, explica Cravero.
De hecho, en 2024, los centros de datos de Estados Unidos consumieron más del 4% de la electricidad total del país, según la Agencia Internacional de Energía (AIE). Ante la necesidad de nueva generación de computadoras que resuelva estas limitantes "crece la urgencia por explorar la computación cuántica y otros paradigmas emergentes como la computación neuromórfica, en órbita, de alto rendimiento, sostenible y biológica", señala el Foro Económico Mundial al explicar por qué el año pasado creó su Global Future Council on Next Generation Computing. Este es el estado de las tres tecnologías más promisorias en la actualidad.
Bio, cuántica y analógica: los paradigmas que buscan ser la computación del futuro Sus desarrolladores, impulsados por la búsqueda de mayor eficiencia energética y capacidad de procesamiento, exploran alternativas que aspiran a superar a los chips tradicionales y el lenguaje de 0 y 1 que hasta ahora han sido la norma.
CATERINNA GIOVANNINI ¿ ESTÁ LLEGANDO A SU LÍMITE LA TECNOLOGÍA QUE HEMOS CONOCIDO HASTA AHORA? COMPUTACIÓN CUÁNTICA: A LA ESPERA DE LA REVOLUCIÓN Gracias a la computación cuántica se podría hallar la fórmula de un nuevo fármaco, crear materiales con propiedades optimizadas, mejorar la inteligencia artificial o incluso determinar, en tiempo real, la forma más efectiva de mitigar un incendio forestal con múltiples focos y variables. "Es ilimitado lo que uno podría hacer con un supercomputador cuántico", plantea Dardo Goyeneche, profesor del área de Computación Cuántica en la Facultad de Física de la UC, en información publicada por ese departamento. La ventaja de esta tecnología es que no utiliza como unidad básica el bit (0 o 1), sino cúbits (o bits cuánticos), que permiten superposiciones entre cero y uno y explorar múltiples posibilidades en paralelo. En reconocimiento a todas las posibles aplicaciones, la Asamblea General de las Naciones Unidas declaró 2025 como el Año Internacional de la Ciencia y la Tecnología Cuánticas.
El 2019, Robert Sutor, en su exposición en Congreso Futuro admitía que, hasta entonces, no había nada "que se pudiera hacer en una computadora cuántica que no pudiera hacerse también en una computadora clásica". Siete años después, consultado para esta nota, Sutor reconoce que los sistemas actuales "siguen siendo 1.000 veces demasiado pequeños para ofrecer una ventaja práctica a gran escala respecto de lo que podemos hacer con los computadores tradicionales", y agrega que en ese entonces se creía que la industria avanzaría más rápido en la construcción de computadores cuánticos de mayor escala. Algunos de los problemas que presentan estos computadores son que, para realizar cálculos complejos, requieren una gran cantidad de cúbits, lo que también incrementa los errores en su funcionamiento.
Además, tienen una memoria de corto plazo. "Algunos prototipos, como los de Google o IBM, solo pueden procesar información cuántica durante unos 300 a 400 microsegundos", señala Goyeneche. "Los errores no ocurren porque seamos incompetentes", explica Sutor. "La naturaleza es un vasto sistema cuántico que interfiere con los procesos cuánticos que creamos.
Estamos logrando avances significativos para reducirlos y corregir la mayoría, aunque no todos los que persisten". Sutor agrega que, mientras tanto, los gobiernos deben apoyar la creación de sistemas cuánticos completos y funcionales mediante planificación estratégica de largo plazo y políticas industriales. Por lo pronto, el dinero está: en 2024 se invirtieron US$ 55 mil millones a nivel global.
En Chile, la tecnología tiene un prometedor desarrollo, gracias a centros de investigación y células en universidades como la U. de Santiago y la U. de Concepción, donde se incubó la startup Sequre Quantum, que desarrolló un sistema cuántico de generación de números aleatorios clave en materia de ciberseguridad. Además, en 2024, la U. de La Frontera habilitó un computador cuántico para uso académico: Gemini Mini Pr. En 2025, el Concurso de Anillos de Investigación en Áreas Temáticas Específicas de la Agencia Nacional de Investigación y Desarrollo (ANID) otorgó fondos para que la UC, junto con la U. Santa María, inicien el desarrollo de Quantü, un computador cuántico universal. El proyecto tiene financiamiento por tres años.
En tres a cinco años, Sutor prevé que los sistemas cuánticos alcancen los 100.000 cúbits y que la corrección de errores mejore y se implemente de forma más amplia: "Deberíamos ver ejemplos sólidos de computadores cuánticos superando a los sistemas clásicos en problemas químicos pequeños pero cruciales, como la mejora de las baterías de litio y el avance en la ciencia de materiales". La startup chilena Sequre Quantum desarrolló un sistema cuántico de generación de números aleatorios. Su foco es seguridad digital. SEQURE QUANTUM BIOCOMPUTACIÓN: EVOLUCIONAR DEL CHIP A LA NEURONA El consenso científico es claro: el procesador de información más eficiente conocido hasta ahora es la neurona humana. A partir de esta idea surge la computación biológica, en la que investigadores programan neuronas humanas de modo que puedan procesar la información que se les indique. El año 2021, Cortical Labs, una empresa australiana que cultiva neuronas en chips, logró que estas aprendieran por sí solas a jugar "Pong" e interactuaran con una pelota y una paleta virtuales. Actualmente, la compañía comercializa un computador biológico programable, el CL1, que cuesta alrededor de 35 mil dólares y que requeriría mucha menos energía que los sistemas de inteligencia artificial tradicionales. En paralelo, en Suiza también están trabajando con neuronas.
Desde el año 2014, el laboratorio FinalSpark, ha invertido cerca de un millón de francos suizos (US$ 1,29 millones) para que miles de neuronas conectadas mediante cables eléctricos sean accesibles a científicos de distintos países del mundo de forma remota. "Las neuronas utilizan una millonésima parte de la energía que los computadores digitales", explica a "El Mercurio" la doctora Ewelina Kurtys, integrante del equipo.
Además, señala que, en comparación con la computación tradicional, "las neuronas pueden vivir hasta 100 años y nuestro objetivo es prolongar su vida dentro del biocomputador, de modo que no sea necesario reemplazar sus componentes con frecuencia". Sin embargo, agrega que "existen importantes cuestiones éticas en torno a la biocomputación, como ocurre con cualquier campo emergente; por ejemplo, cuál es el límite entre lo humano y la máquina o cuál será la percepción pública de estas tecnologías.
Por ello, estamos fomentando activamente la participación de filósofos en este ámbito y esperamos contar pronto con investigaciones desde esa disciplina". En Chile, Alejandro Dinamarca, profesor de la Facultad de Farmacia de la Universidad de Valparaíso e investigador del Centro de Micro-Bioinnovación (CMBi), coincide en que los sistemas de inteligencia natural son energéticamente más eficientes y sustentables, pero ha optado por trabajar con bacterias, con las que no se enfrentan los dilemas éticos asociados al uso de material genético humano y que, aun así, poseen la capacidad de analizar información, explica. Desde 2022, junto a un equipo interdisciplinario, trabaja en el proyecto "GRT-AC: A Global Gene RegulationBased Tool for Modelling the Next Generation of Biological-Silicon Integrated Systems", financiado por el programa Fondecyt Exploración de ANID.
La iniciativa estudia cómo la bacteria Cobetia marina, presente en la zona de Montemar, en Viña del Mar, analiza su entorno y usa energía y recursos de forma sustentable, en respuestas que le permiten adaptarse y sobrevivir. "Esperamos que sitúe al país en una tendencia creciente que reconoce la inteligencia natural como un cambio de paradigma que puede aportar al desarrollo sustentable de la próxima generación de computación", explica Dinamarca. En el laboratorio de FinalSpark se utilizan neuronas humanas cultivadas para desarrollar biocomputadores. FINALSPARK COMPUTACIÓN ANALÓGICA: LA PROMESA DE MÁS VELOCIDAD Y EFICIENCIA ENERGÉTICA Otra tecnología con potencial para procesar información con mayor rapidez y menor consumo energético es la computación analógica. Esta prescinde del sistema binario de ceros y unos y utiliza sistemas físicos para representar y procesar la información.
Un ejemplo de su posible mejor desempeño es un estudio en chips, financiado por la Fundación Nacional de Ciencias Naturales de China y publicado en octubre de 2025, que mostraba que la computación analógica podría "ofrecer un rendimiento hasta 1.000 veces mayor y una eficiencia energética hasta 100 veces superior a la de los procesadores digitales más avanzados, manteniendo el mismo nivel de precisión", según se describe en la revista científica Nature. Un mes antes, Microsoft publicó resultados en computación óptica analógica, una de las variantes de esta tecnología.
La empresa construyó un prototipo con lentes y sensores, cuya principal ventaja es que "utiliza directamente las propiedades físicas de la luz para realizar los cálculos", señala a "El Mercurio" Paula Suárez, general manager STU de Microsoft para la región.
Se cree que podría utilizarse para mejorar la velocidad y reducir el consumo energético en telecomunicaciones, en simulaciones de sistemas moleculares para la industria farmacéutica o en finanzas, para optimizar portafolios y el modelado de riesgos. La mayor velocidad y, sobre todo, la eficiencia energética que prometen son atributos que hacen que el desarrollo sea visto con interés por industrias estratégicas.
En Chile y Latinoamérica, esto se traduce en "oportunidades en sectores estratégicos para la región, como minería, energía y logística, donde los desafíos de optimización a gran escala son especialmente relevantes porque son industrias que procesan altísimas cantidades de información y necesitan poder de cómputo", asegura Suárez. Prototipos usan las propiedades físicas de la luz para resolver problemas con mayor velocidad y eficiencia energética que los sistemas electrónicos. MICROSOFT.