Autor: ODRAJAUGADNANREF
La IA lo sabe casi todo, pero aún no sabe adaptarse: el gran límite que ve un investigador de OpenAI
La IA lo sabe casi todo, pero aún no sabe adaptarse: el gran límite que ve un investigador de OpenAI FERNANDA GUAJARDO, desde San Francisco La imagen con la que Lukasz Kaiser abrió su exposición fue tan simple como reveladora. La charla se dio en NEARCON 2026, la conferencia anual del ecosistema NEAR, que reúne a desarrolladores, startups e investigadores para discutir el futuro del software y la inteligencia artificial.
Ahí, el investigador de OpenAI planteó que hoy existen autos autónomos que han recorrido miles de millones de kilómetros y transportan a miles de personas cada día, pero que todavía no pueden cruzar ciertos puentes o llevar a un pasajero a destinos específicos. “Tenemos agentes, también tenemos autos (con IA) y son bastante increíbles. Los uso todos los días. Pero hay un pequeño problema: ¿ has intentado ir a Berkley en uno de esos? No te llevará allí. No puedes cruzar el puente”, dijo. Y luego lanzó la pregunta central de su charla: “Tenemos que pensar por qué nuestra increíble IA no tiene la capacidad de cruzar el puente”. Para Kaiser, la respuesta se repite en muchos ámbitos.
“¿Por qué no puedes hablar con un LLM en un idioma de baja disponibilidad? ¿ Por qué no puede curar tus enfermedades? ¿ Por qué tu agente es tan molesto? ¿ Por qué necesitas 20.000 prompts para ejecutar cualquier cosa?”, enumeró. “La respuesta a todo esto es la misma: nuestra IA todavía no ha descubierto cómo generalizar con pocos datos”. En la práctica, la IA no sabe qué hacer cuando la situación cambia. Un humano puede aprender a manejar en una ciudad y luego adaptarse, con pocos ejemplos, a otra distinta. En cambio, muchos sistemas de IA funcionan muy bien mientras el problema se parezca a lo que ya vieron en sus datos de entrenamiento, pero fallan cuando aparece algo nuevo, poco común o ligeramente distinto.
Como explicó en su presentación, estos sistemas “no generalizan de la manera correcta”. En su repaso histórico, recordó que su propio trabajo en el área partió hace más de una década, con los primeros modelos recurrentes.
“Los RNN eran los primeros modelos poderosos que podían entrenarse para hacer algo”, dijo, pero tenían un límite claro: “Solo podían mantener un número constante de bits en su estado”. Para explicarlo, usó una metáfora: “Es como un gato que pasa token por token, come un token, actualiza su estado, saca un token y sigue, pero nunca crece. Solo puede hacer tanto”. El salto vino con los transformadores. “Son mejores en el sentido de que pueden mirar todo lo que sucedió en el paEl investigador fue el primer expositor de la jornada.
“¿Por qué no puedes hablar con un LLM en un idioma de baja disponibilidad? ¿ Por qué no puede curar tus enfermedades? ¿ Por qué tu agente es tan molesto? ¿ Por qué necesitas 20.000 prompts para ejecutar cualquier cosa? La respuesta a todo esto es la misma: nuestra IA todavía no ha descubierto cómo generalizar con pocos datos”. sado. Así que su estado crece y crece y crece”, explicó.
Ese cambio, añadió, los hizo “mucho más poderosos computacionalmente mientras siguen siendo entrenables en datos arbitrarios”. Para Kaiser, ese avance “nos dio literalmente todo”: desde chatbots hasta generación de imágenes y agentes cada vez más complejos. Sin embargo, advirtió que el éxito de escalar modelos también tiene un límite. “Mucha gente piensa que esto es todo porque tienes más capas y más datos. Y más capas y más datos es increíble, no me malinterpreten, pero no generaliza mejor. Solo hace que aprendas cosas que ya son conocidas en algún lugar en internet”, afirmó. Según dijo, ese enfoque sigue ayudando mientras el problema se parece a algo ya visto, pero no es suficiente cuando se trata de situaciones realmente nuevas. Ahí es donde entran los llamados modelos de razonamiento. “Los modelos de razonamiento son modelos que tienen una cadena de pensamientos antes de dar la respuesta”, explicó. A diferencia de los sistemas que responden directamente, estos pueden seguir una estrategia, como “ir a un motor de búsqueda, encontrar el sitio web”, y recién entonces construir la respuesta.
Por eso, señaló, se pueden entrenar “con solo un millón o diez millones de tareas en lugar de trillones y trillones de tokens” y aun así empezar a resolver problemas de matemáticas, código u otras tareas. Ese enfoque, dijo, entrega “mucho más poder computacional”, pero también tiene limitaciones.
Kaiser explicó que estos modelos hoy aprenden sobre todo de tareas donde se puede decir si algo está bien o mal, y que “eso no es tan agradable como el aprendizaje habitual en el que puedes entrenar con datos arbitrarios”. Además, el razonamiento actual sigue siendo secuencial.
“La razón actual va token por token por token”, afirmó, planteando que el próximo gran desafío es construir modelos que puedan razonar de forma más paralela y, al mismo tiempo, aprender mejor desde datos más diversos. Para Kaiser, ese es el verdadero cuello de botella de la industria hoy. “Creo que hay otro cambio de paradigma en el aire”, dijo, y añadió: “Hay diez nuevos laboratorios cada mes. Creo que la gente siente que hay otro cambio de paradigma encima de las increíbles capacidades que ya tenemos”. Si ese obstáculo se supera, proyectó, el impacto podría ir más allá de las aplicaciones actuales. “Estos modelos harán investigación real, no solo en matemáticas, sino en todas las áreas. Serán agentes increíbles”, afirmó. Autor: ODRAJAUGADNANREF. En su presentación en NEARCON 2026, Lukasz Kaiser sostuvo que los modelos actuales son impresionantes en escala, pero siguen fallando cuando enfrentan situaciones nuevas. El foco, dijo, está en pasar de sistemas que memorizan a modelos que realmente razonan. LAS PRÓXIMAS FRONTERAS QUE DEBE CRUZAR LA INTELIGENCIA ARTIFICIAL