Otra semana más, otro anuncio rimbombante sobre haber alcanzado la Inteligencia Artificial General (AGI). A estas alturas, a nadie se le culparía por sufrir un caso agudo de “fatiga de AGI”. Sin embargo, esta vez la proclama no viene de los sospechosos habituales de Silicon Valley, sino de Integral AI, una startup con sedes en Tokio y California capitaneada por Jad Tarifi, un pionero que salió de las filas de Google AI. Y no prometen simplemente un modelo de lenguaje más grande y potente; aseguran haber dado con un cambio de paradigma fundamental.
Integral AI ha anunciado la creación del primer “modelo con capacidad de AGI” del mundo. Antes de que pongan los ojos en blanco, conviene analizar su propuesta: su afirmación se asienta sobre una base que esquiva deliberadamente el escalado por fuerza bruta y el hambre voraz de datos de la IA actual. En su lugar, proponen un sistema que aprende de forma más parecida a un ser humano, prometiendo un futuro de robots que resuelven problemas por sí mismos. Es una declaración audaz que merece que miremos bajo el capó. ¿Estamos ante el avance definitivo o es solo otro caso de “lavado de imagen con AGI” en un mercado saturado de hype?
El arquitecto de una nueva inteligencia
El hombre detrás de la cortina es Jad Tarifi, Ph.D., quien no encaja en el molde típico de fundador de startup. Pasó casi una década en Google AI, donde fundó y dirigió su primer equipo de IA generativa, centrándose en “modelos de imaginación” y en cómo aprender a partir de datos limitados. Con un doctorado en IA y un máster en computación cuántica, sus credenciales son tan sólidas como sus ambiciones.
Curiosamente, Tarifi ha centrado sus operaciones en Tokio, una elección deliberada basada en su convicción de que Japón es el corazón global de la robótica. No es solo una preferencia geográfica; es estratégica. La visión de Integral AI es una inteligencia “encarnada” (embodied intelligence): una IA que vive y aprende en el mundo físico, convirtiendo a la robótica en el banco de pruebas definitivo.
Si no puedes definirlo, no puedes construirlo
Quizás lo más refrescante del anuncio de Integral AI es su definición de AGI, rigurosa y orientada a la ingeniería. Mientras gigantes como OpenAI y Google DeepMind suelen hablar de la AGI en términos vagos y casi filosóficos, Integral ha establecido tres pilares estrictos y medibles para cualquier sistema que pretenda ostentar el título:
- Aprendizaje autónomo de habilidades: El modelo debe ser capaz de aprender habilidades completamente nuevas en entornos desconocidos sin bases de datos precocinadas ni la guía constante de un humano. Esto es un desafío directo a sistemas como ChatGPT, que están limitados por los datos con los que fueron entrenados.
- Maestría segura y fiable: El proceso de aprendizaje debe ser intrínsecamente seguro. Tarifi utiliza una analogía brillantemente sencilla: un robot que aprende a cocinar no debería quemar la cocina mediante el método de ensayo y error. La seguridad debe ser una función nativa, no un parche frenético aplicado a posteriori.
- Eficiencia energética: Aquí está la clave. El modelo no puede consumir más energía para aprender una nueva habilidad de la que consumiría un ser humano. Este pilar ataca directamente al “elefante en la habitación” de la Gran IA: el consumo energético absolutamente insostenible que requiere el entrenamiento de modelos cada vez más mastodónticos.
Según su anuncio de diciembre de 2025, el modelo de Integral AI ha superado con éxito estos tres criterios en un entorno de pruebas cerrado. De ser cierto, estaríamos ante nada menos que una revolución.
Modelos del mundo, no modelos de palabras
¿Cuál es la receta secreta? Integral AI no está construyendo Modelos de Lenguaje Extensos (LLM). Están construyendo “Foundation World Models” (Modelos Fundacionales del Mundo). El concepto de modelos del mundo existe desde hace décadas, con pioneros como Jürgen Schmidhuber y Yann LeCun defendiendo la idea como un paso crucial hacia una IA más robusta. La idea central es que una IA construya una simulación interna y predictiva de su entorno, lo que le permite “imaginar” las consecuencias de sus acciones antes de ejecutarlas.
La arquitectura de Integral se inspira en el neocórtex humano, diseñada para abstraer, planificar y actuar como un todo unificado, en lugar de limitarse a predecir estadísticamente el siguiente elemento de una secuencia. El sistema utiliza lo que denomina “operadores universales” que funcionan de forma similar al método científico: formular una hipótesis, diseñar un experimento (como mover el brazo de un robot) y aprender del resultado. Este proceso de aprendizaje activo es lo que le permite operar sin un conjunto de datos masivo y estático.
La prueba del algodón: empujando piezas de puzle
Por supuesto, las palabras se las lleva el viento. La evidencia, por ahora, reside en unas pocas demostraciones clave. La primera es un desafío clásico de la IA: el juego Sokoban. Este juego de puzles en almacenes es engañosamente difícil para una IA porque requiere una planificación a largo plazo, donde un solo movimiento en falso puede hacer que el puzle sea irresoluble mucho después. La IA generativa actual suele tener serias dificultades con este tipo de seguimiento de estados y consecuencias lógicas. Tarifi afirma que su modelo dominó Sokoban desde cero (tabula rasa), aprendiendo las reglas y una estrategia de nivel profesional simplemente interactuando con la simulación.
Para demostrar que esto no va solo de juegos, Integral también presentó un proyecto para Honda R&D. La tarea consistía en coordinar sistemas complejos de logística y planificación en el mundo real; esencialmente, jugar a Sokoban con cadenas de suministro y APIs reales. Las capacidades de planificación se compararon con el legendario AlphaGo de Google DeepMind, pero aplicadas al desordenado y dinámico mundo físico en lugar de a un tablero de juego con reglas cerradas.
Entonces, ¿es real el hype de la AGI esta vez?
Mantengamos los pies en la tierra. Integral AI ha presentado una visión increíblemente atractiva y un conjunto de afirmaciones que pueden ser puestas a prueba. Sin embargo, estos resultados provienen de un “entorno controlado” (sandbox) y la comunidad científica internacional aún no los ha verificado de forma independiente. Básicamente, la empresa ha creado su propia vara de medir para la AGI y luego ha declarado que ha superado la marca.
Si —y es un “si” mayúsculo— estas afirmaciones resisten el escrutinio, las implicaciones son asombrosas. Significaría el fin del paradigma de la acumulación masiva de datos, reduciría drásticamente el impacto ambiental de la IA y allanaría el camino para robots de propósito general capaces de adaptarse a nuestros hogares, no solo a fábricas rígidamente estructuradas.
Integral AI ha lanzado un órdago, desafiando el enfoque de toda la industria sobre cómo construir máquinas inteligentes. La empresa ve esto como el primer paso hacia una “superinteligencia que amplíe la libertad y la agencia colectiva”. Por ahora, el mundo observa con cautela. Las promesas son extraordinarias. El siguiente paso es aportar las pruebas extraordinarias, sacando a este “cerebro en una caja” del laboratorio para llevarlo a nuestro mundo… esperemos que sin incendiar ninguna cocina por el camino.













