Seguro que más de una vez, mientras peleabas con el aspirador inteligente que se atasca con la alfombra, has pensado: «¿Para cuándo un robot que de verdad me eche una mano en casa?«. Pues bien, saca el café y siéntate, porque lo que hace apenas unos días era el guion de una película de Spielberg acaba de colarse en nuestra realidad. La noticia del momento es el salto de la IA del móvil al mundo físico gracias a la alianza entre OpenAI (los creadores de ChatGPT) y la empresa de robótica Figure.

Hasta ahora, los robots industriales eran máquinas programadas para repetir el mismo movimiento mil veces. Pero lo que hemos visto en las últimas filtraciones y demostraciones de Figure AI es otra liga. Gracias a la integración de los modelos de lenguaje de OpenAI, su modelo Figure 02 (y las evoluciones que están probando ahora mismo) ya no solo se mueve; ahora comprende el entorno.

En el vídeo que ha dado la vuelta al mundo —y que no tiene trampa ni cartón, según los ingenieros de la marca—, vemos al robot frente a una mesa con varios objetos. Cuando una persona le dice: «Tengo hambre, ¿puedes darme algo de comer?«, el robot no necesita que le digan «agarra la manzana«. Él mismo identifica la fruta entre otros objetos, la toma con una delicadeza asombrosa y, mientras te la entrega, explica con una voz natural: «Te doy la manzana porque es el único elemento comestible que tengo disponible sobre la mesa«.

Lo que hace que esta colaboración sea un hito —según fuentes de la propia Figure y análisis de expertos en TechCrunch— es la capacidad de razonamiento visual y auditivo en tiempo real. Aquí tienes algunos detalles que hacen que este robot sea especial:

  • Manos casi humanas: Sus extremidades tienen los mismos grados de libertad que una mano humana, lo que le permite desde colocar una pieza de motor en una fábrica (como ya están probando en plantas de BMW) hasta recoger una bolsa de basura sin romperla.

  • Aprendizaje por observación: No hay que programar cada línea de código. El robot aprende viendo vídeos de humanos haciendo tareas. Si tú sabes fregar los platos, él puede aprender solo con mirarte.

  • La «mente de OpenAI»: La gran diferencia es que su cerebro es una versión personalizada de GPT. Esto significa que puedes hablarle como a un amigo, sin comandos raros, y él entiende la intención detrás de tus palabras.

De momento, no esperes cruzártelo comprando el pan en el Casco Viejo. Estos robots están dando sus primeros pasos en entornos controlados, principalmente en fábricas de coches, para realizar tareas que son demasiado aburridas o peligrosas para nosotros. Sin embargo, el fundador de Figure, Brett Adcock, no oculta su ambición: el objetivo final es que cada hogar tenga uno para ayudarnos con las tareas domésticas.

Como todo lo que toca la IA, el debate está en la calle. ¿Nos quitarán el trabajo o nos liberarán de las tareas que nadie quiere hacer? Lo que es innegable es que la barrera entre lo digital y lo físico se ha roto. Ya no es una voz que te dice el tiempo que va a hacer en el Abra; es un cuerpo de metal que te ofrece una manzana y te explica por qué lo hace.

Es fascinante y, por qué no decirlo, da un poco de vértigo. Pero así es el futuro: llega sin llamar a la puerta y, por lo que parece, viene dispuesto a ayudarnos a recoger la mesa.