Un robot que pedalea una bicicleta. Otro que limpia la casa sin haber recibido nunca instrucciones de cómo hacerlo. ¿Estamos seguros de que queremos seguir considerando estas máquinas como “simples electrodomésticos”? Los chinos Agibot acaba de revelar Lingxi X2, un humanoide versátil que rompe muchas de nuestras certezas sobre lo que significa el “aprendizaje robótico”. Olvídese de la idea de que los robots necesitan ser programados y entrenados para cada acción: este autómata aprende observando, tal como lo haría un niño. ¿Su secreto? Un modelo de inteligencia artificial llamado GO-1 que transforma la observación en competencia práctica. Es como si acabáramos de cruzar un umbral evolutivo en robótica.
Agibot, un humanoide en miniatura (pero no demasiado miniatura)
No te dejes engañar por el tamaño compacto: X2 mide 1,3 metros de altura y pesa poco más de 33 kilos. Se trata de una concentración de tecnología que establece nuevos estándares en términos de “robótica y flexibilidad de movimiento”. Camina, corre, gira, baila (mejor que yo, me temo) y sobre todo hace cosas que nadie le ha enseñado explícitamente. Aquí es donde reside la verdadera capacidad: la de generalizar comportamientos nunca antes vistos.
Porque veréis, hasta ayer el paradigma era sencillo: si querías que un robot hiciera algo, tenías que programarlo para esa tarea específica. Era como tener un hijo al que tenías que explicarle paso a paso cada acción. Con X2, AgiBot ha cambiado las reglas: Mirar, entender, responder. Punto. ¿Inquietante? Tal vez. ¿Fascinante? Ciertamente.
La inteligencia que observa (y lee dentro de ti)
Pero no es sólo cuestión de moverse por el espacio. X2 cuenta con un sistema de interacción multimodal que responde en milisegundos. Aquí es donde las cosas se ponen aún más interesantes (o aterradoras, dependiendo de tu nivel de paranoia tecnológica): el humanoide es capaz de analizar tus expresiones faciales y tono de voz para identificar con precisión tu estado emocional.
X2 incluso simula la respiración humana, “observa” silenciosamente el entorno y manifiesta lenguajes corporales y movimientos sutiles.
No sé qué piensen ustedes, pero a mí me resulta extraño saber que un robot puede “respirar” e interpretar emociones. Agibot argumenta que Estas características permiten respuestas más apropiadas y auténticas. Me pregunto qué significa “auténtico” cuando hablamos de coches.
Agibot, el cerebro detrás de escena
GO-1, el modelo de IA que impulsa a X2, utiliza un sistema llamado “acciones latentes” que ayuda al robot a comprender los movimientos analizando fotogramas pasados y actuales. También hay un componente llamado Latent Planner que planifica secuencias de acciones utilizando un modelo de transformador específico.
En pruebas de rendimiento en cinco tareas diferentes, GO-1 superó significativamente a los modelos de última generación, aumentando las tasas de éxito del 46% al 78%. Especialmente impresionantes son las mejoras en tareas complejas como verter agua y rellenar bebidas. Restaurantes, estote parati.
Aplicaciones prácticas (y futuras)
AgiBot imagina a X2 como mayordomo, limpiador y guardia de seguridad. Pero el potencial se extiende a la salud, la educación y muchos otros sectores. La empresa lo llama un “asistente de vida humana” que aporta “mayores posibilidades al futuro de la vida inteligente”.
Aquí volvemos a la eterna pregunta: ¿cuánto estamos dispuestos a delegar en las máquinas? Y sobre todo: ¿cuánto queremos que se parezcan a nosotros? Si estos robots siguen evolucionando a este ritmo, pronto la pregunta ya no será «qué pueden hacer», sino «¿qué elegiremos que hagan?» (Aún no quiero llegar a «qué elegirán hacer»).
Es un pensamiento que vale la pena considerar mientras disfrutamos del espectáculo de un humanoide pedaleando.