Durante décadas, soñamos con tener un robot en casa que nos ayudara con las tareas del día a día. Aspiradoras que limpian solas, brazos mecánicos que cocinan, asistentes que no solo responden… sino que actúan.
Hasta ahora, ese sueño parecía exclusivo de las películas. Pero algo está cambiando.
Gracias a tres fuerzas que se han alineado —más datos, mejor IA y hardware más barato— los robots están saliendo del laboratorio… y entrando en casa. Por fin, parece que estamos construyendo los robots que siempre hemos querido.
Tradicionalmente, entrenar un robot implicaba escribir una lista precisa de movimientos. Todo debía estar medido, testeado, ajustado al milímetro. Si lo sacabas del entorno para el que fue entrenado, simplemente se caía.
Pero ahora, investigadores como Deepak Pathak, en Carnegie Mellon, están haciendo las cosas de otro modo. En lugar de escribir cada paso, están dejando que el robot aprenda por sí mismo. Como lo haría un niño.
Y esa es la gran diferencia: robots, conoce a la IA.
Usando técnicas como el aprendizaje por refuerzo (reinforcement learning), los robots ya no memorizan una coreografía: experimentan, se equivocan, aprenden. Caminan sobre terrenos irregulares, suben escaleras, hacen parkour.
Sí, parkour.
¿La clave? Visión por computadora, simulación y una forma de mirar al entorno parecida a la nuestra: no fijarse en lo que pisan, sino mirar unos pasos más adelante.
Este enfoque está cambiando las reglas del juego. Pero más allá del laboratorio, también se están dando pasos importantes.
Por ejemplo, en Stanford, han conseguido que un robot de bajo coste cocine gambas con solo 20 demostraciones humanas. Y eso no es solo una curiosidad académica.
Es independencia.
Pregúntaselo a Henry Evans, tetrapléjico desde hace dos décadas. Gracias a su robot Stretch, Henry pudo volver a jugar a las cartas. Por sí mismo.
El robot no es perfecto. Sigue fallando. Pero como él mismo dice: “Todo lo que hago es estar en cama, y ahora puedo manipular mi entorno. Y gané varias veces”.
(Y su mujer, Jane, ríe al fondo: “Bueno, tampoco exageres…”).
Aun así, no todo es tan sencillo. Porque como en casi todo, más es más.
Suscríbete para leer esta y otras muchas historias sobre innovación, tecnología y negocios.
LoremLos modelos generativos necesitan enormes cantidades de datos. Pero los robots no se entrenan con texto de internet: necesitan ver, sentir, tocar. Necesitan demostraciones físicas de cómo abrir una nevera, recoger un plato, colgar una toalla.
Y ese tipo de datos aún es escaso.
Por suerte, están apareciendo iniciativas para escalar este aprendizaje. Google DeepMind lanzó Open X-Embodiment, una colaboración global para crear el “ImageNet” de los robots. Reunieron datos de 22 robots distintos y entrenaron un modelo, RT-X, que logró un 50% más de éxito en tareas que cualquier sistema anterior.
No es poca cosa.
Pero calma: baby steps.
Aunque la inteligencia ha mejorado, los robots aún son torpes, no tienen sentido común, y son muy caros para el consumidor medio.
Eso sí, hay algo que muchos investigadores empiezan a ver con claridad: los hogares son el próximo benchmark de la inteligencia artificial. Si un robot puede desenvolverse con soltura en una casa —con todo su caos, su imprevisibilidad y sus múltiples tareas— estará más cerca que nunca de lo que llamamos inteligencia humana.
Y ese es el verdadero reto.
Que nunca te falten ideas, ni ganas de probarlas.
A.
PD – Si Ursula von der Leyen propone una radio, una linterna y un kit de supervivencia mínimo… ¿cuánto falta para que también tengamos un robot que sepa usarlos?
De momento aquí unos cuantos ejemplos: el famoso Roomba, el robot de cocina y su versión avanzada, el que dobla y plancha, el robot doméstico, una versión para niños del perrete de Boston Dynamics, un cortacésped, un limpiafondos de piscina y hasta un brazo robótico y su alternativa biónica.
Gracias por acompañarme en un nuevo Diario de Innovación, ¡y te espero mañana en Innovation by Default 💡!