"); } "); } else document.write("
");
Una nueva generación de autómatas serán capaces de prever las consecuencias de sus acciones
El investigador Pablo Lanillos y Tiago, el robot que se reconoce en el espejo. vídeo: epv
Tiago se mira por primera vez al espejo. Tras varios movimientos con su único brazo lo confirma: “soy yo”, dice alto y claro el robot blanco y negro de 1,50 metros de altura. Dos años después de comenzar sus investigaciones con el proyecto Selfception, el científico Pablo Lanillos ha conseguido que los androides sean capaces de reconocerse a sí mismos.
Este humanoide se auto identifica después de realizar varios movimientos aleatorios con el brazo delante de un espejo. Es posible porque Lanillos ha adaptado un modelo matemático basado en el funcionamiento del cerebro humano: “Las personas tenemos un modelo fijo y nuestro cerebro actúa muy rápido para distinguir nuestros movimientos”, señala el investigador. “Pero que el robot se reconozca no es pre reflexivo (es decir, saber que yo soy yo con toda mi historia), sino por repetición de movimientos”, añade. Sin embargo, si programamos un autómata con la misma apariencia que Tiago, que hace los mismos movimientos en el mismo momento, el androide se confunde y cree que es él mismo reflejado en un espejo. “Aunque si la réplica hace un leve movimiento distinto, Tiago distingue que no es él instantáneamente”, asegura Lanillos.
El proyecto Selfception está inspirado en teorías sensomotoras de psicología y neurociencia y se basa en que el desarrollo de las capacidades cognitivas pasa primero por el aprendizaje de nuestro cuerpo. Desde que estamos en el útero materno generamos un mapa que relaciona cada acción con una respuesta sensorial (en ese momento se empieza a construir la base para relacionarnos con el mundo). El programa ayuda a comprender el cerebro humano y a mejorar las capacidades de las máquinas cuándo interactúan con personas, además de mejorar los algoritmos de aprendizaje automáticos.
Karl Friston, neurocientífico experto en imágenes cerebrales y profesor de la University College of London (UCL) afirma que es esencial investigar por qué los humanos actuamos de una u otra manera y reducir la incertidumbre sobre las causas de nuestras sensaciones para reunir evidencias de nuestra propia existencia. “Los modelos internos o generativos del yo han de incluir 'dónde estoy' y 'cómo me muevo' y un buen ejemplo de esta inferencia activa es moverse físicamente para generar evidencias que confirmen la hipótesis de que ‘yo estoy aquí’ y ‘yo hice eso’ como demuestra el equipo de Lanillos”, apunta.
El proyecto Selfception está inspirado en teorías sensomotoras de psicología y neurociencia y se basa en que el desarrollo de las capacidades cognitivas pasa primero por el aprendizaje de nuestro cuerpo
El ingeniero español y doctor en Inteligencia Artificial por la Universidad Complutense de Madrid (UCM) ha desarrollado este proyecto gracias a una beca Marie Curie, destinadas a fomentar la formación y el desarrollo de investigadores destacados en temas de innovación. Lo ha llevado a cabo en la Universidad de Múnich, (Alemania) y ha probado sus teorías en Pal Robotics, una empresa puntera en tecnología de androides bípedos con sede en Barcelona.
La empresa fue la encargada de poner en marcha el primer humanoide bípedo autónomo de Europa (que era capaz hasta de jugar al ajedrez). Francisco Ferro, su fundador, creó la compañía para que “la ciencia y la tecnología mejoren la vida de las personas”, señala. Trabajan con robots que sirven a la industria, a investigaciones de neurociencia e incluso asisten a personas mayores en casa. Actualmente están programando a Talos. Un robot de 1,85 metros que podría ayudar en tareas de fabricación de aviones que un hombre no puede realizar muchas horas por ser un trabajo arduo. Se unirá a la plantilla de Airbus cuando esté listo.
Varias investigaciones de los últimos años han estudiado si los robots se pueden reconocer en el espejo. Nico, el robot creado por el equipo de Brian Scassellati en el Instituto Tecnológico de Massachussets (MIT) se miró en en el espejo en 2007. La diferencia es que Scassellati solo usó la variable relacionada con el movimiento (el robot se reconocía porque se movía). Sin embargo, Lanillos ha conseguido que el autómata se identifique por dos variables: el movimiento y la visión. “El robot está programado para darse cuenta de que si sube un brazo, la extremidad va a aparecer en cierta posición y prever ese movimiento”, explica Lanillos. Ya no significa solo moverse, sino que el androide lo haga con coherencia a lo que espera ver y se produzcan cambios en su visión.
El científico español está convencido de que este es un primer paso para que el robot pueda relacionarse con el entorno y tomar decisiones. Pensemos en un coche autónomo. El vehículo genera una acción en la carretera que trae una consecuencia para los pasajeros. Si los androides anticipan lo que puede pasar, pondrá la seguridad de los viajeros en primer plano y decidirá si la mejor opción es dar un volantazo hacia un lado o hacia otro. El siguiente paso será que el autómata se reconozca porque mueva todo su cuerpo, no solo el brazo. “No puede existir un robot que interactúe con humanos que no sepa en todo momento donde está su cuerpo”, concluye Lanillos.