Saltar al contenido
La Hora Muerta Empieza

Un robot muestra empatía hacia otro robot ¿Esto es bueno o malo?

12 enero, 2021
  • Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños.
  • Un robot debe obedecer las órdenes que le den los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.
  • Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley.

Los fanáticos de Isaac Asimov reconocerán sus Tres leyes de la robótica, presentadas por primera vez en su cuento corto de 1942 “Runaround” y popularizado en la colección de 1950 “Yo, Robot”. Si bien generalmente se reconocen como reglas para las interacciones de los robots con los humanos, la tercera podría aplicarse también a los encuentros de robot a robot. Aunque “proteger” implica agresión o contacto físico, también podría pertenecer al contacto “inteligente”. Pero, ¿Qué pasa con un robot que ataca a otro emocionalmente, como lo hacen los humanos con tanta frecuencia? Es posible que pronto descubramos que un nuevo robot desarrollado en la Universidad de Columbia ha aprendido a predecir las acciones futuras de otro robot de una manera que algunos llaman “empatía”.

“Nuestros resultados iniciales son muy emocionantes. Nuestros hallazgos comienzan a demostrar cómo los robots pueden ver el mundo desde la perspectiva de otro robot”.

Esa descripción de la empatía del robot proviene de Boyuan Chen en un comunicado de prensa de la Universidad de Columbia que describe su nuevo estudio, publicado en la revista Scientific Reports. Él y los coautores Carl Vondrick y Hod Lipson construyeron un pequeño robot y lo programaron para buscar y moverse hacia cualquier círculo verde que pudiera ver en una jaula o habitación simulada en la que estaba colocado. A veces, el robot tenía una vista clara; otras veces fue bloqueado por un recuadro rojo y obligado a moverse para buscar el mismo círculo u otro. Se colocó un segundo robot en posición de observar las acciones del primero y predecir sus movimientos. Después de dos horas, el robot de observación, con solo unos pocos marcos visuales de visión, pudo predecir qué círculo verde elegiría el otro y el camino que tomaría.

“La capacidad del observador de ponerse en el lugar de su socio, por así decirlo, y comprender, sin ser guiado, si su socio podía o no ver el círculo verde desde su posición ventajosa, es quizás una forma primitiva de empatía”.

Si te preocupa que los robots se vuelvan empáticos con otros robots, se vuelve más aterrador. Los autores sugieren que este es un paso temprano en el camino de los robots adquiriendo una “Teoría de la Mente” donde, como los niños pequeños humanos, primero comprenden las necesidades y perspectivas de otros robots, luego desarrollan interacciones sociales tan divertidas y cooperativas como las escondidas y otros juegos, o tan siniestros (y humanos) como la mentira y el engaño. En última instancia, Hod Lipson predice que los robots podrían desarrollar un “ojo mental” que les permita pensar visualmente como humanos. Algo que muchos no lo ven como algo bueno.

MIRA TAMBIÉN:

“Reconocemos que los robots no van a seguir siendo máquinas pasivas de seguimiento de instrucciones por mucho tiempo. Al igual que otras formas de IA avanzada, esperamos que los responsables políticos puedan ayudar a mantener este tipo de tecnología bajo control, para que todos podamos beneficiarnos”.

¿Qué pasará en el futuro?