Compartir el dolor de los demás

Cuando hablamos de Inteligencia Artificial (AI) nos referimos a muchas cosas distintas. Eso sucede porque aún no tenemos una idea de inteligencia natural que nos conforme a todos. Marvin Minsky (quien fue la persona que acuñó el término Inteligencia Artificial en 1956), dijo: “Aún no nos ponemos de acuerdo sobre qué diablos es la inteligencia ‘natural’, por eso es muy difícil que podamos desarrollar una que sea artificial”.

Hacia el final de su vida, Minsky era escéptico sobre que se pudiera generar una inteligencia artificial que fuera comparable con la humana (es decir, que funcionara en varios niveles a la vez y que fuera consciente de saber lo que sabía), pero reconocía que podían desarrollarse múltiples inteligencias artificiales parciales, aunque incapaces de saber cosas que no fueran las específicas para las que fueron desarrolladas.

Ahí está ahora el desarrollo de la IA: en múltiples programas y robots que imitan la inteligencia humana en ámbitos muy acotados. En gran medida, muchos de los programas que todos tenemos en nuestros celulares podrían calificar como IA parcial.

Según Minsky, el problema central para desarrollar una inteligencia artificial que sea consciente de sí y que tuviera (entre muchas otras cosas) empatía, es que la inteligencia humana funciona de manera holística mientras que las formalizaciones matemáticas son analíticas y, para funcionar, deben resumirse en fórmulas binarias. Nuestro cerebro puede procesar no solo mucha información, sino que, a la vez, sabe que está pensando (y en qué está pensando).

Justamente la conciencia de sí y la empatía son las capacidades humanas más difíciles de imitar en entornos digitales. Quizá porque recién estamos comprendiendo cómo fue que un grupo de homínidos se transformó hace un millón de años en homo sapiens, ese primate que desarrolló una inteligencia tan compleja que es consciente de que sabe lo que sabe.

Una de las muchas respuestas posibles (aún en estadio de investigación) es que los animales que devinieron humanos organizaban su vida en comunidad. Vivir e interactuar con el grupo permitió al cerebro de los homínidos (también al de los otros primates, y pareciera que a algunos de los demás mamíferos) desarrollar las “neuronas espejo”. Estas neuronas son células que no sólo se ponen a funcionar cuando el cerebro decide ejecutar ciertos movimientos (por ejemplo, saltar un charco) sino que también se activan al contemplar a otros hacer esos movimientos. En nuestro cerebro hay neuronas que permiten aprender imitando lo que hace otro (eso es, además, lo que nos permite sentir empatía).

Giacomo Rizzolatti es el investigador que dirigía al grupo de investigadores de la Universidad de Parma que en 1996 descubrieron las neuronas espejo. Cuando las descubrieron, creyeron que las neuronas espejos sólo estaban presentes en el sistema motor del cerebro y que sólo replicaban o imitaban las acciones de otros individuos.

En apenas dos décadas las investigaciones en este campo han avanzado considerablemente y hoy, dice Rizzolatti, “descubrimos que se trata de un principio general del sistema nervioso que nos permite generar modelos en nuestra mente y, gracias a eso, podemos entender a los demás basándonos en esos modelos. Yo diría que en nuestras investigaciones hemos pasado de las neuronas espejo a pensar en un mecanismo espejo”.

Ahora sabemos que la empatía humana es innata. La mayoría de las personas siente alegría o dolor por lo que hace o le pasa a otra persona porque al ver lo que le sucede se puede poner en su lugar. Los estudios demuestran que buena parte de la empatía es posible por las neuronas espejo. Lo interesante es que el estímulo es también importante para generar empatía: ver o estar presente (“vivir” incluso una escena a través de un film o un libro) no es lo mismo que tener una información objetiva sobre un suceso. Para identificarse con el que sufre, por ejemplo, no es lo mismo ver que asesinan a una persona que leer en el diario que mataron a tal persona en un asalto.

No todas las empatías son positivas. Por ejemplo, los sádicos son empáticos con el dolor de las víctimas, pero ese dolor del otro (que reconocen) no les provoca sufrimiento sino placer.

El escritor Philip Dick desarrolló en sus relatos mundos futuros en los que las máquinas se parecían tanto a los humanos que eran casi indistinguibles (como se ve en el film Blade Runner, basado en su nouvelle “¿Sueñan los androides con ovejas eléctricas?”, publicado en 1968).

¿Podremos generar IA basada en un entorno digital que funcione como el sistema espejo de nuestro cerebro? ¿Sin empatía, conciencia ni generación de lenguajes que constantemente produzcan mundos de sentido, podrán los androides soñar (en cualquier cosa)?

Nuestra generación quizá no logre producir las respuestas (positivas o negativas) a estas preguntas, pero los niños que hoy están naciendo sabrán alguna vez si los androides pueden o no soñar con ovejas eléctricas.

¿Podremos generar IA que funcione como el sistema espejo del nuestro cerebro? La conciencia de sí y la empatía son las capacidades humanas más difíciles de imitar.

Datos

¿Podremos generar IA que funcione como el sistema espejo del nuestro cerebro? La conciencia de sí y la empatía son las capacidades humanas más difíciles de imitar.

Formá parte de nuestra comunidad de lectores

Más de un siglo comprometidos con nuestra comunidad. Elegí la mejor información, análisis y entretenimiento, desde la Patagonia para todo el país.

Quiero mi suscripción

Comentarios