Las máquinas ya tienen el control

Mirando al sur

Esta columna fue escrita por un ser humano. Pero no falta mucho tiempo para que un algoritmo (un robot o un programa) la escriba, la edite y la publique. Estamos en ese camino.

Hasta hace veinte años la totalidad de las decisiones eran tomadas por seres humanos. Algunas de esas personas eran más inteligentes que otras. Algunas erraban más que otras. Algunas hacían tonterías todo el tiempo, pero lograban sobrevivir en lugares de decisión porque sabían mantener el poder más allá de su capacidad técnica. Hoy tomar una decisión ya no es sólo una actividad humana: las máquinas tienen poder de control. Y cada vez tienen más poder de control independientemente de cualquier supervisión humana.

No estamos en un escenario parecido al que alcanza la inteligencia artificial “skynet” en el filme “Terminator”, pero ya gran parte del control de todas las actividades humanas está en manos de máquinas, robots, programas o algoritmos. Es cierto que las máquinas o algoritmos fueron programados originalmente por humanos, pero también es cierto que, desde hace una década, se les fue cediendo el control del programa o máquina a la propia máquina o programa. Y comenzaron a aparecer cada vez más problemas.

Algunos de los problemas de haber cedido ya gran parte del control total a las máquinas parecen pequeños o meramente “pintorescos”. Por ejemplo, el que sucedió en junio del 2015 cuando Jacky Alcine, una programadora neoyorquina, revisaba sus antiguos álbumes de Google Photos y vio que el programa había creado una carpeta rotulada “Gorilas” en las que había puesto, no las fotos de gorilas (que ella nunca había tomado), sino sus retratos junto a un amigo (ambos de origen afroamericano).

El algoritmo de Google Photos había identificado correctamente los paisajes y los había puesto en la carpeta “Paisajes” y así otras varias cosas en sus respectivas carpetas correctas. Eso quiere decir que el algoritmo funcionaba bastante bien. Pero no pudo distinguir la diferencia entre algunos rostros afroamericanos y el de un gorila. Obviamente no hubo racismo. Los algoritmos son operaciones matemáticas sin intencionalidad de ningún tipo. Incluso, aclaró Yonatan Zunger (quien dirige el área social de Google Plus), que también ha sucedido que ese algoritmo ha etiquetado a gente de piel muy clara como un perro o una foca.

Este error, si bien puede resultar chocante, es un caso menor. Pero ya hay algoritmos que intervienen con poder decisivo en operaciones más conflictivas. No sólo informan a las autoridades migratorias o de seguridad que tal o cual persona puede ser peligrosa (como viene sucediendo desde los 90), sino que ahora también toman la decisión de negarle la visa, la entrada a un país o directamente iniciarle un expediente policial. Ya hubo casos de periodistas que trabajan investigando actos de terrorismo que fueron confundidos por los algoritmos con terroristas. Y han tenido problemas en trámites migratorios y consulares; problemas que la intervención humana logró superar.

¿Qué sucederá cuando un algoritmo decida enviar un dron a atacar una escuela secundaria en la que se atrincheró un grupo de adolescentes bromistas que llamaron al 911 para decir que tienen una bomba? Que se sepa, por ahora, ninguna autoridad política ha decidido (aún) ceder ese poder a los algoritmos, pero es sólo cuestión de tiempo. Apenas un país ceda ese poder (porque sabe que eso lo hace más eficientemente ofensivo) va a ser difícil que los demás (o muchos) no sigan su ejemplo. Hemos visto este proceso con la bomba atómica.

Marcelo Rinesi, un físico que trabaja como científico de datos free lance, sostuvo –en su ponencia en el último Salón de TEDxRíoDeLaPlata– que la cesión del control estratégico en manos de los algoritmos es sólo una cuestión de tiempo. La tendencia política y técnica parecería apuntar en ese sentido. Sólo se trata de ver si será China, EE. UU., la Unión Europea o Rusia el primero en dar el gran paso.

Esta columna fue terminada de escribir por un ser humano sin la ayuda de ningún otro algoritmo que el procesador de textos de su computadora.

No se mal acostumbre el lector, porque en el futuro cercano esto será una excepción.

El algoritmo de Google había identificado correctamente los paisajes. Pero no pudo distinguir la diferencia entre algunos rostros afroamericanos y el de un gorila.

Hay algoritmos que intervienen con poder decisivo en operaciones más conflictivas. Toman la decisión de negar una visa, la entrada a un país o de iniciar un expediente policial.

Datos

El algoritmo de Google había identificado correctamente los paisajes. Pero no pudo distinguir la diferencia entre algunos rostros afroamericanos y el de un gorila.
Hay algoritmos que intervienen con poder decisivo en operaciones más conflictivas. Toman la decisión de negar una visa, la entrada a un país o de iniciar un expediente policial.

Formá parte de nuestra comunidad de lectores

Más de un siglo comprometidos con nuestra comunidad. Elegí la mejor información, análisis y entretenimiento, desde la Patagonia para todo el país.

Quiero mi suscripción

Comentarios