Los hackers utilizan la Inteligencia Artificial para recrear los tonos de voz de una persona. Archivo.
Opinión Debates

La Inteligencia Artificial crea cada vez mejor: Argentina regula poco y mal

Los sistemas de IA generativa como Chat GPT ya se usan para armar noticias y videos, modelar sentencias o evaluar a docentes. ¿Cuáles son los límites a la privacidad? ¿Y los peligros de automatizar decisiones? Argentina está muy atrás en sus políticas, aseguran expertos.

Podría en el futuro un sistema de Inteligencia Artificial definir la libertad condicional de algún condenado por el crimen de Fernando Báez Sosa? ¿O definir la promoción de docentes rionegrinos? ¿Los videos donde un candidato a un cargo importante aparece pidiendo coima son verdaderos? Aunque parezcan muy lejanas estas posibilidades, los sistema de Inteligencia Artificial (IA) y de IA Generativa ya están entre nosotros y se aplican a más tareas de las que imaginamos, no son exclusivos de países industrializados. El año pasado hubo polémica por el caso de una persona que fue reconocida como prófugo de la Justicia por un sistema de Reconocimiento Facial en la Ciudad de Buenos Aires y, tras ser detenido varios días, se descubrió que había sido un “error del sistema”.

La Inteligencia Artificial Generativa se refiere a modelos de IA capaces no sólo de analizar grandes volúmenes de datos sino también de crear nuevas cosas: texto, imágenes o videos. Estos sistemas son capaces de “aprender” a partir de su funcionamiento. Son entrenados con cientos o miles de millones de ejemplos: textos escritos por humanos (disponibles en internet), imágenes, dibujos o fotos. Luego las combinan y modifican en forma creativa, produciendo nuevas cosas.

El ejemplo más conocido en los últimos días es Chat GPT, capaz de generar textos y conversar con el usuario. No son perfectos, pero muchos de sus textos no pueden distinguirse de los creados por personas.

Estos desarrollos pueden ser grandes herramientas que faciliten la vida de las personas, pero también generar amenazas, como las noticias falsas, con fuerte impacto en la política, o trolls capaces de colapsar sistemas de comunicaciones. También son suceptibles de cometer errores, lo cual puede ser gracioso en un meme pero en otro caso puede arruinar la vida de una o miles de personas.

Daniel Yankelevich.

Al respecto, Debates dialogó con Daniel Yankelevich, experto informático de la organización Fundar, doctorado en la Universidad de Pisa y en Carolina del Norte, EE.UU. Es además docente universitario, con trayectoria en el sector privado. Yankelevich sostiene que Argentina no puede quedar afuera del debate sobre cómo regular estos sistemas. “La IA no es solo una cuestión tecnológica: la pregunta sobre cómo estos desarrollos pueden mejorar o complicar la vida de las personas es una pregunta política”, advierte.

Yankelevich admite que esta nueva tecnología como como cualquiera de los que hemos aplicado en numerosas veces con Internet y las plataformas digitales, trae oportunidades y riesgos. “Se puede utilizar con diferentes fine. Por ejemplo, yo le puedo pedir a Chat GPT que tome una noticia reciente y me la cuente en modo de rap , pero con palabras en español antiguo y el resultado es muy sorprendente y gracioso. Uno puede imaginarse a un sistema como Chat GPT ayudando, por ejemplo, a atender los reclamos de muchas personas a resolver problemas, en lugar de tener que esperar 20 minutos en una llamada a que lo atienda un ser humano. Pero a la vez también puede usarse como para inventar noticias falsas, crear una falsa publicidad sobre un determinado tema y publicarla en redes y hacerla circular.


«Argentina necesita una Ley de protección de datos y avanzar en temas de protección digital, no podemos tener una ley obsoleta e incompleta como la actual», señala Fundar.


De hecho, explica el experto, se ha detectado el uso de GPT para hacer trabajos para revistas, tesis o proyectos para universidades, todos muy difíciles de reconocer. Algunos colegios, universidades y revistas están “prohibiendo” el uso de GPT. También hay publicidades que usan los “deep fakes” para simular voces o imágenes de personas famosas, aunque por lo general indican que son simulaciones.

En este sentido, tanto Yankelevich como Fundar señalan que en materia de protección digital, de datos y responsabilidad de las plataformas, “Argentina tiene una ley vieja, limitada e inadecuada para la situación actual. Hay una propuesta de ley para cambiarla, pero muchos actores la consideran insuficiente y frenaron su tratamiento. Argentina necesita una Ley de protección de datos y avanzar en temas de protección digital, no podemos tener una ley obsoleta e incompleta. Que no haya una propuesta perfecta no es razón para que no exista ninguna” señalan.

Los sistemas de reconocimiento facial, masivamente usados en China pero también en Argentina, generan polémica.

Pregunta: Se han planteado temas con los sistemas generadores de imágenes, que pueden hacer los deepfakes, a veces difíciles de distinguir del real. De hecho ya se han usado en campañas políticas o como forma de ataque político en algunos casos con bastante nivel de credibilidad…

Respuesta: Sí, hay algunas cosas directamente ridículas, que son graciosos como varias imágenes que circularon de Elon Musk bebé o atado en un sótano, que no son creíbles, pero la verdad es que en algunos casos, por ejemplo, incluso se utilizó para hacer vídeos de gente famosa en situaciones comprometedoras, falsas, imágenes y videos porno a los que se agrega la cara de una persona conocida. Para la persona realmente es una invasión de privación, porque es todo falso, pero la persona sobre la cual se publican esas cosas se siente invadida.

P: Desde la fundación, plantean que hay muchos países que están intentando regular este tema, que van desde la censura total a intentos de regulación mínimas. ¿Qué se está discutiendo?

R: Uno se ve muy tentado a regular el uso de esta tecnología. Ahora hay un riesgo al tratar de regular, por ejemplo las fake news o noticias falsas. Cuando yo digo están prohibidas ¿cuál es el límite? Es decir, hay algunas que son falsas muy claramente. Si uso tecnología para hacer una noticia falsa con la intención de desprestigiar a alguien, es un tema. Ahora ¿Qué pasa cuando me equivoco sin intención o cuando publico una información periodística y no puedo revelar la fuente? En algunos países con gobiernos autoritarios, esas leyes se utilizan para encarcelar periodistas o para limitar la libertad de expresión. El riesgo es muy grande. Cuando uno dice “vamos a regular fake news” y es el mismo gobierno el que define qué es falso y qué no, estás otorgando un poder muy grande de censura. Nuestra propuesta es regular algunas cosas, pero no desde el lado más naif de prohibir noticias falsas, sino desde el lado de proteger privacidad, de proteger la posibilidad de que se pueda usar esa tecnología para fines ilegales o deshonestos, y entender en qué casos no es posible regular.

P: Ustedes lo que plantean también es que se necesita regular de manera escalonada, para que haya consensos. La mayoría de los organismos que proponen regular este tipo de cosas piden que se haga por ley y con participación ciudadana.

R: Hay dos estrategias : una es ir regulando pequeñas cosas ¿no? Entonces sacamos una ley que proteja determinado tipo de datos, o que regule su uso en salud, por ejemplo. Son pequeñas leyes, el problema es que después cuando se arma un corpus legal general a veces pueden ser contradictorias. Por el otro lado muchos dicen: no, tiene que haber una ley marco, hay que discutirla mucho y será un paraguas para todo este tema. Pero eso puede demorar cinco años, y cuando sacás la ley ya cambió todo y hay otras tecnologías. Nosotros proponemos un camino intermedio: definir un objetivo, decir tenemos que llegar a esto, pero sabemos que para llegar a esto hay mucha discusión. Entonces mientras tanto, se van dando pasos y haciendo regulaciones parciales, que abren el camino para llegar a una verdadera protección de la privacidad y las personas. Es un poco lo que hizo la Unión Europea, no a propósito, pero fue el camino

P: Se habla también de una de una actitud colaborativa con las plataformas y apelar a su responsabilidad para que haya más transparencia sobre sus algoritmos y actividades.

R: Totalmente, yo creo que las grandes plataformas tienen un incentivo en ser cuidadosos, porque les produce un problema una situación de fake news, por ejemplo. Sin embargo durante muchos años las plataformas tuvieron una protección: se definió que no eran responsables por el contenido que publica la gente que forma parte. Entonces yo estoy en una plataforma o red social cualquiera, publico algo y sólo soy yo el responsable por lo que publico, salvo en casos bastante obvios: si pongo algo ilegal sobre un menor o si utilizo lenguaje de odio. Ahora, la verdad es que hoy las plataformas están en mejor condición tanto tecnológica como organizativa de curar los datos, de filtrar los datos que les llegan y tienen que participar en esta discusión. De la misma manera que esta discusión tiene que involucrar a la sociedad civil, las plataformas tienen algo para decir y yo creo que tienen también bastante interés en que algunas cosas se corrijan. En otras no, porque en otras están pudiendo decidir qué es lo que quieren hacer sin que nadie les diga nada.


“Human in the loop”: personas en el centro de las decisiones


Hoy, sistemas basado en IA hacen recomendaciones sobre libertad condicional.

En un episodio de la famosa serie “The Big Bang Theory”, que retrata en comedia la vida de científicos, el personaje de Sheldon Cooper, un físico, decide dejar de tomar decisiones “triviales” de su vida para ocupar su mente en cosas trascendentales. Y deja al azar, lanzando una moneda, sus opciones cotidianas. ¿Oficina o teletrabajo? Moneda. ¿Salir con amigos o peli en casa? Moneda. Le resulta tan cómodo que empieza a aplicar el método a situaciones cada vez más complejas, generando situaciones desopilantes.

La escena podría compararse con la aplicación de sistemas de inteligencia artificial: delegamos en algoritmos y sistema automatizados cada vez más eficientes tareas “rutinarias” y burocráticas para tener más tiempo para lo importante o creativo. Sin embargo, siempre se debe recordar que todo sistema tiene un margen de error . “Y si bien un error puede resultar hasta simpático en una foto, no es lo mismo cuando afecta a miles de personas, o la libertad o privacidad de un individuo”, advierte el doctor en Informática Daniel Yankelevich. Y señala como forma de combatir arbitrariedades el promover la transparencia y supervisión de los sistemas, para que finalmente quien tome las decisiones importantes sea un humano.

P: En los gobiernos también se usa bastante la inteligencia artificial, pero hay un tema sobre el tema del del margen de error. Recuerdo el debate que se dio el año pasado por la búsqueda de sospechosos por reconocimiento facial. Hay dudas sobre la privacidad, los derechos humanos, la posibilidad que se manipule ¿no?

R: Sí, se dio el caso de una persona reconocida por las cámaras y se trataba de un error. La policía lo detuvo, no no le dieran tiempo a nada y la cámara había tenido un error. Todos los sistemas de inteligencia artificial tienen un margen de error, eso es así, es sabido técnicamente. El problema es cuando uno lo usa en cosas que afectan mucho la vida de las personas. La verdad, un error del 10% en generar una imagen no es muy grave. Ahora, qué pasa cuando ese 10% afecta a una población de 40 millones: son 4 millones de personas que van a problemas.


Una buena política es saber por qué el sistema toma una acción y explicarla, para que un ser humano sea el responsable final. No se puede decir sin más: “el sistema lo decidió”.

Daniel Yankelevich, experto informático.

P: O cuando ese pequeño error implica que una persona perdió su libertad durante meses…

R: Si. Hay una ONG, ProPública, en Estados Unidos que hizo un estudio muy interesante sobre un sistema que se usa allí para recomendar la reducción de penas o libertad condicional para personas en prisión. Un alto porcentaje de jueces lo consultaba para tener recomendaciones en función de la historia, los antecedentes y estadísticas. Bueno, este estudio encontró un sesgo muy importante en el origen étnico-cultural y color de piel, hacía recomendaciones mucho más estrictas si la persona era afroamericana o hispana. Cuando el nivel de error es que escriben mal un texto es una cosa, pero si implica que un apersona termina en la cárcel se debería tener mucho cuidado al aplicar estas tecnologías.

P: En este caso, ¿tiene que ver solamente el margen de error o también quién es el que diseña, programa y mantiene el algoritmo?

R: Un problema con muchos sistemas de Inteligencia Artificial es que no son transparentes, no son claros y no es tan fácil explicar por qué hace lo que hace. Incluso hay una parte que se programa, pero otra que no, sino que se le dan ejemplos. Uno lo que hace es entrenar al sistema con miles de ejemplos: se le dice, estas personas con estas características tuvieron tantos años de cárcel, estas personas con estas características fueron reincidentes, entonces en función de todo esto, el programa hace un análisis estadístico y toma decisiones. En muchos casos el análisis estadístico ayuda muchísimo y permite tomar mejores decisiones, pero en otros casos no. Hay factores humanos que son mucho más difíciles de cuantificar y tener en cuenta .

P: Hay una necesidad de mayor transparencia y rendición de cuentas

R: Hace un par de años hubo otro caso en Estados Unidos, donde usaron un programa de análisis estadístico que se encuadra como Inteligencia Artificial, que hacía la evaluación de rendimiento de maestros. Este programa hacía un ranking de maestros teniendo en cuenta diferentes cosas, los puntajes que se le daban, el rendimiento de sus alumnos, una serie de factores. Bueno, en base a este sistema a una maestra no le dieron su aumento de sueldo y de hecho la terminaron echando. Esta maestría inició un juicio y una de las cosas que dijo fue: “deciden echarme, está bien, figura en el contrato, era una posibilidad, pero exijo saber por qué”. Y alega: “me dicen que fue una evaluación estadística del sistema, yo quiero que me expliquen qué es lo que hice mal” . Y el juez obligó a explicarlo, porque se podía echar a esta persona, era parte del acuerdo, pero no pueden dejarla sin trabajo sin explicarle por qué. No pueden decir “el sistema lo decidió”. Esa es una buena política. Yo necesito es saber por qué el sistema toma esa decisión y tiene que poder explicarlo, para que un ser humano sea el responsable final de la decisión ¿no? Qué es lo que ahora muchos están llamando “Human in the loop”, meter un humano en la decisión.

P: Y ¿hoy como estamos en Argentina se está debatiendo este tema? ¿hay un interés en la política?

P: Es un tema que está muy atrás, la dirigencia política lo ve como algo de baja prioridad frente a todas las crisis y problemas que tenemos. Puede ser cierto, pero creo que lo ven como algo muy del extranjero y del futuro. La verdad es que no es así, de hecho hoy se está usando inteligencia artificial acá. Hay cámaras con reconocimiento facial, hay muchos sistemas que filtran y toman decisiones en forma automática o semiautomática. Esto pasando hoy acá y si la discusión no la tenemos o no la tiene la política local, lo que va a terminar pasando es que vamos a adoptar lo que decidan otros: lo que decida otro país o una plataforma, o quien sea.


Formá parte de nuestra comunidad de lectores

Más de un siglo comprometidos con nuestra comunidad. Elegí la mejor información, análisis y entretenimiento, desde la Patagonia para todo el país.

Quiero mi suscripción

Comentarios