Un arma peligrosa para la desinformación: la inteligencia artificial

Mediante un experimento, un divulgador de IA mostró en Twitter como se puede crear una fake news en menos de 10 minutos gracias a estas herramientas. La importancia del chequeo.

La aparición de plataformas para utilizar inteligencia artificial sin necesidad de conocimientos previos supuso, en estos últimos meses, un giro enorme para los usuarios de internet. Más que nunca, tenemos todo al alcance de un click, de un texto mínimo, de una premisa que sirva para crear cientos de alternativas distintas en cuestión de segundos. Y esa vorágine implica un gran riesgo.


ChatGPT, Dall-E, Midjourney, Stable y demás programas de IA permiten, en un instante, generar algo “original” donde antes no había nada. Y es importante resaltar que esto funciona sin requisitos previos. No es necesario aprender programación, saber escribir códigos o tomar un curso. Basta con ingresar a estos programas, que muchas veces están al alcance de la mano en un sitio web, y formular claramente lo que queremos. Y voilá, ahí estará, casi como si de un genio de la lámpara se tratara. Esto sería una gran noticia si solo empleáramos estas herramientas con buenas intenciones, pero estamos en la vida real, y las cosas no siempre funcionan así.

La primera advertencia fueron los bromistas. Reemplazaban caras en videos, mandaban mensajes falsos, publicaban fake news… Todo bajo la excusa de divertirse. Primer strike: cuidado, porque es muy fácil inventar algo con la inteligencia artificial.

Rápidamente aparecieron los estafadores. Internet es territorio prolífero para esta gente, que vio la posibilidad de robar datos y hackear sistemas y no dudó un segundo. Y esa fue la segunda advertencia: cuidado, porque es muy fácil hacer daño con la inteligencia artificial.

El arte se vio afectada rápidamente. Cuadros hechos por supuestos pintores que, en realidad, terminaban siendo un algoritmo. Canciones, poemas, novelas, cuentos, miles de creaciones en cuestión de segundos con solo pedírselo al ChatGPT. Fue la tercera advertencia: cuidado, porque es muy fácil engañar con la inteligencia artificial.


Vimos las advertencias. Pero, en el furor de querer conocer más sobre la IA y de no “quedar afuera” dimos a esta herramienta un lugar preponderante en el mundo tecnológico actual. Y ahora estamos en riesgo, porque podemos pagarlo muy caro. Es que, en cuestión de segundos, podemos crear una noticia falsa que se propague rápidamente.

Carlos Santana, divulgador de Inteligencia Artificial, compartió en su cuenta de Twitter (@DotCSV) un experimento que demostró los peligros de esta herramienta en manos equivocadas. Allí cargó una foto de un portal de noticias que muestra una nota con el título “El sorprendente beso de Donald Trump y Barack Obama”, y una foto donde los dos ex presidentes están besándose. Y acotó “he tardado 10 minutos en hacerlo”. El proceso fue simple: pidió a Midjourney que armara la foto, que salió con un gran realismo. Luego pasó a ChatGPT, le copió la URL de la imagen y le pidió programar un portal de noticias. Ante un primer resultado básico, le pidió a ChatGPT algo “más profesional” y el sistema respondió. Y así logró una fake news en 10 minutos.

Pablo Fernández compartió en Chequeado una opinión interesante, en la que afirmó que “en la lucha contra la desinformación, testear las nuevas herramientas de inteligencia artificial como ChatGPT […] nos genera mucha preocupación”.

En este sentido, Fernández hace una aclaración pertinente: “Esta preocupación se genera incluso cuando la inteligencia artificial nos ayuda a chequear más rápido y mejor desde hace años, en nuestro caso con Chequeabot desde 2016. Es decir, no es un rechazo intrínseco a la tecnología per se, ya que muchas veces es nuestra aliada, sino una preocupación basada en lo que sabemos que es capaz de hacer este tipo de sistemas y la baja prioridad que parece tener la problemática de la desinformación en la agenda de sus desarrolladores”.


Eric Baradat, de la Agencia France-Presse (AFP), afirmó que “con toda esta locura en torno al ChatGPT nos olvidamos de que la IA no es suficientemente fiable, que necesita ser validada, verificada por periodistas”. Y es una buena aclaración.

Las herramientas para chequear si estamos frente a un caso de desinformación parecen ser más importantes que nunca. Será nuestra misión que el periodismo no sufra ante la inteligencia artificial como ya lo hicieron muchos otros ámbitos.

El peligro de la desinformación es real. Y debemos estar cada vez más alertas.


Inteligencia artificial: la importancia de la regulación



Mira Muratti, una de las creadoras de ChatGPT (impulsado por OpenAI) habló con la revista TIME y, al ser consultada sobre la regulación de estos programas de IA, afirmó que “No es demasiado pronto para que se involucren reguladores. Dado el impacto que van a tener estas tecnologías es muy importante que todos comiencen a involucrarse”.

No solo eso: la referente tecnológica también se preguntó “¿Cómo se gobierna el uso de inteligencia artificial de una manera que esté alineada con los valores humanos?”.


El miedo ante los reemplazos por la inteligencia artificial



En Alemania, el grupo de medios de comunicación Axel Springer anunció a finales de febrero despidos en dos de sus periódicos, el tabloide Bild y Die Welt. “La inteligencia artificial revolucionará el periodismo y la industria de los medios de comunicación, apoyando o sustituyendo al periodista”, afirmó el dirigente del grupo Mathias Döpfner, en un correo enviado a todos los trabajadores.

Otros periódicos, como el Guardian británico, ya han publicado artículos escritos totalmente por ChatGPT.

En opinión de Döpfner, “la creación periodística”, como los reportajes, la búsqueda de información o los editoriales seguirán siendo asunto de periodistas, mientras que todas aquellas tareas que impliquen menos valor añadido serán cada vez más automatizadas.

En consecuencia habrá una “reducción significativa” de puestos como “compaginación”, “corrección” o “administración”.

Los periodistas “están obsesionados con el síndrome del gran reemplazo tecnológico, pero no creo que vaya a suceder”, estima Jean Rognetta, periodista francés. “Por si solos los robots no pueden producir artículos. Una gran parte del trabajo periodístico no puede ser delegado”, asegura.


Adherido a los criterios de
Journalism Trust Initiative
Nuestras directrices editoriales
<span>Adherido a los criterios de <br><strong>Journalism Trust Initiative</strong></span>

Formá parte de nuestra comunidad de lectores

Más de un siglo comprometidos con nuestra comunidad. Elegí la mejor información, análisis y entretenimiento, desde la Patagonia para todo el país.

Quiero mi suscripción

Comentarios