Sophia y el elefante en la habitación: sesgo ideológico

Por Tomás L. Ruiz Domeño

Un estudio publicado el pasado agosto por la universidad británica de East Anglia en la revista Public Choice, confirma un gran elefante en la habitación que, aquellos quienes hayan interactuado alguna vez con grandes modelos de lenguaje (o LLM), como el ya familiar ChatGPT, habrán probablemente notado: sus generaciones presentan una marcada y sistemática inclinación ideológica.

El trabajo conducido por la institución sajona, coordinando la tarea de investigadores del Reino Unido, los EE.UU. y Brasil, concluyó que el modelo favorece, inequívoca y reiteradamente, las posturas de los izquierdistas partidos Laborista, Demócrata y el PT de Luiz Inácio Lula da Silva, respectivamente.

Puede uno corroborarlo con facilidad: Consultado por cuestiones de religión, ambientalismo, igualdad de género, divergencias culturales, inmigración, política social redistributiva, regulación de sistemas financieros, rol de empresas multinacionales y organismos multilaterales, o de un extensísimo listado de etcéteras de diversa escala y complejidad, las respuestas del modelo se ven marcadas por un claro patrón de inclinaciones ideológicas. Se trata de un verdadero sesgo cognitivo que desvía la neutralidad que cabría esperarse -preconcepciones que afectan, en alguna forma u otra, la calidad de las  respuestas obtenidas por el usuario. 

Curiosamente, aquello pareciera indicar que las máquinas han conseguido replicar hasta nuestros más humanos caracteres -como lo era, hasta ahora, la subjetividad.  En cualquier caso, independientemente de coincidir o no el usuario con la postura tomada por la IA, algo podemos sacar en limpio: ChatGPT, en su actual estado de desarrollo, no supone una fuente neutral de información respecto de una serie de temáticas puntuales -muy por el contrario- deliberadas, o no, sus generaciones o respuetsas están cargadas de pre concepciones ideológicas. 

Desde la contaminación cruzada en los procesos de formación de voluntad electoral, provocada por el incesante bombardeo de noticias parciales, sesgadas, o falsas; hasta el impacto de esta “información” tintada de los mismos vicios en la construcción y aplicación de los sistemas normativos y disposiciones legales. No debe recaerse en el error de subestimar la potencia de estas herramientas como fuente “productora” de información y análisis -especialmente, combinadas con la exponencial velocidad de propagación e instantaneidad de acceso a la información que ofrece internet (v. gr. redes sociales, servicios de mensajería, o medios digitales de comunicación). 

Si a todo ello añadimos el agravante de que, las generaciones que entrega ChatGPT se vuelcan a la web y funcionan, circularmente, como la fuente que luego utiliza el modelo para entrenarse, pues nos enfrentamos a un ouróboros de información (o, serpiente que se come su propia cola). Este fenómeno termina suprimiendo de la discusión a un entero sector del espectro ideológico y la herramienta se vuelve incapaz de moverse de este eje ideológico. Ni más ni menos, la evolución del clásico sesgo de confirmación a una inédita escala, en casi todo sentido.

Entonces, ¿Qué medidas tomamos frente a las imperfecciones de estas herramientas? ¿Atinamos a regularlas para que arrojen frente a la interacción con el usuario una respuesta objetiva (o, al menos, neutral)? Argumentar que aquello sería complejo implica una grosera simplificación. 

Teniendo en cuentas estas advertencias y la incógnita planteada, toca por ahora sacar el mejor partido posible a la herramienta, teniendo presente que su uso no nos garantiza necesariamente una generación ideológicamente neutra. Y los operadores del derecho, por su parte, tomar todos los recaudos para alertar y morigerar estas inclinaciones, por los peligros que puedan traer aparejadas.

Miembro del Instituto de Derecho e Inteligencia Artificial del Colegio de Abogados de Neuquén, dirigido por Vanesa Ruiz.


Exit mobile version