Red flag: antropomorfismo, otra IA con rostro de mujer

En Albania, una IA fue designada ministra. Gobiernos, empresas o sistemas educativos pueden usar IA antropomorfizada para inspirar confianza, obediencia o simpatía, sin transparencia real sobre sus límites y riesgos.

En septiembre de 2025, el primer ministro de Albania, Edi Rama, anunció la incorporación de una IA llamada “Diella” como “ministra” orientada a contrataciones públicas y anticorrupción. Primer “miembro de gabinete” virtual a nivel mundial, con un rol declarado: gestionar y adjudicar licitaciones para eliminar discrecionalidad humana y sesgos. No como asesora técnica, ni como sistema auxiliar, sino como ministra. Con nombre, rostro, atuendo tradicional albanés, voz femenina firme y cálida.

Ahora bien, el arte de vestir a la IA con ropaje humano, no es novedad. En Arabia Saudita, fue Sophia: una robot humanoide que recibió “ciudadanía” simbólica. En Japón, un chatbot llamado Shibuya Mirai fue declarado “residente” de un distrito. En China, una IA llamada Tang Yu fue nombrada CEO de una empresa de tecnología. En Rumania, ION, un sistema de IA, asesora al primer ministro como si fuera la voz del pueblo. Incluso se viralizó un robot con apariencia femenina que podría gestar bebés.

Este fenómeno tiene nombre: antropomorfismo. Es la tendencia a atribuir cualidades humanas a entidades no humanas. De forma visual; con un rostro amable, un nombre femenino como Diella («sol» en albanés); verbal, al decir que la IA «piensa» o «decide»; y funcional, al creer que «actúa con juicio propio».

Un sistema automatizado


Un nombre cálido humaniza. Un rostro femenino genera confianza. La vestimenta tradicional apela a la identidad cultural y familiaridad visual. Un cargo oficial sugiere poder legítimo. Pero detrás de todo esto no hay una persona humana. Hay un programa. Un sistema automatizado. Una caja negra digital que ejecuta reglas predefinidas… por humanos “invisibles”. El antropomorfismo en IA no es solo una estética: es una estrategia de diseño con profundas implicancias psicológicas, legales y políticas.

Puede generar confusión sobre su capacidad real, sobreestimar lo que la IA puede hacer. Por ejemplo, creer que una IA puede «decidir» moralmente, cuando en realidad solo sigue patrones de datos y reglas predefinidas. Conferirle una legitimidad indebida y provocar una desresponsabilización humana, cuando decimos «la IA lo eligió», corremos el riesgo de ocultar a los humanos responsables detrás.

¿Por qué una mujer?


Y surge otra pregunta: ¿por qué una mujer?, ¿coincidencia o conveniencia?. No es casual que la mayoría de las IAs presentadas con funciones públicas sean mujeres. Sophia, Tang Yu, Diella. Alexa, Siri, Cortana. Incluso el robot que «gesta» tiene cuerpo femenino. Las voces femeninas son más confiables, según los estudios de experiencia de usuario.

Se asocia a la mujer con la moral, el servicio, la limpieza,  el cuidado. Se busca una feminidad sumisa y eficiente: que escuche, que sirva, que funcione. Pero que no cuestione, no pida derechos, no haga política.

Reforzar estereotipos


Diella no reemplaza a una ministra mujer. Simula lo que los sistemas políticos aún no están dispuestos a permitir: mujeres reales con poder real. No representa avances en igualdad, sino nuevas formas de estereotipar el rol femenino, una regresión política profundamente disfrazada de innovación tecnológica.

¿Estamos siendo engañados? ¿O solo seducidos? Gobiernos, empresas o sistemas educativos pueden usar IA antropomorfizada para inspirar confianza, obediencia o simpatía, sin transparencia real sobre sus límites y riesgos.

Los riesgos


Humanizar a la IA puede hacer que olvidemos sus riesgos: sesgos algorítmicos sistémicos ante la discriminación oculta, una «caja negra» administrativa en que nadie sabe exactamente cómo decide por la opacidad de su configuración y criterios.

Ausencia de rendición de cuentas democrática, lo que en decisiones públicas, puede ser peligroso. Ni que hablar de la vulnerabilidad concentrada: un ataque informático o un error de programación puede afectar todo el sistema de contrataciones.

Y en cuanto a la responsabilidad, una ministra humana puede ser interpelada, removida, procesada. ¿Y una IA? ¿Quién responde si Diella se equivoca? ¿Quién da la cara?

La supervisión humana


Por eso las cosas deberían ser y decirse  por su nombre, por ejemplo, en Ucrania se aplica una herramienta de I.A con idéntico fin que “Diella” , llamado ProZorro.

Una plataforma de e‑procurement abierta, con trazabilidad y datos abiertos, usada para reducir corrupción y ahorrar costos relevantes, un sistema híbrido de contratación pública electrónica. Pero sin humanizar.

Por ello, es posible implementar una I.A., sea una IA-asistente o agentica, pero con firma y supervisión humana responsable, mecanismos de datos abiertos, reglas claras, con auditoría algorítmica, registro público de modelos y criterios, evaluación de impacto, y controles parlamentarios/ciudadanos de alto estándar.

Más sólidos que «ministros de IA» para integridad pública, cumpliendo estándares internacionales de transparencia, supervisión y no manipulación. Cuando la inteligencia artificial se viste como nosotros, no la volvemos humana, nos volvemos más vulnerables.

(*) Directora del Instituto de Derecho e Inteligencia Artificial del Colegio de Abogados y Procuradores de Neuquén.


En septiembre de 2025, el primer ministro de Albania, Edi Rama, anunció la incorporación de una IA llamada “Diella” como “ministra” orientada a contrataciones públicas y anticorrupción. Primer “miembro de gabinete” virtual a nivel mundial, con un rol declarado: gestionar y adjudicar licitaciones para eliminar discrecionalidad humana y sesgos. No como asesora técnica, ni como sistema auxiliar, sino como ministra. Con nombre, rostro, atuendo tradicional albanés, voz femenina firme y cálida.

Registrate gratis

Disfrutá de nuestros contenidos y entretenimiento

Suscribite por $1500 ¿Ya estás suscripto? Ingresá ahora