Exclusivo Suscriptores

“Garbage IN, Garbage OUT”

“Basura entra, basura sale” Es una expresión en informática que se relaciona con la calidad de la información que ingresan a un sistema, si la calidad no es buena, el resultado tampoco lo es.


En este contexto debemos recordar que a las máquinas les enseñamos con ejemplos y entrenamiento a los algoritmos de lo que queremos que aprendan. Cuando los datos que alimentan un sistema de IA están sesgados, es decir, reflejan prejuicios, injusticias , distorsiones o desequilibrios presentes en la sociedad, la IA también los reproduce y acaba potenciándolos.


No olvidemos que los datos que ingresan, integran el pasado , reflejan nuestra historia y pueden ser usados para predecir el futuro, si contienen sesgos, la IA los internaliza y refleja en sus decisiones, resultados o hasta predicciones de nuestras propias conductas, que pueden ser destructores, dañinos o influenciadores.


El problema, por lo tanto, no radica únicamente en el programador o en el algoritmo en sí, sino en la calidad y representatividad de los datos utilizados para entrenar el sistema. Si los datos son sesgados, la IA será sesgada, incluso si el programa en sí mismo es neutral. No se puede separar lo social de lo técnico.


Un ejemplo concreto sobre cómo los sesgos sociales pueden afectar el rendimiento de un sistema de IA, es el uso de algoritmos de riesgo de reincidencia, “COMPAS”, que se utilizan como sistemas de puntuación para predecir la probabilidad de reincidencia de un individuo y ayudar en la toma de decisiones sobre la libertad condicional o sentencia. En este caso otorgaba siempre una probabilidad más alta de cometer crímenes a los acusados negros e hispanos que a los blancos.


Estudios han demostrado que estos algoritmos, aunque diseñados para ser neutrales, a menudo reflejan los sesgos presentes en los datos utilizados para entrenarlos. Si históricamente ciertos grupos demográficos han sido más propensos a ser arrestados o condenados, los algoritmos de COMPAS pueden aprender y perpetuar esos prejuicios. Esto significa que un individuo de un grupo minoritario podría recibir una evaluación más negativa y, por lo tanto, una sentencia más severa, simplemente debido a su pertenencia a ese grupo.


Los sistemas de IA pueden reflejar y amplificar las injusticias sociales existentes, subrayando la necesidad de una mayor conciencia y acción para abordar estos problemas. Otro ejemplo más cotidiano podría ser el de los filtros de empleo en plataformas de reclutamiento en línea. Estas plataformas a menudo utilizan algoritmos de IA para filtrar automáticamente los currículums recibidos y presentar a los reclutadores una selección más manejable de candidatos. Como resultado, el algoritmo de IA puede aprender a favorecer automáticamente a los candidatos masculinos sobre las mujeres, incluso si las cualificaciones y habilidades son idénticas. Esto significa que, sin que los reclutadores lo sepan, el sistema está reproduciendo y amplificando los sesgos existentes en la sociedad y en el historial de contratación de la empresa. Ejemplo de ello, podemos mencionar el caso AMAZON. Demuestra que sistemas de IA pueden influir en decisiones importantes que afectan a las personas, como la oportunidad de empleo, y perpetuar la discriminación.


Los hombres crean a las maquinas a su imagen y semejanza, pero podemos evitar diseminar sesgos existentes si cambiamos esto. De nuevo, se destaca la importancia de la regulación, la gobernanza, la ética en el desarrollo y uso de la IA para asegurar que se tomen decisiones justas e imparciales que beneficien a toda la sociedad.


Reconocer estos problemas y abordarlos de manera proactiva, vigilando el proceso para buscar sesgos, puede ser una solución, ya que la I.A influye en la toma de decisiones, controla la visión del mundo. Existe actualmente un modelo de inteligencia artificial, denominado Theodora AI, diseñado para detectar sesgos y evaluar el riesgo reputacional de frases o lenguaje sesgados.


La regulación puede establecer estándares para la recopilación y uso de datos, así como para la transparencia y responsabilidad en el desarrollo de sistemas de IA. Una mirada ética es indispensable y es fundamental que la misma se integre desde el momento mismo del desarrollo de las tecnologías. La gobernanza puede asegurar que se tomen decisiones éticas y justas en el diseño y aplicación.


Las maquinas simplemente reproducen el mundo como es, no haremos progreso social si lo usamos así. No hay algoritmo que defina que es justo, solo nosotros podemos determinarlo. En última instancia, este es un problema social que requiere una respuesta colectiva. La construcción de una sociedad menos sesgada es crucial y requiere un esfuerzo que incluya la educación. Para ello sería importante educar a las nuevas generaciones y aprovechar el sistema educativo para que, en el futuro puedan tomar decisiones más formadas, solventes y con conocimiento.


Los desarrolladores de IA, los responsables políticos, las empresas y la sociedad en su conjunto deben trabajar juntos para garantizar que la IA se utilice de manera ética y equitativa, para el beneficio de todos. “Datos de entrada de calidad, salida de excelencia: puede ser uno de los secretos del éxito de la IA”, también vigilar a quienes nos vigilan. Necesitamos órganos de control ya que “inteligencia sin ética no es inteligencia”.


Los invito a ver “Prejuicio Cifrado” (”Coded Bias”) en Netflix, un documental impactante y revelador que aborda con claridad la influencia y las implicaciones de la inteligencia artificial en nuestra sociedad. Tomar conciencia de cómo la I.A. atraviesa nuestras vidas diarias , la importancia de su regulación y ética.

Vanesa Ruiz

Directora del Instituto de Derecho e Inteligencia Artificial del Colegio de Abogados y Procuradores de Neuquen.


“Basura entra, basura sale” Es una expresión en informática que se relaciona con la calidad de la información que ingresan a un sistema, si la calidad no es buena, el resultado tampoco lo es.

Registrate gratis

Disfrutá de nuestros contenidos y entretenimiento

Suscribite por $1500 ¿Ya estás suscripto? Ingresá ahora
Certificado según norma CWA 17493
Journalism Trust Initiative
Nuestras directrices editoriales
<span>Certificado según norma CWA 17493 <br><strong>Journalism Trust Initiative</strong></span>

Comentarios