Exclusivo Suscriptores

Inteligencia Artificial-Sophia : manipulación de vulnerabilidades y decisiones

Los sistemas de IA, tales como Sophia, deben diseñarse, elaborarse y usarse de un modo compatible con los derechos humanos, deben garantizar el respeto de la libertad y la autonomía humana, evitando subordinar, manipular, condicionar o dirigir injustificadamente a los seres humanos.

El ser humano por su propia condición es vulnerable, es un rasgo antropológico, en su sentido biológico y psíquico, una condición de fragilidad propia e intrínseca. A su vez, se presenta como una condición de vulnerabilidad socio-política, ante la pertenencia a un grupo, género, localidad, condición socio-económica, cultural, que nos convierte en vulnerables.

Según el Diccionario de la Real Academia, es vulnerable quien puede ser herido o recibir lesión, física o moralmente. Implica fragilidad, una situación de amenaza o posibilidad de sufrir daño. Ser susceptible de recibir o padecer algo malo o doloroso, ser herido física o emocionalmente. Pensemos todos los casos en que podemos ser heridos ante el conocimiento de nuestros datos con un “mal uso o uso inapropiado”.

También la vulnerabilidad puede entenderse como poder ser persuadido o tentado, no ser invencible, no tener absoluto control de la situación. Analicemos aquí, la cantidad de veces que nos vemos tentados a comprar productos o adquirir servicios que no necesitamos. Con un simple click, quedamos desnudos , nos convertimos en “ciudadanos de cristal”. Se nos influencia en nuestra propia burbuja de redes sociales, al arribarnos temáticas que nos gustan, seleccionarnos la música o series que nos interesa, todo ello al predecir, con simples algoritmos nuestra conducta, para seguir en pantalla.

Se perfila el comportamiento humano hasta guiar nuestras propias acciones, como podría ser, a quien votar. La inteligencia artificial influye en la voluntad de las personas, acelera la manipulación de mercado. En ocasiones suele ser muy sutil, sucede sin darnos cuenta, cuando somos conscientes de ella ya hemos modificado nuestro comportamiento.

Este cumulo de datos que poseen las distintas empresas sirven para alimentar a la gran BigData. Se recogen los datos, se analizan, segmenta la audiencia, y a través del aprendizaje automático y los algoritmos de recomendación se identifican y explotan las vulnerabilidades, se caracterizan los perfiles, con el fin de persuadir o manipular a las personas hacia ciertos comportamientos, creencias o acciones, una evidente manipulación comportamental, todo ello ¿nos hace más vulnerables? ¿cómo nos protegemos?

Estamos expuestos a nuevas contingencias y tensiones, se generan dificultades para enfrentarlas. Aparece un nuevo elemento externo de riesgo, los sistemas con aplicación de I.A., tales como Sophia, con conocimiento de nuestros datos, intereses, gustos, debilidades, y a ello se añade un elemento propio interno, la indefensión propia del ser humano, porque todos, en mayor o menor medida somos vulnerables.

Se invade la intimidad, sin que, en verdad, seamos conscientes de ello. ¿Cómo contenemos esos riesgos, cómo obtenemos recursos necesarios para enfrentarnos a dichas situaciones? Liberarse de la capacidad de acción de quien trata de manipularnos, tener el control de nuestras propias decisiones. La vulnerabilidad podría reducirse, por medio de una protección equitativa de todos los miembros de la sociedad, bajo un principio de justicia. Ahora bien, existen en nuestro Estado el reconocimiento de tales derechos, como el de autonomía, el de respeto a la vulnerabilidad y fragilidad humana. Por lo tanto, sólo puede ser reducido o neutralizado con medidas especialmente diseñadas contra esa necesidad específica, que se apliquen de modo activo.

Los sistemas de IA, tales como Sophia, deben diseñarse, elaborarse y usarse de un modo compatible con los derechos humanos, deben garantizar el respeto de la libertad y la autonomía humana, evitando subordinar, manipular, condicionar o dirigir injustificadamente a los seres humanos. Deberían operar como un complemento que potencie las capacidades y aptitudes cognitivas, sociales y culturales, lo que exige una supervisión humana constante de la protección de los derechos, un sistema de gobernanza, la provisión de garantías legales para asegurar la calidad de vida de individuos y grupos. Crear un marco regulatorio dirigido a asegurar que esta tecnología sea segura y contribuya al bienestar general de la sociedad, y especialmente, a evitar los efectos no deseados que su uso creciente puede provocar en la dignidad humana, la autonomía y la autodeterminación de las personas. Encuadrarla en el marco del Estado constitucional de derecho, nos obliga a indagar, entre muchos otros temas relevantes cuando de IA y Derecho se trata.

*Directora del Instituto de Derecho e inteligencia artificial del CAYPNqn


El ser humano por su propia condición es vulnerable, es un rasgo antropológico, en su sentido biológico y psíquico, una condición de fragilidad propia e intrínseca. A su vez, se presenta como una condición de vulnerabilidad socio-política, ante la pertenencia a un grupo, género, localidad, condición socio-económica, cultural, que nos convierte en vulnerables.

Registrate gratis

Disfrutá de nuestros contenidos y entretenimiento

Suscribite por $3000 ¿Ya estás suscripto? Ingresá ahora
Certificado según norma CWA 17493
Journalism Trust Initiative
Nuestras directrices editoriales
<span>Certificado según norma CWA 17493 <br><strong>Journalism Trust Initiative</strong></span>

Comentarios