Opinión Debates

¿Quién controla los datos que no damos, pero se usan y nos afectan?

Plataformas, Empresas y gobiernos emplean los datos que brindamos, voluntariamente o no, para generar nueva información sobre nosotros e influir en nuestra conducta. Hay varios vacíos legales y falta conciencia, advierte la abogada especializada Margarita Trovato.

El caso es conocido en estudios sobre Internet, pero no por ello es menos ilustrativo. En 2003, un hombre llamó muy enojado a una tienda multirrubro en Minnesota, Estados Unidos, porque su hija adolescente recibió una felicitación por su embarazo y se le enviaba publicidad destinada a su bebé. Tras recibir la queja, el gerente llamó al día siguiente al enojado padre para pedirle disculpas por el “error” de su departamento de marketing y se encontró con una lacónica respuesta: en realidad quien debía disculparse era él porque su hija en realidad sí estaba embarazada, pero no lo había comunicado a nadie de su familia. El sistema de algoritmos de compras del comercio había inferido correctamente, cruzando su edad, ubicación, historial de compras y preferencias de búsquedas, que la adolescente estaba en efecto esperando un hijo e incluso qué trimestre cursaba y su probable fecha de parto.

Otro caso, ya en Argentina, fue menos anecdótico y más preocupante. En 2018, el gobierno de Salta anunció el uso de una aplicación de Microsoft para prevenir embarazos adolescentes, que prometía inferir, cinco o seis años antes, qué adolescentes (con nombre, apellido y localización) estaban en mayor riesgo de tener embarazos prematuros o no deseados. Un análisis del Laboratorio de Inteligencia Artificial Aplicada de la UBA evidenció importantes sesgos y arbitrariedades de la aplicación, en un área sensible para una población vulnerable.

Estos dos casos, entre muchos otros, formaron parte de la presentación realizada el martes pasado por la fundación Vía Libre, que busca mejorar la transparencia y la responsabilidad ciudadana en el uso de datos, denominada “¿Qué ves cuando me ves?. Construcción de datos personales sin nuestro consentimiento ni conocimiento”, en el reciente Festival de Innovación y tecnología social ( FITS) realizado en Buenos Aires.

La presentación se concentró en especial sobre este tipo de datos inferidos, es decir “datos que no son provistos ni cedidos por su titular sino creados por el responsable del tratamiento o por terceros, muchas veces sin siquiera conocimiento de aquel, pero que siguen refiriendo a un individuo identificado o identificable y que son usados como fundamento de decisiones que tienen un impacto directo en él”, señala la fundación.

Margarita Trovato, abogada especializada en derechos humanos e integrante de la fundación Vía Libre.

En el marco del auge del Big Data y los modelos de Inteligencia Artificial, estos datos han pasado a tener un rol fundamental en una economía que tiene a la información sobre las personas como insumo más importante y se usan para predecir comportamientos (por ejemplo para orientar publicidad, segmentar campañas electorales o prever potenciales conductas como evasión de impuestos). Y para tomar decisiones importantes, muchas veces con efectos legales sobre las personas. Al respecto, Debates dialogó con Margarita Trovato, una de las autoras del informe, sobre esta problemática.

Pregunta: ¿Cómo es esto de la generación de datos a partir de datos que damos nosotros?

Respuesta: Estamos todo el tiempo brindando datos, aunque a veces nos demos cuenta y otras no, e inevitablemente esos datos después se usan para tomar decisiones sobre nosotros. Desde la fundación el año pasado hicimos un informe específico sobre datos inferidos, que es el nombre que tienen técnicamente. Lo que importa es saber qué se está construyendo sobre nosotros en función de esos datos, esos rastros que dejamos. Son datos que se construyen a partir de otros. Por ejemplo cuando yo hago un consumo y paso la tarjeta de crédito, doy información de dónde estoy en cierto momento, lo mismo cuando activo la localización de una aplicación del celular. O cuando le pongo “me gusta” a algo en alguna red social, estoy dando información sobre mis intereses.

P: No siempre en forma voluntaria..

R: Hay datos personales que yo decido dar más o menos conscientemente: cuando me registro en un lugar y doy mi mail, por ejemplo, que tienen mi consentimiento para usar. Pero a partir de eso se construyen otras cosas sobre mí, que son los datos inferidos: si combinamos mis consumo de tarjeta de crédito, mi situación académica en alguna universidad, mi situación laboral, mi situación con la AFIP, mi consumo de supermercado de la semana pasada, mi ubicación según las apps del celular, a qué cosas le pongo me gusta en Facebook o Twitter, o qué compras hago online, se pueden deducir nuevos datos sobre mí. El proceso es de inducción, es suponer que como yo hago A , B y C seguramente encajo en determinado perfil, pertenezco a determinada clase social, tengo determinada preferencia política o me va a interesar consumir determinado producto. Entonces puede que me direccionen determinada publicidad o propuesta de afiliación, por ejemplo.

P: El tema es quién controla el proceso, ¿no?

R: Lo que nosotros insistimos mucho es en investigar cómo se producen esos datos, cómo se están intercambiando, quién los está juntando, quién los está cruzando en un contexto de Big Data (procesamiento masivo de datos). Sabemos que hoy la economía se basa en el movimiento y análisis de los datos, e insistimos mucho en alertar en para qué se usan. Porque, como yo no sé qué se está construyendo sobre mí yo, tampoco sé qué decisiones están tomando. Yo no sé si el banco, por ejemplo, me está ofreciendo o dejando de ofrecer una tarjeta porque supone que pertenezco a una lista de grupo de un perfil X. O si yo estoy recibiendo determinada publicidad o me están incluyendo, o excluyendo, del acceso a un crédito, a un subsidio, etc.

P: ¿Hay un vacío legal?

R: Estos datos inferidos hoy no están incluidos en la legislación, nuestras leyes no los consideran como datos personales. Si bien refieren a las personas, o sea son personales en ese sentido, no tienen mucha protección. Yo no tengo forma de saber si una empresa o si el Estado está construyendo estos datos sobre mí. Son imposibles de chequear, para ellos, y para mí saber que los tienen. Entonces tampoco puedo controlar qué decisiones sobre mí se toman y sobre qué se están fundamentando. ¿Por qué me asignan a una categoría o no? En otros países, un determinado puntaje te permite acceder a una universidad, por ejemplo, y eso puede definir tu futuro laboral o profesional.

P: Con este auge de la Inteligencia Artificial Generativa ¿eso se potencia?

R: Y sí, porque vamos dando cada vez más datos. De hecho hay una nueva modalidad del Chat GPT, que ya se implementó o se está por implementar, que permite que tenga memoria: la máquina va aprendiendo sobre mis propias preguntas, permite que me conozca un poco más y entiende lo que yo le voy a pedir. Ese es un poco el punto: en función de cosas que yo no digo expresamente, de mi consumo, mis intereses, mis patrones de movimiento, mis horarios, los grupos con los que hablo, pueden deducir mi comportamiento y por eso el hincapié está en cómo se usan esos datos. Supongamos que están producidos de una forma más o menos seria, que es otra discusión, pero ¿es correcto que se usen para dirigir publicidad?¿o que se usen para definir políticas públicas? si yo nunca los brindé expresamente.

P: ¿Qué reforma legal te parece que debiera hacerse?

R: A estos datos hoy la ley no los considera datos personales en el sentido estricto y entonces no tenemos los mismos derechos que sobre un dato personal mío que sí me reconoce la ley, o sea: acceder a ellos, a saber que tienen sobre mí, a pedir que se corrijan, a pedir que se eliminen eventualmente. En este caso, la ley nos deja mucho más desprotegidos a los ciudadanos. Se necesita urgente una reforma de la Ley 25.326 , por muchos temas, pero en este caso particular que proteja estas inferencias, que se las contemple también como lo que son: información personal, que requiere un conjunto de salvaguardas.

P: ¿Cómo está hoy la discusión en el Congreso?

R: La ley está demorada desde hace varios años y no hay vistas de que se vaya a tratar en breve. El último fue enviado por el Poder Ejecutivo el año pasado hacia mitad de año, si no me equivoco pasó a tres comisiones y quedó ahí. Todavía tiene estado parlamentario, pero nada parece indicar que haya voluntad política del Congreso de abocarse al tratamiento.

P: ¿Y qué se podría hacer desde nosotros como consumidores de esos servicios?

R: Nosotros siempre tratamos de transmitir la idea de la ciudadanía crítica. Estamos rodeados de estas tecnologías. Debemos ser conscientes de que cedemos datos que pueden ser combinados con otros y eso puede repercutir después en decisiones que se toman sobre nosotros. No para dejar de usar servicios o aplicaciones, pero sí para ser conscientes de que hay un mercado que algunos autores llaman de vigilancia en el que estamos insertos, y hoy las grandes empresas de tecnología viven del intercambio y la compraventa de datos ¿no? Hay que entender que estos datos que se van a producir sobre nosotros, muchos de los cuales ni siquiera nos vamos a enterar, seguro van a ser el fundamento de decisiones que nos afecten en la vida cotidiana No es un tema técnico, de burbuja de ingenieros que se dedican a hacer algoritmos.

P: Pensaba en la polémica que hubo también hace poco con Worldcoin, la empresa que escanea el iris y tiene como recompensa acceder a una moneda virtual

R: El caso de los datos biométricos ya es como un nivel más, porque la biometría es el dato más íntimo que tenemos y que además es inmutable a lo largo del tiempo. No hay forma de cambiarse el iris, yo no puedo decir, “ay, me hackearon me cambio el iris”. Es un peligro inminente y llama mucho la atención que no haya más conciencia sobre la violación a la privacidad y a otros derechos . Si cuesta entender la gravedad de eso, más todavía de datos inferidos como los que estamos pensando ahora, como un nivel más de abstracción. Falta un montón de generar conciencia. En otros países, por ejemplo, existe lo que se llama la explicabilidad del algoritmo: quien construye esos datos no debería poder construir nada que no pueda explicar cómo lo hizo. No debería categorizarme a mí como votante de X partido, si no puede explicarme porque lo hizo. Son como pequeños frenos y contrapesos que se podrían ir poniendo: más exigencias a quienes los producen y más exigencias que a la vez por supuesto viene con rendición de cuentas, con un control efectivo a quienes los usan.


Adherido a los criterios de
Journalism Trust Initiative
Nuestras directrices editoriales
<span>Adherido a los criterios de <br><strong>Journalism Trust Initiative</strong></span>

Formá parte de nuestra comunidad de lectores

Más de un siglo comprometidos con nuestra comunidad. Elegí la mejor información, análisis y entretenimiento, desde la Patagonia para todo el país.

Quiero mi suscripción

Comentarios


Registrate gratis

Disfrutá de nuestros contenidos y entretenimiento

Ver planes ¿Ya estás suscripto? Ingresá ahora