Facebook, ante un boomerang de odio

El algoritmo de la red social de Mark Zuckerberg, que facilita la propagación de mensajes de odio, se está volviendo en contra de la empresa. ¿Por qué no se deciden a modificarlo? ¿En qué situación se encuentra el gigante de las redes sociales?

El algoritmo que facilita la circulación de discursos de odio se está convirtiendo en un boomerang para Facebook e Instagram, pero algunas denuncias indican que no se deciden a modificarlo porque el mecanismo genera interacciones, aunque contradiga el objetivo de crear una red “significativa y saludable”, afirmó Ezequiel Ipar, director del Laboratorio de Estudios sobre Democracia y Autoritarismo (LEDA).


Los textos que promueven discursos de odio al parecer se profundizaron con la modificación del algoritmo de Facebook, el verdadero gestor de la interacción entre sus usuarios. El tema tomó más fuerza cuando la exempleada Frances Haugen pidió regular al gigante de las redes sociales al que acusó ante legisladores de los EE. UU. de “financiar sus ganancias” con la seguridad de los usuarios.

En el LEDA, de la Universidad Nacional de San Martín con investigadores del Conicet, Ipar y su equipo investigan estas redes y las consecuencias de la aplicación de este algoritmo.

Haugen dijo que Facebook “puede dar cuenta y reconocer entre el 3 y el 5% de los discursos de odio de los mensajes de los 3.000 millones de usuarios”. Pero parece que los controles funcionan en 50 lenguas, y Facebook tiene usuarios en 5.500. Es decir, que “5.450 viven en un far west digital”, sentenció Ipar.

En noviembre de 2019, la BBC reprodujo el testimonio del atleta etíope Haile Gebrselassie, quien denunció a Facebook como responsable de la matanza de 78 personas debido a “la distribución de noticias falsas”, explicó. “Comenzaron a buscar por dónde se había generado el discurso de odio, y descubrieron que fue a través de Facebook”, explicó a Télam el investigador. Pero la forma en la que Facebook trató “de resolver estos problemas, los terminó agudizando”. A continuación, pasajes de la entrevista de Télam a Ipar.

El algoritmo de Facebook suele ponderar lo significativo por sobre lo saludable, con tal de generar mayor tráfico.


P – ¿Cuál es el objetivo del algoritmo de Facebook?
R –
Vincular a las personas y saber lo que a un usuario puede despertarle interés, en qué pondrá su atención. Por eso, se dice que Facebook domina la atención de los individuos. Es lo que busca el algoritmo: llamar tu atención, y relacionar a los usuarios.

P – ¿Cómo asocia esa función del algoritmo con la difusión de los discursos de odio?
R –
Cuando empezaron a decaer las interacciones entre individuos, en 2017/18, Facebook rediseñó su algoritmo para, dijeron, que los usuarios tuvieran “una experiencia más saludable y significativa”. Lo que mostrarían de modo privilegiado ya no sería publicidad, sino lo que a tus amigos les resultara interesante para promover más “likes”, compartir más contenidos o incrementar el tráfico de comentarios. Así fue que detectaron que empezaron a destacarse los discursos que incitaban al odio en las interacciones. El algoritmo facilita la circulación de mensajes, y los discursos de odio produjeron más interacciones en la red. Entre lo más saludable y lo más significativo, el algoritmo promueve lo significativo para generar mayor tráfico.

P – ¿Por qué Facebook no modifica su algoritmo?
R –
Porque verificaron que lo que más repotencia la circulación de los mensajes es, justamente, los mensajes con connotaciones de discurso de odio.


P – ¿Y qué hacen sabiendo que facilitan ese tipo de mensajes?
R –
Estamos justo en ese momento. Haugen se dio cuenta de que en Facebook sabían lo que estaban movilizando con su algoritmo, y también que estaban dispuestos a no hacer nada para modificarlo. Ahora hay una respuesta curiosa desde Facebook porque empiezan a sugerir la necesidad de cierta regulación estatal dado que entendieron que hay algo del propio espacio digital, que ellos crearon, que está intrínsecamente descontrolado y que puede empezar a afectar a la plataforma y a su negocio. Creo que se dieron cuenta de que también existe el riesgo de que un buen porcentaje de sus usuarios se retiren de las redes por esa distribución de discursos de odio y violencia. Ellos mismos están sugiriendo que se requiere algún tipo de evaluación y supervisión, saber qué está pasando en la red, y una regulación externa.

P – Pero no están permitiendo esa ventana de observación.
R –
Todavía no, y ese es el conflicto en el que estamos ahora. Por un lado, hasta dónde Facebook hará públicas las informaciones de las que dispone, y hasta qué punto están dispuestos a intervenir en la red como lo sugieren sus propios estudios. Esos documentos demuestran que hay profesionales que ya tienen alternativas para modificar la circulación de los discursos de odio, pero son cambios estructurales que pueden poner en juego una parte del negocio. Uno de sus equipos sugirió quitar la posibilidad de compartir contenidos maliciosos. Parece que lo probaron y funcionó, pero decidieron no adoptarlo. La crónica dice que ese documento interno llegó a las máximas autoridades de la empresa y la respuesta fue que era muy buena solución, pero que van a dejarla como una alternativa de emergencia. Imagino que se niegan a cambiarlo porque creen que la violencia y el discurso de odio son un problema social que se expresa en la red social, pero no es un problema de la red social en sí misma.

Por Guillermo Lipis; Télam.-


Millenials y mayores de 75, los “propagadores”



Las generaciones Millenials y la “Silenciosa”, como se dio en llamar a los mayores de 75 años, son las que mayor cantidad de discursos de odio recirculan en las redes sociales, según la investigación del LEDA.

Desde el Laboratorio de Estudios sobre Democracia y Autoritarismo investigaron indicadores sobre el discurso de odio (DDO) en la esfera digital argentina a partir de una investigación sobre 3.140 casos relevados en mayores de 16 años, entre el 27/11/2020 y el 3/02/2021.

Zuckerberg, contra las cuerdas. Su red social está cada vez más bajo los reflectores.


Entre los datos más significativos de la investigación se destacó que el índice DDO se construyó a partir de tres discursos circulantes: uno racista con connotaciones segregacionistas muy fuertes, otro crítico de las posiciones ideológicas que discriminan al colectivo LGBTIQ+ y un tercero, deshumanizador hacia los extranjeros.

Respecto a la variable edad, detectaron y calificaron de “llamativo” que los Millenials (24-40 años) son los que registran mayores grados de acuerdo y disposición a emitir o replicar discursos de odio, con un 31,1 por ciento, y que en un 51 por ciento los desaprueben. La Generación X (41 a 55 años) la aprueban en un 25,5 por ciento de los casos consultados, y desaprueban en un 55,3 por ciento. Las puntas de aprobación y desaprobación las detenta la generación de los Baby Boomers (56 a 74 años), con un 19,6 y 64,3%.

El índice de DDO por nivel educativo reveló que el 30,1 por ciento de la población con secundario incompleto es la que más aprueba o utiliza el discurso de odio, mientras la que más lo rechaza, un 68,2%, es la que tiene formación de posgrado completo.


Adherido a los criterios de
Journalism Trust Initiative
<span>Adherido a los criterios de <br><strong>Journalism Trust Initiative</strong></span>

Nuestras directrices editoriales

Formá parte de nuestra comunidad de lectores

Más de un siglo comprometidos con nuestra comunidad. Elegí la mejor información, análisis y entretenimiento, desde la Patagonia para todo el país.

Quiero mi suscripción

Comentarios