Eternamente ilesas: ¿se puede combatir a las redes?

Aunque el contexto actual no parece ser el más favorable para las plataformas sociales, continúan escapando a la responsabilidad por los daños que causan en sus usuarios. El periodista, docente e investigador Fabián Bergero analiza la situación global.

Las redes sociales atraviesan su peor crisis en muchos años. Y está bien que así sea. Está bien que, después de tanta impunidad, esta vez el foco se pose sobre las plataformas.


Así como en una época era común escuchar que “no todo lo que vemos en Internet es cierto”, hoy predomina el click, la urgencia. Si está en redes se comparte, y después se chequea. Si me lo acerca la red, “debe ser por algo”. Y así avanzamos, metiéndonos de lleno en un espiral de fake news, desinformación y contenido dañino. Y mientras más usamos las redes, más se profundiza este tipo de contenidos.

Para entender cómo combatir este espiral, RÍO NEGRO dialogó con Fabián Bergero, periodista, docente e investigador en Periodismo Digital por la Universidad Nacional del Comahue.

P – Las redes sociales están cada vez más acorraladas por las críticas a sus algoritmos y la difusión de contenidos dañinos. Teniendo en cuenta tu rol docente en el ámbito de la comunicación, ¿te preocupa el hecho de que sigan saliendo impunes?
R –
Si, obviamente. Molesta mucho que, en el caso de Facebook, permanentemente se está arrepintiendo de sus actos ilegales o inmorales, pero sistemáticamente los vuelve a cometer. Y como la enorme mayoría de los Estados no le pone limitaciones, permiten que Facebook siga haciendo lo que quiere. Cambios radicales en la política no ha tenido. Entonces sí, preocupa, porque ¿cuál es la responsabilidad que tienen los Estados en la regulación de las redes? ¿Hasta dónde se permite que la decisión sobre qué se publica -o no- parta de una empresa privada y no de una legislación nacional o supranacional? Porque por ejemplo, el pacto de San José de Costa Rica, que determina los alcances de la libertad de expresión y el derecho a la información, es continental. Y Facebook está por encima de eso, se considera mundial. Preocupa que los Estados no tengan un lugar más fuerte o se puedan organizar para regular el funcionamiento de las redes en la región.


P – ¿Es muy utópico pensar en un universo cercano donde prime el bienestar de los usuarios y no el interés de estas empresas?
R –
No se va a poder llegar a descular como funcionan los algoritmos, pero sí creo que se pueden poner condiciones. No lo veo como algo muy cercano, pero sí me parece que filtraciones como las ocurridas con Facebook semanas atrás son muy fuertes, porque las revelaciones que se dieron a conocer afectan bastante a la red social. Ahí es donde creo que los Estados se van a animar a hacer algo más. Facebook está convencido de lo que hace, y hoy contraatacan con una nueva estrategia, mucho más global, como si duplicara la apuesta.

P – Uno de los alegatos de Frances Haugen, exempleada de Facebook, destacaba que el algoritmo prioriza un contenido cada vez más extremo en función del interés del usuario. ¿Hay una solución a esta vorágine?
R –
Están completamente demostrados los daños y trastornos que puede causar el universo de las redes. Hay una ONG que se llama “Mujeres que no son tapa”, y hace poco escuché en un podcast que hay niñas que van a ver a cirujanos plásticos con las fotos con filtros de Instagram, por ejemplo. Entonces, me parece que hay una batería de posibles medidas que se pueden ir tomando, como limitar la cantidad de filtros o prohibirlos. Esta barbaridad que se encontró, la intención de tener un Instagram Kids, estas cosas pueden ser reguladas. Hay muchísimos aspectos donde se pueden trabajar. Pero la comunidad por sí sola no puede. Hace mucho tiempo que hay esfuerzos completamente invisibles de organizaciones y grupos de personas que vienen litigando contra Facebook. Y los resultados son los de siempre: piden perdón, si la presión es fuerte van al Congreso de EE. UU; dicen que esto no va a volver a pasar, pagan una multa… y vuelve a pasar. Por eso creo que los Estados y los Gobiernos deben tener un papel mucho más fuerte. No dejo de verlo por ese lado, creo que la única forma de enfrentar a gigantes así es con una organización sólida. Y también me parecen interesantes las investigaciones, acá entra el rol que tenemos Universidades, grupos de estudio e investigación, que puedan dar cuenta de esto que Facebook hace por su lado. Lo revelan los documentos filtrados: Facebook tiene sus propios estudios sobre los daños que causa, tendencias al suicidio, espirales descendentes… Y que estos estudios se puedan hacer desde otros lugares es importante.


P – Volviendo a tu rol como docente de comunicación, ¿qué herramientas se pueden brindar a futuros comunicadores para que eviten caer en lo relativo a las fake news o la desinformación?
R –
La herramienta fundamental es el periodismo. El único modo de combatir esto es haciendo periodismo. ¿Cómo se hace? Si tengo información, salgo y chequeo con una, dos, tres fuentes. Y cuando tengo la confirmación de que esto es así, lo doy a conocer. Y en las redes, lo mismo. Hoy cada vez más el periodista es el medio, entonces hay que tener una conciencia fuerte del chequeo, del contraste de información y de la responsabilidad a la hora de informar.


La importancia de alentar los estudios



Bergero, que recientemente lanzó un libro titulado “Nuevas narrativas en periodismo” junto al equipo de investigación de Periodismo Digital de la UNComa, analizó un caso ejemplar de los estudios y cómo Facebook suele salir ileso de cualquier juicio.

“En 2018, la Web Foundation hizo un estudio en Argentina para determinar el sesgo que Facebook tiene en Argentina, llamado ‘La mano invisible’. Ahí, creando 6 perfiles imaginarios de mujeres, demostraron que de todas las noticias de los medios a los que se suscribían, llegaban únicamente un 18%. O sea, el algoritmo filtraba un 82% del contenido, pero lo que filtraban era distinto para todos. Es un estudio poderoso, hecho por la fundación del mismísimo creador de la web. Y ni siquiera eso le pudo poner un coto a Facebook”, explicó.

“El problema no es el algoritmo, un algoritmo no es una mala palabra. Un algoritmo puede facilitar la vida de la gente y traer soluciones. Durante la pandemia, proporcionaron información relevante para la cura. O es el que sintoniza con tu gusto musical en Spotify. El problema es que el algoritmo de las redes tiene un sesgo muy fuerte. Si buscás ‘manos’ en Google te van a aparecer manos blancas y jóvenes, nunca negras y viejas, por ejemplo. Ese sesgo es fuerte, y hay que trabajar en eso, en saber qué hay adentro del algoritmo y descularlo”, cerró.


Adherido a los criterios de
Journalism Trust Initiative
<span>Adherido a los criterios de <br><strong>Journalism Trust Initiative</strong></span>

Nuestras directrices editoriales

Formá parte de nuestra comunidad de lectores

Más de un siglo comprometidos con nuestra comunidad. Elegí la mejor información, análisis y entretenimiento, desde la Patagonia para todo el país.

Quiero mi suscripción

Comentarios