La desinformación está inevitablemente interconectada con los algoritmos, esas cajas negras misteriosas que guían toda nuestras actividades en redes sociales (muchas veces sin que nosotros mismos comprendamos cómo lo hacen). Los algoritmos no son exclusivos de la computación, uno utiliza algoritmos en la vida cotidiana: recetas de cocina son algoritmos, ecuaciones matemáticas, GPS o manuales de reparación de electrodomésticos. En su núcleo un algoritmo es una serie de pasos que se activa de acuerdo a las condiciones que se presentan: si A entonces B. Entonces, si son una serie de pasos que se desarrollan predeterminadamente según las acciones que toma el usuario, ¿por qué están tan asociados a la desinformación en redes sociales?

Cuando uno entra a su feed de Instagram o TikTok se le presenta una cantidad (que parece infinita) de contenido seleccionado por el algoritmo utilizando misteriosas fórmulas computaciones que se resumen de la siguiente forma: ¿qué contenido es más probable que consiga que este usuario pase más tiempo en esta aplicación? Si sos una persona que sigue e interactúa con temáticas de moda, sería poco beneficioso que te recomiende videos de reparación de autos; y viceversa. La red social utiliza su algoritmo para observar las interacciones del usuario con el contenido (likes, comentarios, tiempo viendo una publicación, cuentas que visita, hashtags o temáticas que sigue, palabras que busca, etc.) y utiliza toda esa data para recomendar contenido similar que consiga que el usuario pase aún más tiempo en la app.

Esta experiencia personalizada en las redes sociales no es negativa en sí misma, pero puede tener consecuencias negativas. La cuestión es que los algoritmos de las redes sociales son cajas negras cuyo proceso de alimentación de datos y conclusiones a las que llegan son indescifrables para la mayoría de los usuarios. Esta falta de conocimiento puede afectar la capacidad de evaluación crítica de la información recomendada por el algoritmo. Al recomendar contenido similar, el algoritmo utiliza nuestras creencias, ideales y prejuicios como guía y eso puede terminar agravando divisiones sociales o políticas, seguido de la proliferación de desinformación que se alinea con esa guía.

Por ejemplo, un usuario que fue identificado por el algoritmo como seguidor de un partido político: sigue a políticos importantes de este partido, solo interactúa con cuentas de noticias que retratan positivamente a su partido, interactúa con contenido que se alinea a las posturas de su partido en temáticas controversiales, etc. Este algoritmo va a recomendar únicamente contenido similar y por ello esta persona, si solo se informa a través de las redes sociales (como es cada vez más común), puede nunca ver información vital, como debates y posturas opuestas, que le serviría para formar su propia opinión crítica en vez de seguir ciegamente la línea marcada por su partido político. En vez de presentar posturas opuestas para que el usuario forme opiniones críticas, el algoritmo refuerza ideas cementadas, causando más separación en vez de cooperación sociopolítica.

Este bucle de retroalimentación que fomenta el aislamiento dentro de nuestras creencias y posturas genera cámaras de eco: burbujas que hacen extremadamente difícil el ingreso de nuevas ideas o puntos de vista intelectuales y en cambio repiten las creencias que son nuestras, que hacen ‘eco’ y por ello el nombre del fenómeno. Los algoritmos personalizados construyen estas cámaras de eco de forma incidental: al recomendar solo contenido similar nos presentan ideas con las cuales ya estamos familiarizados y eliminan la entrada de visiones opuestas que nos podrían permitir adquirir nuevas ideas o cambiar nuestras posturas a medida que se presenta nueva información en una temática.

La cámara de eco puede no parecer peligrosa, al final uno va a las redes sociales para relajarse y no para ejercicios intelectuales. Sin embargo, el aislamiento intelectual generado más el refuerzo de nuestra interpretación del mundo mediante información repetitiva y sesgada dentro del sistema hermético (al ser muy difícil la penetración de nuevas ideas o posturas) hace que el usuario pierda perspectiva de la ‘realidad’, sintiéndose justificado de sus posturas porque las ven constantemente reforzadas sin poder analizarlas críticamente ni ajustarlas a cambios presentados por contrapartes. Más allá de la falta de visiones opuestas, estas cámaras herméticas presentan las condiciones ideales para la proliferación de noticias falsas o desinformación, el verdadero peligro.

El estudio The algorithmic knowledge gap within and between countries: Implications for combatting misinformation (2024) por Myojung Chung y John Wihbey, publicado en la Revista de Misinformation de la Escuela Kennedy de Harvard, reveló que mayor conocimiento del funcionamiento de los algoritmos y los procesos que utilizan para filtrar la información del usuario lleva a mayor vigilancia sobre la desinformación y sobre cómo la retroalimentación del algoritmo puede aumentar el riesgo. A pesar de que el estudio demuestra que otras variables pueden influir (entorno político, social y conocimiento tecnológico), el resultado demuestra que quienes no entienden cómo los algoritmos generan experiencias personalizadas que resultan en burbujas informacionales tienen mayor riesgo de creer que reciben información objetiva mediante los contenidos recomendados por sus redes sociales y por ello son más propensos a creer y compartir desinformación.

La desinformación transportada por algoritmos es un problema complejo, y por ello de compleja solución. Como siempre, cada uno tiene responsabilidad individual de tratar de no difundir desinformación. Los usuarios de redes sociales deben permanecer alerta y no dejarse caer en la comodidad que presenta el algoritmo personalizado; aún así deben analizar críticamente la información recomendada para evaluar si uno está viendo toda la imagen o solo la parte con la que concuerda.

En nuestra edad digital es cada vez más importante practicar y mantener la capacidad de pensamiento crítico y análisis de información contrarrestante. Al final de cuentas, la lucha contra la desinformación nos involucra a todos.

 

Bibliografía: 

 

 


 

Si te interesa apoyarnos para impulsar más proyectos como este, te invitamos a hacer una donación haciendo click aquí: