"); } "); } else document.write("
");
Una investigación premiada por la Universidad Pablo de Olavide muestra cómo las plataformas consideradas sociales aíslan y acentúan los prejuicios La policía frena a las diputadas de la CUP, Maria Sirvent, a la izquierda, y Natalia Sanchez cuando intentaban parar el autobús de Hazte Oír que relaciona nazismo feminismo. Albert Garcia
Las redes sociales aíslan y acentúan los prejuicios. Aunque suene paradójico y contradictorio con el nombre atribuido a estas plataformas, los algoritmos usados para delimitar los contenidos apropiados a las afinidades mostradas en la red y el afán por engancharnos para sacar el mayor rédito posible a la publicidad crean un fenómeno llamado “burbuja de filtros”: un espacio en el que solo entran notificaciones de determinadas características y se evitan otras contradictorias que podrían aportar puntos de vista distintos para tomar decisiones y formar opiniones más razonadas. Un trabajo sobre este efecto realizado por Gema Valencia a partir de perfiles machistas, a favor de la igualdad y neutros, ha sido reconocido por la Universidad Pablo de Olavide en los premios a Estudios de Género.
El filtro burbuja comienza cuando Google cambia en 2009 su sistema de búsqueda para ofrecer resultados personalizados y otras compañías incorporan mecanismos similares, “Solo se nos muestra lo que queremos ver o, más bien, lo que un algoritmo piensa que nos interesa. Se trata de un proceso pasivo en el que se desconoce cómo se realiza ese filtrado o edición de contenido, por lo que no sabemos qué parte de la realidad nos estamos perdiendo”, destaca el estudio.
En el reforzamiento de posturas como el machismo, según el trabajo, el efecto es aún más perjudicial. “Si personas con perspectivas contrarias a la igualdad tienen menor acceso a contenidos feministas y están expuestas a informaciones que refuerzan sus visiones, pueden quedar atrapadas en un bucle que las lleve a una polarización machista”, advierte Valencia.
Palabras claves que desaparecen
La investigadora ha puesto a prueba la red al crear perfiles con características intencionadamente machistas, feministas y neutras. Una de las conclusiones de su estudio muestra un dato preocupante. “Los contenidos referidos a acosos, abusos y agresiones sexuales o asesinatos machistas desaparecen para algunas usuarias y usuarios de una etapa a otra. Esto supone un indicio de cómo el sistema de recomendación podría acabar reforzando unas posturas u otras con la omisión de noticias tan trascendentales para la lucha por la igualdad y la democracia. Si las violencias machistas desaparecen de los news feed de los usuarios y usuarias, la distorsión sobre la realidad y la percepción de la desigualdad podrían verse afectadas”, destaca Valencia en las conclusiones de su estudio.
Otro resultado refleja cómo Facebook, en la mayoría de las ocasiones, no llega a mostrar ni el 50% de publicaciones totales difundidas por las páginas sobre las que el usuario ha mostrado preferencias. “Es importante tener en cuenta este filtrado si cada vez más personas se informan mediante las redes sociales, con Facebook a la cabeza (…). El hecho de que se pierdan noticias dificulta el desarrollo de un proyecto colectivo en sociedad y, en consecuencia, el consenso social necesario para la lucha contra las desigualdades de género”, concluye Valencia.
“La realidad está, pero no llega. Si no salimos de la burbuja, se refuerzan nuestras creencias”, afirma la investigadora, que ahora amplía la investigación para su tesis doctoral.
Stella de Luna.
Stella Luna de María, directora general de la consultora PentaQuark y ajena al estudio, coincide. “La burbuja de filtros es una realidad, es un círculo vicioso creado por la intención de las compañías de que sigas enganchado, de que pases más tiempo en las redes a través de las búsquedas que realiza el usuario, su perfil, el patrón de navegación, los likes. Ofrecen lo que te gusta, más de lo mismo”, explica.
“La red social no quiere que haya equilibrio. Pero no con un interés ideológico sino comercial. Sin embargo, el resultado es que remite información que hace más fácil la difusión de noticias falsas y la manipulación. El usuario está atrapado y puede perder su capacidad crítica”, advierte esta experta en macrodatos.
Salidas
Tanto Valencia como De Luna coinciden en la solución: una actitud activa de los usuarios y educación. Estas salidas implican una actitud activa en la búsqueda de información para “romper el círculo vicioso” y dejar entrar en la burbuja información contraria a nuestros prejuicios. “Hay que cambiar los hábitos en las redes y ser críticos con las fuentes. Si solo se persigue la gratificación instantánea y nos llega una sola versión, somos más manipulables”, afirma De Luna. Es lo que Valencia denomina “alfabetización mediática”, a la que añade la necesidad de ser “responsable” de aquello que difundimos o respaldamos en las redes.
La parcialidad de la información que recibimos a través de las redes es más preocupante si se tiene en cuenta que el 48% de la población con acceso a Internet en España usa Facebook para leer, compartir o comentar noticias, según la encuesta Digital News Report 2018, realizada por la Universidad de Navarra en colaboración con la Universidad de Oxford. A esta red se le suma la creciente influencia de Instagram (la red social con más crecimiento), Whatsapp o Twitter, donde se produce el mismo efecto de la burbuja de filtros.