Una sucesión de explosiones en iglesias cristianas y hoteles de lujo causó el pasado domingo en Sri Lanka la muerte de al menos 106 personas y dejó más de 500 heridos. Tras estos ataques, asumidos por el Estado Islámico, el Gobierno del país asiático bloqueó Facebook, Facebook Messenger, WhatsApp, Instagram, YouTube, Viber y Snapchat para evitar la difusión de desinformación y la incitación a la violencia en estas plataformas. Las redes sociales, que han permanecido bloqueadas en Sri Lanka hasta este martes, se han convertido en un arma de doble filo: son especialmente útiles para ponerse en contacto con amigos y familiares tras una situación de emergencia, pero también pueden empeorar la situación en momentos críticos.
Hay múltiples ejemplos que muestran el fracaso de los gigantes tecnológicos en su intento por frenar la propagación de desinformación y la incitación al odio en sus plataformas. Hace solo unas semanas uno de los autores del atentado en dos mezquitas de Nueva Zelanda emitió en directo parte del ataque en Facebook. Más de 30 días después, aún seguían circulando copias del vídeo en dicha red social y en Instagram, según comprobó la revista Vice. La compañía de Mark Zuckerberg también ha jugado un papel fundamental como amplificador del odio online en Myanmar, un país bajo la sombra del genocidio contra parte de su población musulmana (los rohinyá). Y la plataforma también se ha enfrentado a críticas por permitir la difusión de información falsa para influir en la opinión pública durante periodos electorales. Por ejemplo, en las elecciones de EE UU de 2016 o el Brexit.
“Pese a que ahora nos llama mucho la atención su flanco más oscuro, las ventajas de las redes sociales superan con mucho a las desventajas”, asegura Myriam Redondo. Es periodista y formadora en verificación digital y asegura que plataformas como Facebook o Youtube “rebajan el umbral para comunicar con repercusión global, algo que antes solo podían hacer los grandes medios”: “Eso tiene un valor incalculable para la libertad de expresión y los derechos humanos”.
Las restricciones en Sri Lanka han tenido lugar tras los atentados ante la creciente frustración de gobiernos de todo el mundo por la propagación de desinformación. El Gobierno del país asiático explicó entonces que las plataformas seguirían bloqueadas hasta que terminara la investigación sobre las explosiones. Este martes ha levantado el bloqueo “tras evaluar la situación”, tal y como ha contado a Efe el director general del Departamento de Información Estatal, Nalaka Kaluwewa.
Manifestantes contra la violencia en Sri Lanka. MADAREE TOHLALA AFP
Pero no es la primera vez que un país bloquea las redes sociales. E incluso el acceso de los ciudadanos a la web. De hecho, Sri Lanka ya impuso la misma prohibición durante una semana en marzo de 2018 porque las plataformas eran usadas para promover la violencia contra la población musulmana.
“En países donde los índices de libertad de expresión son muy bajos, como el caso de Sri Lanka, el bloqueo de las redes sociales, implica la limitación total al acceso de información alternativa a la que ofrecen los gobiernos”, afirma Sílvia Majó-Vázquez, investigadora en la Universidad de Oxford. Si a ello, se le suma la falta de periodistas y corresponsales de medios extranjeros en estos mismos países, “la capacidad para conocer lo que pasa realmente dentro de ellos, es extremadamente limitada”.
De acuerdo con el último informe sobre la salud de Internet 2019 hecho por la Fundación Mozilla, en 2018 se detectaron 188 intentos de cerrar Internet. Es decir, más del doble de los que se registraron en 2016. Algunos países optan por bloquear el acceso a todo Internet, solo a algunos contenidos, sitios web o aplicaciones o por la ralentización del servicio. La ONU condena los intentos gubernamentales de cerrar internet o de afectar la velocidad de las comunicaciones online. Y lo considera un acto contrario a los derechos humanos.
En África ocurre bastante a menudo. En 2019 países como Camerún, Chad, Sudán o Zimbabue han sufrido cortes de este tipo, según el portal Quartz Africa. India, cuyas elecciones generales se celebran entre el 11 de abril y el 19 de mayo de este año, es un país especialmente afectado por estas acciones. La investigadora en la Universidad de Oxford cuenta que allí las redes y especialmente las aplicaciones de mensajería como Whatsapp están sirviendo para la difusión de mensajes con información falsa que promueve la confrontación entre las diferentes comunidades religiosas y también la promoción de determinados partidos políticos.
“Una semana antes del inicio de las elecciones en India, Facebook borró 700 páginas con contenido político que mostraban patrones de comportamiento no humano, por lo tanto representaban acciones coordinadas para favorecer o atacar determinados candidatos o comunidades religiosas”, explica Majó-Vázquez, investigadora del Instituto Reuters para el Estudio del Periodismo. En algunos países Internet equivale a Facebook y estas acciones pueden ser una amenaza en contextos en los que el principal acceso a la información se realiza a través de redes sociales. En India, el 24% de la población que habla inglés accede a las noticias a través de redes sociales, según el India Digital News Report del Instituto Reuters. “Es un porcentaje muy similar al de EEUU y otros países europeos”, afirma la investigadora.
Situaciones de emergencia
Las redes pueden facilitar la organización de la acción colectiva en situaciones de emergencias. “Si se sigue a los usuarios correctos, pueden informar, aclarar, tranquilizar, desmentir, guiar al ciudadano”, cuenta Redondo. Y subraya que una muestra de ello es que cada vez más servicios de policía, bomberos y trabajadores sanitarios le dan prioridad estos canales digitales. Los gobiernos también pueden utilizarlos en momentos críticos.
Incluso Facebook tiene herramientas para ayudar a las víctimas de atentados o desastres naturales. En un apartado llamado “respuesta ante emergencias”, permite a los usuarios confirmar que están bien, ofrecer o buscar ayuda e incluso recaudar dinero. En los últimos meses, la compañía de Mark Zuckerberg ha anunciado diferentes iniciativas para combatir la difusión de bulos o contenido dañino. Pero los algoritmos que utiliza para detectar este tipo de información son más más efectivos en idiomas como el inglés que en otras lenguas como el idioma nativo de Sri Lanka.
Al igual que la plataforma sirve para ayudar, también puede empeorar la situación con “espirales de rumores, pánico o llamamientos a la venganza”. Así lo explica Redondo: “La información se distorsiona, a veces por agentes que lo hacen a propósito o a veces por el llamado ‘buen samaritano’. Es alguien que cree que ayuda pero confunde al tuitear por ejemplo que se necesita sangre en un lugar determinado sin darse cuenta de que el mensaje era del día anterior”.
Pese a ello, asegura que bloquear las redes sociales no es una buena medida. “En el caso de un atentado, de cualquier crisis o situación extrema, lo que se necesita siempre es más información, no menos. Incluso cuando se trata de países en los que el riesgo de violencia sectaria es elevado, la labor de los gobiernos y los medios de comunicación confiables en las redes es más necesaria que nunca”, explica.
Además, hay quienes consiguen saltarse el bloqueo y acceder a las diferentes plataformas mediante redes privadas que desvían el tráfico a otros servidores. Por ejemplo, la anterior prohibición de las redes sociales en Sri Lanka fue burlada por casi tres millones de usuarios, según The New York Times. Esto implica que habría personas que podrían saltarse el bloqueo fácilmente y continuar difundiendo bulos.
Una de las claves para frenar la propagación de información errónea, según Majó-Vázquez, es su detección temprana. La investigadora explica la importancia de que las redes sociales señalen con marcadores visuales la información que no está contrastada en el caso de una emergencia: “Los ciudadanos comparten menos aquellas noticias que han sido identificadas como potencialmente falsas”.
Facebook asegura avisar a los usuarios de que van a compartir una noticia que los verificadores de información externos han calificado como falsa. Además, los medios de comunicación en muchos países se han coordinado durante las campañas electorales para hacer un fact-checking colaborativo de las noticias. Las elecciones presidenciales de Brasil en 2018 dieron pie a agresivas campañas de desinformación a través de WhatsApp. Allí, periodistas de 24 medios de comunicación se unieron para crear Comprova, un proyecto para frenar la difusión de desinformación. Han surgido iniciativas similares en México, Francia e incluso España.La labor de los medios es fundamental para ganar la batalla contra los bulos y la desinformación. Pero, según ambas expertas, parte de la responsabilidad recae en los ciudadanos, que deben acceder a los medios de comunicación y canales oficiales para verificar la información que encuentran por las redes.