"); } "); } else document.write("
");
La compañía defiende que no cuenta con datos de estas características para enseñar a su sistema de control con inteligencia artificial Brenton Tarrant, en el vídeo que graba antes de entrar a la mezquita Al Noor de Christchurch (Nueva Zelanda) para iniciar la matanza. Polaris Europa Press
El sistema de inteligencia artificial (IA) de Facebook para prevenir la difusión de imágenes dañinas no fue capaz de identificar la retransmisión en directo del atentado de Christchurch en Nueva Zelanda, en el que murieron 50 personas y varias decenas de personas resultaron heridas. El vicepresidente de la compañía, Guy Rosen, ha remitido este jueves una explicación: “Los sistemas de IA están basados en datos que los entrenan, lo que significa que se necesitan miles de ejemplos de este contenido para entrenar a un sistema capaz de detectar ciertos tipos de texto, imágenes o videos. Ha funcionado muy bien con temas como desnudos, propaganda terrorista y también con gráficos de violencia, de los que hay un gran número de ejemplos que podemos usar para entrenar a nuestros sistemas". Para conseguir el mismo resultado en situaciones como la de Nueva Zelanda, añade el directivo, "tenemos de dotar a nuestros sistemas de un gran volumen de datos de este tipo de contenidos, lo que es difícil en estos eventos [el atentado] y son afortunadamente raros”.
Rosen admite la “increíble importancia” de la lucha contra el terrorismo a través de la red social y que el sistema “nunca va a ser perfecto”. Por esta razón apela a las personas como “parte de la ecuación”, tanto aquellas encargadas de la revisión de contenidos como los usuarios que denuncian la existencia de información inapropiada.
El video de los atentados fue eliminado a los pocos minutos de su ejecución, pero pudo ser visualizado 200 veces durante su retransmisión en directo sin que ningún usuario lo denunciara en ese momento. El contenido completo, tras el crimen, se reprodujo 4.000 veces hasta que fue remitido a Facebook (29 minutos después del comienzo de la matanza y 12 minutos tras el final de la retransmisión en directo) un enlace donde se podía acceder a una grabación del mismo. Unas 300.000 copias fueron eliminadas.
Facebook Live, que permite emitir en directo acontecimientos, ha sido también una puerta para contenidos inapropiados que Facebook intenta controlar de forma prioritaria con sus sistemas. El principal objetivo de prevención son las imágenes relacionadas con suicidios y actos dañinos, como las autolesiones.
Fotograma de la retransmisión hecha por el atacante de la mezquita de Al Noor, en Christchurch (Nueva Zelanda). AFP 800 formatos diferentes
La experiencia de Nueva Zelanda ha servido para que la compañía revise los protocolos de control y denuncia con el fin de acelerar la toma de decisiones.
Ahora, Facebook reconoce la dificultad de evitar difusiones a través de otras redes sociales o plataformas de intercambio de ficheros. Se trata de copias que algunos usuarios de cualquier parte del mundo consiguieron a través de aplicaciones o servicios de Internet, capturando los vídeos de algunas páginas o grabando con sus móviles las pantallas.
El hecho de que se conozca la existencia del video ha hecho que mucha gente lo busque, admite Rosen, quien advierte que su compañía prohíbe la difusión de estas imágenes.
Durante las primeras 24 horas, Facebook ha eliminado 1,2 millones de vídeos, pero el vicepresidente de la red social entiende que existen grupos subiendo nuevas copias a Internet y en versiones preparadas para evitar la detección de los sistemas informáticos. Se han registrado hasta 800 variantes de formatos. Ante estas circunstancias, se han empleado tecnología de identificación de audio para afinar más las búsquedas.