"); } "); } else document.write("
");
La plataforma audiovisual deshabilita los comentarios en vídeos con menores La directiva de YouTube Susan Wojcicki, durante la presentación de YouTube TV en Los Ángeles. Reed Saxon AP
YouTube ha reaccionado tras la denuncia del blog de pediatría Pedimom.com sobre la existencia en la aplicación para niños YouTube Kids de contenidos violentos y suicidas. La compañía de Google ha anunciado que ha “cancelado ciertos canales que intentan poner en peligro a los menores de cualquier manera”. También ha restringido al máximo los comentarios en vídeos donde salgan por la avalancha de quejas sobre el sentido de estos.
La supresión de contenidos también afecta a los dirigidos a “cualquier audiencia” y que “alientan los desafíos dañinos y peligrosos”. El presidente de la Sociedad Española de Suicidología, Andoni Anseán, ha advertido de la mayor presencia de imágenes con comportamientos de autolesión, una actitud observada principalmente entre adolescentes, aunque no son los únicos, que imitan acciones de su grupo en busca de la aceptación.
YouTube ha remitido actualizaciones sobre las acciones relacionadas con la seguridad de los menores y ha reiterado su llamamiento a la comunidad de usuarios y creadores para que adviertan de cualquier contenido que dañe a los espectadores, ya que no se realiza un filtrado previo personal de los vídeos y algunas escenas contrarias a la política del canal sortean los mecanismos automáticos de control.
Este ha sido el caso del vídeo que generó las quejas de Pedimon tras ser visualizado por una médico de Estados Unidos mientras su hija estaba siguiendo unos dibujos animados. La película se interrumpió en el minuto 4,47 para mostrar una secuencia en la que un personaje denominado Joji (Filthy Frank) simula cortarse las venas y afirma: “Recordad niños, de lado a lado para llamar la atención, a lo largo para resultados”. El vídeo fue retirado tras las quejas, pero el blog mostró otros contenidos de la aplicación para niños con contenidos violentos o suicidas.
Uno de los dibujos animados donde la protagonista se suicida y que ha sido denunciado por pedimom.com
“Por favor continúen marcando éstos para nosotros”, ha pedido YouTube a sus usuarios en referencia a la posibilidad de que señalen los contenidos inapropiados o “pongan en peligro a los menores de edad”.
Anseán, que también es director del máster en Gestión Clínica y Sanitaria en Salud Mental de la Universidad Pablo de Olavide (Sevilla), explicó que las redes sociales han establecido numerosos controles y barreras a contenidos peligrosos, en especial a partir de suicidios retransmitidos en directo o casos como los de Ballena azul o Momo (iniciativas de retos violentos), pero advirtió que “es difícil ponerle puertas al campo”. “Es necesario el control, pero este se enfrenta a un contenido infinito que puede ser utilizado bien, para prevenir, o mal, para promover”, añadió.
Deshabilitados los comentarios en videos con menores
Dentro de la misma política de protección, YouTube ha deshabilitado los “comentarios de decenas de millones de vídeos que podrían estar sujetos a un comportamiento depredador”. La medida se extenderá a los “vídeos que muestran a niños y a jóvenes que podrían correr el riesgo de atraer comportamientos predatorios”.
De esta forma, el mantenimiento de comentarios se restringirá a “un pequeño número de creadores” que moderen activamente sus comentarios y “demuestren un bajo riesgo de comportamiento depredador”. “Trabajaremos directamente con ellos y nuestro objetivo es aumentar este número a lo largo del tiempo a medida que nuestra capacidad para detectar comentarios infractores siga mejorando”, advierte la compañía.
Para ampliar los usuarios autorizados a incluir respuestas del público en sus producciones, YouTube ha adelantado el lanzamiento de un nuevo clasificador más efectivo en la identificación y eliminación de “comentarios abusivos” sin que afecte a la “monetización del vídeo”, los ingresos que reciben los creadores por sus difusiones. “Ahora tenemos un nuevo clasificador que tiene un alcance más amplio y detectará y eliminará dos veces más comentarios”, asegura la plataforma de Google.
Esta medida se produce tras un vídeo publicado en la plataforma el 17 de febrero que acumuló casi dos millones de reproducciones en menos de cuatro días. El vídeo, del youtuber Matt Watson, demuestra lo fácil que es llegar a lo que llama un “agujero de gusano” en el que la columna de recomendaciones de YouTube se llena de vídeos protagonizados por niñas y niños.
No son vídeos con contenido sexual explícito, pero los comentarios están llenos de expresiones desagradables o señalan secuencias susceptibles de ser sexualizadas. También hay enlaces a otros vídeos (que ahora aparecen como borrados) y propuestas para añadirse unos a otros como contactos.