Tu opinión

Facebook a examen por el vídeo del atentado de Nueva Zelanda

Andrea Olea - 22 de marzo de 2019 - 11:28
Facebook a examen por el vídeo del atentado de Nueva Zelanda
La compañía ha explicado por qué no detectó la transmisión en directo del tiroteo.

(CCM) — Facebook ha debido explicar por qué no reaccionó ante la transmisión en directo en Facebook Live del reciente atentado terrorista de extrema derecha ocurrido en Nueva Zelanda, en el que murieron casi medio centenar de personas: según la compañía, la inteligencia artificial (IA) que emplea no estaba preparada para detectar el ataque.

En una nota de prensa (en inglés), Guy Rosen, vicepresidente de Facebook, explicó que su algoritmo, conocido por reconocer y censurar elementos mucho más inocuos como simples pezones en pechos femeninos, no tenía suficientes ejemplos gráficos de este tipo de contenido, por lo que su sistema no lo detectó. Rosen señaló que su IA requiere "varios millares de casos" de los que aprender y, por ello, no pudo diferenciar el ataque real de lo que puede verse en videojuegos bélicos, por ejemplo.

El responsable defendió la efectividad de su sistema a la hora de detectar "desnudos, propaganda terrorista y contenido violento" y apuntó a la responsabilidad de los usuarios; no en vano, más de 200 personas vieron el vídeo de la masacre en directo sin notificar lo que estaba sucediendo. La empresa ha recordado que una vez eliminó el vídeo, tuvo que bloquear la difusión de partes o capturas de la secuencia del ataque hasta en 1,5 millones de ocasiones, de los cuales 1,2 millones fueron suspendidos antes de que fueran publicadas en la red social.

En todo caso, Facebook asegura que está trabajando para mejorar su sistema de detección para el futuro, con el objetivo de mejorar las modalidades de denuncia y ampliar las categorías para que vídeos de este tipo puedan saltarse la lista de espera en el proceso de revisión.

Foto: © Facebook.
Deja tu comentario

Comentarios

Comenta la respuesta de usuario anónimo