Google usa inteligencia artificial para depurar contenido extremista

Google se ha comprometido a seguir desarrollando programas avanzados que usan el aprendizaje automático para combatir el aumento del contenido extremista, después de descubrir que era más rápido y preciso que los humanos al limpiar contenido ilícito de YouTube.

La compañía está utilizando el aprendizaje automático junto con revisores humanos como parte de un enfoque mutli-pronged para abordar la propagación de videos extremistas y polémicos en YouTube, que también incluye normas más estrictas para los videos y la contratación de más expertos para señalar el contenido que necesita revisión .

- Publicidad-

Un mes después de anunciar los cambios, y tras las repetidas llamadas de Amber Rudd a las firmas tecnológicas de Estados Unidos para que hagan más para hacer frente al aumento del contenido extremista, YouTube de YouTube ha dicho que sus sistemas de aprendizaje automático ya han dado grandes saltos para abordar el problema.

Un portavoz de YouTube dijo: “Si bien estas herramientas no son perfectas y no son adecuadas para cada entorno, en muchos casos nuestros sistemas han demostrado ser más exactos que los humanos al marcar videos que necesitan ser eliminados.

“Nuestro uso inicial del aprendizaje automático ha más que duplicado el número de videos que hemos eliminado por extremismo violento, así como la velocidad a la que hemos reducido este tipo de contenido. Más del 75% de los videos que hemos eliminado por extremismo violento durante el mes pasado fueron eliminados antes de recibir una sola bandera humana “.

- Publicidad -

Uno de los problemas que tiene YouTube para controlar su contenido ilícito es que los usuarios cargan 400 horas de contenido cada minuto, haciendo que la filtración de contenido extremista en tiempo real sea un desafío enorme que sólo un enfoque algorítmico podría administrar.

YouTube también dijo que había comenzado a trabajar con otras 15 ONGs e instituciones, incluyendo la Liga Anti-Difamación, el Movimiento No Hate Speech y el Instituto para el Diálogo Estratégico en un esfuerzo por mejorar la comprensión del sistema de temas relacionados con el discurso de odio, la radicalización y el terrorismo para tratar mejor con contenido objetable.

- Publicidad -

Google comenzará a aplicar normas más estrictas en los videos que podrían considerarse censurables, pero no son ilegales, en las próximas semanas. La compañía dijo que los vídeos de YouTube señalados como inapropiados que contienen “contenido polémico religioso o supremacista”, pero que no violan las políticas de la empresa sobre el discurso de odio o el extremismo violento serán colocados en un “estado limitado”.

Un portavoz de YouTube dijo: “Los videos permanecerán en YouTube detrás de un intersticial, no serán recomendados, no se monetizarán y no tendrán características clave, incluyendo comentarios, videos sugeridos y gustos”.

YouTube también ha comenzado a redireccionar las búsquedas con ciertas palabras clave a listas de reproducción de vídeos curados que confrontan y desmienten mensajes extremistas violentos, como parte de su esfuerzo para ayudar a prevenir la radicalización.

Google planea continuar desarrollando la tecnología de aprendizaje automático y colaborar con otras compañías tecnológicas para enfrentar el extremismo en línea.

Con información de The Guardian