En el primer y segundo trimestre del año, Youtube retiró 9.1 y 7.1 millones de vídeos respectivamente. "La combinación de tecnología y humanos entrenados nos permite aplicar nuestras políticas sobre contenido con gran rapidez", explica la compañía en su blog corporativo.
Madrid, España, 13 de diciembre (EFE).– La plataforma de video Youtube ha eliminado 7.8 millones de videos, 224 millones de comentarios y 1.6 millones de canales por violar su política de contenido en el periodo de julio a septiembre de este año, según un informe publicado hoy por la compañía estadounidense propiedad de Google.
Gran parte de este contenido fue eliminado porque violaba las normas de la plataforma sobre contenido adulto (sexo) y "spam". Según los datos hechos públicos hoy en su informe trimestral, el 90 por ciento de los canales y el 80 por ciento de los vídeos eliminados en septiembre correspondieron a estas razones.
La plataforma no ofrece datos del resto de meses.
Youtube utiliza un sistema de control que combina revisores (personas) y tecnología "machine learning". Esta última ha sido la responsable de la detección del 81 por ciento de los videos eliminados y, esta rápida detección, consiguió que el 74.5 por ciento nunca llegara a recibir visitas.
Los videos eliminados en septiembre por razones de protección de la infancia y violencia extrema, dos áreas con categoría especial para la plataforma, fueron vistos menos de diez veces, gracias a este sistema de control combinado.
En el caso de los comentarios suprimidos (224 millones), el 99 por ciento también fue detectado por inteligencia artificial. En su mayoría fue retirado por estar considerado "spam" y, según la compañía, supone un mínimo porcentaje de los miles de millones de comentarios que se comparten cada año en la plataforma.
"La combinación de tecnología y humanos entrenados nos permite aplicar nuestras políticas sobre contenido con gran rapidez", explica la compañía en su blog corporativo.
En el primer y segundo trimestre del año, Youtube retiró 9.1 y 7.1 millones de vídeos respectivamente.
Cada trimestre el número de contenidos eliminado puede fluctuar por cambios en la propia política de contenidos de la compañía, que se extrema o refuerza en caso de situaciones especiales.
El debate sobre la prolifera del discurso de odio, el acoso y el contenido terrorista en internet ha forzado a los gigantes tecnológicos como Facebook, Twitter y Google a incrementar sus esfuerzos en controlar los contenidos sus plataformas.