Google ha publicado un informe en el que se puede ver cómo YouTube ha mejorado la ‘seguridad’ en lo relativo a contenidos disponibles dentro de la plataforma. Entre los meses de octubre y diciembre del pasado año, la firma de Mountain View ha borrado más de 8 millones de vídeos que, evidentemente, no debían estar ahí. Comentan que la mayoría de ellos eran de contenido adulto o spam. Pero hay más datos interesantes, como por ejemplo que 6,7 millones de estos vídeos fueron marcados automáticamente para revisión. Y de todos estos, el 76% se borraron antes de reproducirse siquiera una vez.

moderacion-youtube

Google está mejorando la moderación de contenidos en YouTube: IA más avanzada, y un equipo humano más amplio para revisar los vídeos

La compañía de Mountain View ha estado ampliando la plantilla de los ‘revisores de contenidos’ y mejorando sus condiciones. En definitiva, han estado mejorando todo lo relativo a la moderación de contenidos para evitar que en la plataforma se ‘cuelen’ vídeos ofensivos. Los primeros resultados, que son estos que han ofrecido en el informe al que nos referimos, revelan que por el momento están obteniendo rédito de esta modificación de su planteamiento. Otra medida que han tomado, como ‘filtro’ para dar confianza a los anunciantes, ha sido cribar los canales monetizados imponiendo un mínimo de 1.000 subscriptores y 4.000 horas durante los 12 meses anteriores.

Google pone de manifiesto, especialmente, la importancia de combinar la inteligencia artificial con el trabajo manual para la revisión de contenidos. Actualmente YouTube es la plataforma más grande, en el segmento del vídeo en streaming, tanto por volumen de contenidos como por su comunidad. El reto que les supone es evidente.

 

Fuente: YouTube | adslzone