Desde la incorporación en Facebook de las retransmisiones en directo este año, la empresa está trabajando para moderar este tipo de contenido en directo.
Facebook está desarrollando un sistema para detectar automáticamente contenido ofensivo que se dé durante las transmisiones en vivo que se dan en la red social. Facebook se ha visto envuelta en alguna polémica por el contenido que ha aparecido en estos vídeos y que es muy complicado de controlar o moderar a tiempo real.
El control del contenido de Facebook se ha llevado a cabo hasta ahora gracias a todos los reportes del resto de usuarios de la red social a imágenes o mensajes ofensivos que la compañía analizaba a posteriori tras recibir este reporte, eliminando este contenido, y llegando, en los casos más extremos a eliminar el perfil del usuario que ha publicado el contenido.
Ahora Facebook está estudiando cómo automatizar el control del contenido de los vídeos, de tal forma que si el vídeo muestra algún contenido en el que aparece algo que incumple las normas de la red social, éste no haga su aparición en Facebook. Este algoritmo está siendo probado actualmente en Facebook Live con la idea de extenderlo al resto de la red social.