La empresa debió tomar la medida para cuidar la salud mental de sus moderadores, informó The Verge. La CEO de la compañía, Susan Wojcicki, dijo que empezaron a limitar el número de horas que los moderadores pasaban frente a contenido perturbador. Así, no podrán pasar más de cuatro horas diarias frente a este tipo de contenido.
La noticia llega cuando plataformas de este tipo tiene dificultades para analizar el volumen de contenido que suben los usuarios. Plataformas como YouTube, Facebook o Reddit enfrentan críticas por las malas condiciones de quienes trabajan mirando ese contenido.
Las leyes federales obligan a las empresas que revisen de manera automática y con moderadores humanos los videos que se suben. YouTube usa un sistema conocido como Content ID. Eso permite remover violaciones a derechos de propiedad intelectual de televisión, cine y música. Pero para los casos de escenas violentas, asesinatos o suicidios, YouTube emplea moderadores humanos.
Moderadores en condiciones precarias.
Los moderadores son generalmente contratos precarios y no tienen acceso a los beneficios de salud del resto de los empleados de Google.
«Esto es un tema importante. Yo pasé mucho tiempo mirando este tipo de contenido el año pasado. Realmente es muy duro», dijo Wokcicki.
El problema va a incrementarse en los próximos meses. Es que YouTube contrató 10 mil personas para trabajar en este tipo de actividades. La empresa se encuentra bajo la lupa por las constantes campañas de fake news y contenidos falsos.
YouTube marcará los videos que reciban financiamiento público