La traumática vida de los moderadores de Facebook
Muchos empleados de Facebook tienen que ver a diario discursos de odio, ataques violentos o pornografía gráfica. Esto es solo en un día normal para los moderadores de contenido en Facebook, la red social más grande del mundo.
El proceso de moderación consiste en determinar si una publicación cumple las normas comunitarias. Si no las cumple, el moderador marca el contenido e indica el motivo. ¿Su objetivo? Limpiar Facebook de contenido violento, protegido por derechos de autor o que incita al odio, entre otros temas indebidos. Aunque la paga no es mala (de 24 a 30 mil euros al año), tampoco es un trabajo fácil, ya sea por la falta de contexto cultural, la ambigüedad de las palabras utilizadas o la naturaleza misma de los posts e imágenes.
Desde 2017, el equipo dedicado a la moderación comunitaria en Facebook ha crecido considerablemente. Debido a las críticas por la prevalencia de contenido violento y controversial, Facebook ha pasado de 4,500 a 30,000 empleados en el departamento de seguridad, de los cuales la mitad son moderadores de contenido. Esto incluye a proveedores en distintos países para revisar publicaciones en 50 idiomas en 20 sitios alrededor del mundo.
Millones de nuevas publicaciones llegan cada día para ser revisadas. No es para menos que la compañía de Mark Zuckerberg dedique tantos recursos a la moderación de contenidos. Constantemente ha sido criticada por no hacer lo suficiente e incluso investigadores de la Organización de las Naciones Unidas (ONU) han acusado a Facebook de ser cómplice en la difusión de discursos de odio.
"Si no hiciéramos este trabajo, Facebook sería un lugar muy desagradable", afirmó una moderadora bajo anonimato para la revista The Verge. Ella es una de las moderadoras de contenido que fue contratada por Cognizant, uno de los proveedores de servicios profesionales para Facebook.
Las oficinas de Cognizant son similares a las de Facebook: luminosas, coloridas y con ventilación. No son sitios oscuros con solo pantallas verdes. Sin embargo, los trabajadores están expuestos a material sensible que, sin duda, ha afectado su vida personal y salud mental. En Facebook es más común encontrar publicaciones sobre acoso y discursos de odio, mientras que en Instagram predominan contenidos con violencia, desnudos y actividad sexual.
Mirar este tipo de contenido ha traumatizado a sus trabajadores. Una moderadora vio a un hombre morir a manos de otro y desde entonces experimenta ataques de pánico, otros recurren al consumo de drogas para poder seguir viendo y moderando publicaciones perturbadoras. Según reportes, es común que los empleados desarrollen síntomas similares a los del trastorno de estrés postraumático. Asimismo, algunos moderadores han adoptado los puntos extremos de los videos que deben revisar, como el terraplanismo o la negación de sucesos históricos. Y es que mirar tantas publicaciones al respecto los ha convencido.
Los empleados de Cognizant deben firmar acuerdos de confidencialidad que, entre otras situaciones, especifican que no deben hablar de su trabajo para Facebook. El objetivo es protegerlos de los usuarios que pudieran molestarse por una decisión de moderación, así como evitar que los empleados compartan la información personal de los usuarios.
Sin embargo, este acuerdo de confidencialidad también les prohíbe hablar del aspecto emocional que supone su trabajo, incluso con familiares y amigos cercanos. Se ha reportado que este requisito aumenta los sentimientos de aislamiento y ansiedad. Aunque Cognizant brinda cierto soporte terapéutico a sus empleados, la mayoría renuncia al año de haber empezado su trabajo de moderación de contenidos y muchos ni siquiera terminan el curso de capacitación que dura un mes. Observar contenido violento y turbulento para mantener las redes sociales como un sitio amigable es un empleo bastante difícil. ¿Tú lo tomarías?