El clima en Neuquén

icon
23° Temp
54% Hum
La Mañana Facebook

Un moderador de Facebook habló de su trabajo: "Cada día era una pesadilla"

Se trata de Isabella Plunkett, quien declaró por primera vez ante una comisión parlamentaria sobre el trauma que le generó trabajar para la red social.

Isabella Plunkett ha trabajado como moderadora de contenidos de Facebook durante algo más de dos años, y todavía trabaja allí.

El Parlamento irlandés escuchó cómo los moderadores veían contenidos gráficos hasta ocho horas al día. El bufete de abogados Foxglove y el Sindicato de Trabajadores de la Comunicación, que representan a los moderadores, pidieron un mejor apoyo psicológico y libertad para hablar. Facebook dijo que ofrece apoyo al personal las 24 horas del día.

El trabajo de Plunkett consiste en revisar las publicaciones de la plataforma, que pueden contener violencia gráfica, explotación, extremismo, abuso y suicidio.

La joven, de 26 años, afirma que no podía hablar con sus amigos ni con su familia de las cosas que vio en el trabajo debido a un acuerdo de no divulgación (NDA) que había firmado al principio de su contrato. Los miembros de la Comisión Mixta de Empresa, Comercio y Empleo de Irlanda elogiaron su valentía al hablar.

En una entrevista con la BBC, Isabella dijo: "Estoy aquí hablando y en realidad no sé necesariamente en detalle lo que estoy legalmente autorizada a decir y a no decir".

"Siempre estuvo claro que no podíamos hablar de nuestro trabajo, que no podíamos hablar de nuestro trabajo a los amigos, a la familia... y definitivamente es un lugar de trabajo con un sentido de secreto".

Facebook dijo a la BBC que los acuerdos de confidencialidad son una práctica habitual y que los revisores pueden hablar de cualquier aspecto de su trabajo con los médicos y asesores.

El personal puede hablar de los retos y las recompensas generales de su trabajo con la familia y los seres queridos, pero no de los detalles específicos del contenido que están revisando.

Salud mental

"Llevo dos años haciendo este trabajo y no creo que pueda seguir haciéndolo durante mucho más tiempo por la tensión que supone para la salud mental", dijo Isabella a la BBC.

"No es como un trabajo normal en el que puedes ir a trabajar e irte a casa y olvidarte; las cosas que ves están realmente arraigadas en tu mente".

Isabella procesa unas 100 "entradas" al día, que pueden ser vídeos, imágenes o mensajes de texto en la plataforma. Dice que a menudo contienen violencia gráfica, suicidio, explotación y abuso.

Trabaja para Covalen, uno de los mayores contratistas de Facebook en Irlanda.

Isabella afirma que no se le permitió trabajar desde casa, a diferencia de otros colegas contratados directamente por Facebook que hacían el mismo trabajo. Como resultado, dice que está expuesta a un contenido más gráfico, porque está en la oficina.

Una pesadilla

"Las colas de alta prioridad, la violencia gráfica, el tema de los niños, la explotación y los suicidios, la gente que trabaja desde casa no lo entiende, la carga recae sobre nosotros".

A pesar de tener protección familiar en casa, le dijeron que vaya a la oficina y desarrolló ansiedad, por lo que ahora toma antidepresivos. "Cada día era una pesadilla", dice, y añade que el apoyo que le daban era "insuficiente".

Facebook dice que la ayuda psicológica está disponible para todos sus moderadores las 24 horas del día, pero Isabella afirma que su "equipo de bienestar" - como lo denomina Facebook- no son psiquiatras cualificados.

"Estuve viendo al equipo de bienestar pero no sentí que recibiera el apoyo que necesitaba. No puedo decir que saliera del trabajo sintiéndome aliviada o sabiendo que podía ir a casa y dormir bien, eso no es posible", añade.

"Me seguía a casa. Podía estar viendo la televisión en casa y pensar en una de las horribles y muy gráficas entradas".

El personal subcontratado dispone de 1,5 horas de tiempo de "bienestar" a la semana, dice, que pueden utilizarse para hablar con un profesional de bienestar, salir a pasear o tomarse un tiempo de descanso cuando se sientan abrumados.

"No es suficiente. Ahora veo el contenido que veo en el trabajo en mis sueños. Lo recuerdo, lo vuelvo a experimentar y es horrible. "Nunca sabes lo que va a venir después y tienes que verlo entero porque puede haber infractores".

Descargo de responsabilidad sobre el TEPT

A algunos moderadores de Facebook se les pide que firmen un descargo de responsabilidad antes de empezar a trabajar, aceptando que el contenido que se ve en sus trabajos podría provocar una alteración en la salud mental y un TEPT (Trastorno de Estrés Postraumático).

Un ejemplo del contrato, leído en la comisión, decía "Entiendo que la exposición a este contenido puede provocarme un trastorno de estrés postraumático.

"Participaré en una sesión obligatoria de coaching de bienestar, pero entiendo que no son condiciones y pueden no ser suficientes para evitar que contraiga el TEPT".

Una portavoz de Facebook dijo: "Todas las personas que revisan contenidos para Facebook pasan por un programa de formación en profundidad sobre las normas comunitarias de Facebook y tienen acceso a apoyo psicológico para garantizar su bienestar.

"Estamos comprometidos a trabajar con nuestros socios para proporcionar apoyo a nuestros revisores de contenido, ya que reconocemos que la revisión de ciertos tipos de contenido a veces puede ser difícil", agregó.

"En Irlanda, esto incluye apoyo in situ 24 horas al día, 7 días a la semana, con profesionales formados, un servicio de guardia y acceso a la asistencia sanitaria privada desde el primer día de trabajo".

"También estamos empleando soluciones técnicas para limitar al máximo su exposición a material potencialmente gráfico. Es un tema importante y nos comprometemos a hacerlo bien".

Soluciones técnicas

Facebook utiliza una combinación de algoritmos de aprendizaje automático y moderadores humanos para revisar los contenidos.

En el futuro, espera reducir el número de moderadores humanos mediante el aprendizaje automático.

Pero Isabella dijo que esto era una "fantasía" de Facebook, que los sistemas "ni siquiera estaban cerca de esa etapa".

En su intervención ante la comisión, Isabella dijo que "la gente se siente intimidada" por el proceso de NDA y teme perder su trabajo.

Citó una plataforma de comunicación interna en Facebook, en la que se borraban las publicaciones de los trabajadores cuando hablaban. Facebook negó estas afirmaciones y dijo que no se toman medidas disciplinarias por los empleados que plantean sus preocupaciones.

"La gente se quejaba del trato y de lo que ocurría y de que se sentía insegura", dijo Isabella a la comisión. "Estaba claro que se estaba censurando porque se borraban los comentarios de la gente, se inhabilitaban las cuentas".

Dijo que su experiencia la llevó a declarar: "Tenía la sensación de que tenía que hacerlo", añadió en su testimonio. "Necesito hablar en nombre de la gente que tiene demasiado miedo, que siente que tiene demasiadas responsabilidades y que no puede permitirse correr ningún riesgo".

Te puede interesar...

Lo más leído

Leé más

Noticias relacionadas

Dejá tu comentario