Moderadores bajo presión. El precio oculto de limpiar la red [LADEP]

El trabajo invisible que enferma

En la era digital, las redes sociales se han convertido en escaparates del mundo, donde se muestra desde lo más banal hasta lo más extremo. Pero lo que el usuario común no ve es que, para mantener esos entornos libres de violencia y contenido perturbador, existe un colectivo profesional que filtra diariamente lo peor de internet: los moderadores de contenido.

Estos trabajadores —en su mayoría contratados por empresas subcontratadas de grandes plataformas tecnológicas— revisan publicaciones que van desde discursos de odio hasta vídeos de mutilaciones, abusos o suicidios. Lo hacen bajo presión algorítmica, en jornadas cronometradas y sin margen para el impacto emocional. Y lo hacen, muchas veces, sin apoyo psicológico, sin formación adecuada y en condiciones de total invisibilidad.

Historias que hablan por sí solas

X., un joven brasileño de 19 años, llegó a Barcelona en 2018 con la esperanza de empezar una nueva vida. Consiguió empleo como moderador en CCC Barcelona Digital Services, una subcontrata de Meta. Al principio, no sabía en qué consistía exactamente su función. Pronto descubrió que su día a día pasaría por enfrentarse a vídeos de violencia sexual, asesinatos y tortura.

Cinco años después, X. sufre ataques de pánico, toma cinco medicamentos diarios y apenas puede salir de casa. “En mi cabeza ahora solo hay muerte. Muerte, sangre, dolor, miedo. Miedo todo el tiempo”, relató en una entrevista a *La Vanguardia* (2023).

Este no es un caso aislado. Según el mismo medio, más de 400 trabajadores —casi un 20% de la plantilla de CCC Barcelona Digital Services— están actualmente de baja por trastornos psicológicos directamente relacionados con su trabajo de moderación.

Cuando el trabajo digital deja secuelas clínicas

La exposición constante a contenidos violentos tiene un impacto profundo y sostenido sobre la salud de los moderadores. Distintos estudios y resoluciones judiciales han empezado a identificar una serie de enfermedades que pueden derivarse de este entorno laboral:

  • Trastorno por Estrés Postraumático (TEPT): reconocido por el Tribunal Superior de Justicia de Cataluña (2024) como consecuencia directa de la exposición reiterada a
  • contenidos traumáticos. El fallo lo clasificó como accidente laboral tras probarse la ausencia de medidas preventivas por parte de la empresa subcontratada por Meta.
  • Depresión reactiva y clínica: con sintomatología como apatía, ideación suicida o incapacidad funcional. Varios moderadores entrevistados por Equal Times (2023)
  • afirman no haber conocido a ningún compañero que no haya experimentado algún grado de deterioro psicológico.
  • Ansiedad generalizada y ataques de pánico: derivados de la carga emocional acumulada y el miedo constante al error. Los moderadores no solo deben identificar
  • el contenido nocivo, sino justificar cada decisión bajo amenaza de penalización por fallo.
  • Trastornos del sueño: como insomnio, pesadillas recurrentes o interrupciones del ritmo circadiano, especialmente en turnos nocturnos o rotativos.
  • Burnout (síndrome del trabajador quemado): agotamiento extremo, pérdida de sentido del trabajo y desconexión emocional.

Según un estudio cualitativo de Spence et al. (2023), los moderadores de contenido experimentan síntomas persistentes como ansiedad, insomnio y reacciones disociativas,
comparables a las vivencias de profesionales expuestos a traumas secundarios 

De los riesgos psicosociales a la enfermedad profesional: el eslabón que falta

Hasta aquí, los testimonios y estudios muestran un patrón claro: quienes moderan contenido digital sufren un deterioro progresivo de su salud mental. Pero este sufrimiento no es fruto de una debilidad individual, sino de unas condiciones laborales que, aunque invisibles, cumplen todos los requisitos para ser consideradas riesgos psicosociales en el marco de la Prevención de Riesgos Laborales.

La Organización Internacional del Trabajo y la Ley 31/1995 definen los riesgos psicosociales como aquellos aspectos del trabajo —su organización, su contenido o su contexto— que pueden tener un impacto negativo en la salud del trabajador. En el caso de los moderadores, estos riesgos se manifiestan en múltiples formas: la exposición diaria a escenas traumáticas, la presión de los tiempos de respuesta, el aislamiento funcional y la ausencia de canales de apoyo emocional.

Estos factores no solo aumentan el malestar psicológico; también actúan como desencadenantes directos de patologías reconocidas clínicamente: ansiedad generalizada, depresión, insomnio persistente, despersonalización y, en los casos más graves, trastorno por estrés postraumático. El periodista Casey Newton (2019) ya documentó en The Verge cómo moderadores de Facebook en EE. UU. sufrían depresión, ataques de pánico y trastornos de estrés postraumático tras meses revisando contenidos violentos, sin apoyo emocional ni protocolos de prevención. Es decir, hablamos de un proceso perfectamente trazable: del riesgo psicosocial al daño psicológico, y del daño al diagnóstico de una enfermedad que, por su origen laboral, debería ser reconocida como profesional.

Sin embargo, este eslabón —el que convierte el riesgo en categoría clínica y jurídica— es el que aún falta en el marco normativo. La mayoría de las dolencias derivadas del trabajo digital no aparecen en el Cuadro de Enfermedades Profesionales del RD 1299/2006, lo que deja a estos trabajadores sin la protección legal y sanitaria que sin posibilidad de prevención real.

Prevenir lo invisible: medidas urgentes

La evidencia acumulada exige una revisión profunda de cómo se aborda la prevención en este colectivo. Algunas líneas prioritarias son:

  • Evaluaciones específicas de riesgo psicosocial: que incluyan ítems sobre exposición a material traumático, no contemplados hoy por métodos estándar como el FPSICO.
  • Reconocimientos médicos periódicos con enfoque psicológico: realizados por profesionales de la psicología del trabajo, con seguimiento estructurado y
  • confidencial.
  • Protocolos de intervención temprana: para detectar síntomas de sobrecarga emocional antes de que se cronifiquen.
  • Formación en afrontamiento emocional y autocuidado: con sesiones iniciales y refuerzos periódicos.
  • Rotación de tareas y límites de exposición directa: con descansos planificados y alternancia con actividades no traumáticas.
  • Auditorías externas e independientes: para verificar que las empresas subcontratadas implementan medidas preventivas reales.

El caso que puede cambiarlo todo

En diciembre de 2024, el Tribunal Superior de Justicia de Cataluña reconoció el trastorno mental de un moderador como accidente laboral. La empresa no había implementado medidas preventivas, pese a conocer el nivel de exposición. El trabajador moderaba vídeos de mutilaciones, suicidios y asesinatos. La sentencia no solo ordenó una indemnización de 40.000€, sino que sentó un precedente: la posibilidad de vincular formalmente estas dolencias con su origen laboral.

Conclusión: lo que no se ve, también enferma

Proteger la salud de los moderadores de contenido no es solo una cuestión ética. Es una necesidad legal, preventiva y social. No basta con ofrecer sesiones puntuales de mindfulness ni limitar el tiempo frente a la pantalla. Es hora de reconocer este trabajo como profesionalmente expuesto al daño emocional severo, con consecuencias clínicas reales y exigencias preventivas claras.

Mientras este vínculo no se traduzca en cambios normativos, clínicos y laborales, seguiremos manteniendo una doble moral: la de exigir que otros filtren lo inhumano para proteger nuestra vida digital, sin ofrecerles a cambio la mínima protección que su trabajo merece.

Bibliografía