El trabajo invisible que enferma
En la era digital, las redes sociales se han convertido en escaparates del mundo, donde se muestra desde lo más banal hasta lo más extremo. Pero lo que el usuario común no ve es que, para mantener esos entornos libres de violencia y contenido perturbador, existe un colectivo profesional que filtra diariamente lo peor de internet: los moderadores de contenido.
Estos trabajadores —en su mayoría contratados por empresas subcontratadas de grandes plataformas tecnológicas— revisan publicaciones que van desde discursos de odio hasta vídeos de mutilaciones, abusos o suicidios. Lo hacen bajo presión algorítmica, en jornadas cronometradas y sin margen para el impacto emocional. Y lo hacen, muchas veces, sin apoyo psicológico, sin formación adecuada y en condiciones de total invisibilidad.
Historias que hablan por sí solas
X., un joven brasileño de 19 años, llegó a Barcelona en 2018 con la esperanza de empezar una nueva vida. Consiguió empleo como moderador en CCC Barcelona Digital Services, una subcontrata de Meta. Al principio, no sabía en qué consistía exactamente su función. Pronto descubrió que su día a día pasaría por enfrentarse a vídeos de violencia sexual, asesinatos y tortura.
Cinco años después, X. sufre ataques de pánico, toma cinco medicamentos diarios y apenas puede salir de casa. “En mi cabeza ahora solo hay muerte. Muerte, sangre, dolor, miedo. Miedo todo el tiempo”, relató en una entrevista a *La Vanguardia* (2023).
Este no es un caso aislado. Según el mismo medio, más de 400 trabajadores —casi un 20% de la plantilla de CCC Barcelona Digital Services— están actualmente de baja por trastornos psicológicos directamente relacionados con su trabajo de moderación.
Cuando el trabajo digital deja secuelas clínicas
La exposición constante a contenidos violentos tiene un impacto profundo y sostenido sobre la salud de los moderadores. Distintos estudios y resoluciones judiciales han empezado a identificar una serie de enfermedades que pueden derivarse de este entorno laboral:
- Trastorno por Estrés Postraumático (TEPT): reconocido por el Tribunal Superior de Justicia de Cataluña (2024) como consecuencia directa de la exposición reiterada a
- contenidos traumáticos. El fallo lo clasificó como accidente laboral tras probarse la ausencia de medidas preventivas por parte de la empresa subcontratada por Meta.
- Depresión reactiva y clínica: con sintomatología como apatía, ideación suicida o incapacidad funcional. Varios moderadores entrevistados por Equal Times (2023)
- afirman no haber conocido a ningún compañero que no haya experimentado algún grado de deterioro psicológico.
- Ansiedad generalizada y ataques de pánico: derivados de la carga emocional acumulada y el miedo constante al error. Los moderadores no solo deben identificar
- el contenido nocivo, sino justificar cada decisión bajo amenaza de penalización por fallo.
- Trastornos del sueño: como insomnio, pesadillas recurrentes o interrupciones del ritmo circadiano, especialmente en turnos nocturnos o rotativos.
- Burnout (síndrome del trabajador quemado): agotamiento extremo, pérdida de sentido del trabajo y desconexión emocional.
Según un estudio cualitativo de Spence et al. (2023), los moderadores de contenido experimentan síntomas persistentes como ansiedad, insomnio y reacciones disociativas,
comparables a las vivencias de profesionales expuestos a traumas secundarios
De los riesgos psicosociales a la enfermedad profesional: el eslabón que falta
Hasta aquí, los testimonios y estudios muestran un patrón claro: quienes moderan contenido digital sufren un deterioro progresivo de su salud mental. Pero este sufrimiento no es fruto de una debilidad individual, sino de unas condiciones laborales que, aunque invisibles, cumplen todos los requisitos para ser consideradas riesgos psicosociales en el marco de la Prevención de Riesgos Laborales.
La Organización Internacional del Trabajo y la Ley 31/1995 definen los riesgos psicosociales como aquellos aspectos del trabajo —su organización, su contenido o su contexto— que pueden tener un impacto negativo en la salud del trabajador. En el caso de los moderadores, estos riesgos se manifiestan en múltiples formas: la exposición diaria a escenas traumáticas, la presión de los tiempos de respuesta, el aislamiento funcional y la ausencia de canales de apoyo emocional.
Estos factores no solo aumentan el malestar psicológico; también actúan como desencadenantes directos de patologías reconocidas clínicamente: ansiedad generalizada, depresión, insomnio persistente, despersonalización y, en los casos más graves, trastorno por estrés postraumático. El periodista Casey Newton (2019) ya documentó en The Verge cómo moderadores de Facebook en EE. UU. sufrían depresión, ataques de pánico y trastornos de estrés postraumático tras meses revisando contenidos violentos, sin apoyo emocional ni protocolos de prevención. Es decir, hablamos de un proceso perfectamente trazable: del riesgo psicosocial al daño psicológico, y del daño al diagnóstico de una enfermedad que, por su origen laboral, debería ser reconocida como profesional.
Sin embargo, este eslabón —el que convierte el riesgo en categoría clínica y jurídica— es el que aún falta en el marco normativo. La mayoría de las dolencias derivadas del trabajo digital no aparecen en el Cuadro de Enfermedades Profesionales del RD 1299/2006, lo que deja a estos trabajadores sin la protección legal y sanitaria que sin posibilidad de prevención real.
Prevenir lo invisible: medidas urgentes
La evidencia acumulada exige una revisión profunda de cómo se aborda la prevención en este colectivo. Algunas líneas prioritarias son:
- Evaluaciones específicas de riesgo psicosocial: que incluyan ítems sobre exposición a material traumático, no contemplados hoy por métodos estándar como el FPSICO.
- Reconocimientos médicos periódicos con enfoque psicológico: realizados por profesionales de la psicología del trabajo, con seguimiento estructurado y
- confidencial.
- Protocolos de intervención temprana: para detectar síntomas de sobrecarga emocional antes de que se cronifiquen.
- Formación en afrontamiento emocional y autocuidado: con sesiones iniciales y refuerzos periódicos.
- Rotación de tareas y límites de exposición directa: con descansos planificados y alternancia con actividades no traumáticas.
- Auditorías externas e independientes: para verificar que las empresas subcontratadas implementan medidas preventivas reales.
El caso que puede cambiarlo todo
En diciembre de 2024, el Tribunal Superior de Justicia de Cataluña reconoció el trastorno mental de un moderador como accidente laboral. La empresa no había implementado medidas preventivas, pese a conocer el nivel de exposición. El trabajador moderaba vídeos de mutilaciones, suicidios y asesinatos. La sentencia no solo ordenó una indemnización de 40.000€, sino que sentó un precedente: la posibilidad de vincular formalmente estas dolencias con su origen laboral.
Conclusión: lo que no se ve, también enferma
Proteger la salud de los moderadores de contenido no es solo una cuestión ética. Es una necesidad legal, preventiva y social. No basta con ofrecer sesiones puntuales de mindfulness ni limitar el tiempo frente a la pantalla. Es hora de reconocer este trabajo como profesionalmente expuesto al daño emocional severo, con consecuencias clínicas reales y exigencias preventivas claras.
Mientras este vínculo no se traduzca en cambios normativos, clínicos y laborales, seguiremos manteniendo una doble moral: la de exigir que otros filtren lo inhumano para proteger nuestra vida digital, sin ofrecerles a cambio la mínima protección que su trabajo merece.
Bibliografía
- Spence, R., Bifulco, A., Bradbury, P., Martellozzo, E., & DeMarco, J. (2023). The psychological impacts of content moderation on content moderators: A qualitative study. Cyberpsychology: Journal of Psychosocial Research on Cyberspace, 17 (4), Article 8.
- Newton, C. (2019, February 25). The Trauma Floor: The secret lives of Facebook moderators in America. The Verge.
- Consejo General de la Abogacía Española. (2024). Un juez reconoce como accidente laboral el trastorno mental de un moderador de contenidos.
- Equal Times. (2023). El prototipo del moderador de contenidos: precariedad, trauma y silencio.
- La Vanguardia. (2023). En mi cabeza ahora solo hay muerte: la salud mental de los moderadores de contenido.
- El Nacional. (2024). Más de 400 moderadores de Facebook en Barcelona de baja por las atrocidades que revisan.
- Organización Internacional del Trabajo. (2016). Workplace stress: a collective challenge (pdf).
- Organización Mundial de la Salud & Organización Internacional del Trabajo. (2022). Mental health at work: Policy brief.
- España. (1995). Ley 31/1995, de Prevención de Riesgos Laborales. Boletín Oficial del Estado, núm. 269, de 10 de noviembre de 1995.
- España. (2006). Real Decreto 1299/2006, de 10 de noviembre, por el que se aprueba el cuadro de enfermedades profesionales en el sistema de la Seguridad Social. Boletín Oficial del Estado, núm. 302, de 19 de diciembre de 2006.