La divulgación científica es un arte nunca exento de polémicas y malas prácticas, que debe sortear dificultades técnicas y de percepción social para conseguir su objetivo: contarle a la sociedad algo importante, trascendente en sus vidas, sin perder el rigor científico. En esta lucha constante por conectar el mundo científico con el civil, la psicología ha experimentado un gran avance en los últimos años. Pero ¿qué criterio seguir para la divulgación psicológica? ¿Cómo elaborar el artículo? ¿Cómo investigar para ello?
Redacción CEF.- UDIMA
Los alumnos del Grado en Psicología de UDIMA recibieron esta semana una masterclass del psicólogo clínico Julio Lupiani, a través del Colegio Oficial de la Psicología de Madrid. Lupiani (experto en análisis funcional de la conducta y en psicología perinatal) ofreció a los futuros divulgadores una guía práctica de cómo escribir, cómo leer y cómo analizar y combatir las malas prácticas en la divulgación científica en psicología. Porque, como dijo: «Incluso a pesar de la mala divulgación, está consiguiendo que la profesión psicológica ocupe un muy buen lugar respecto a hace unos años».
No en vano, y con el empujón que dio la pandemia del año 2020, la divulgación psicológica se ha disparado, lo que ha permitido que se comprendan mejor cuestiones psicológicas y se desestigmaticen muchos problemas habituales de la «salud mental, emocional o contextual». Además, el efecto amplificador desde los medios de comunicación y redes sociales (aun cual espada de Damocles para la mala divulgación) ha permitido que se traslade esa comprensión a las políticas sociales y de salud pública.
Ahora bien, ante todo este creciente interés público sobre la psicología y sus temas, se vuelve, si cabe, más importante no caer en errores. El criterio más simple (que no sencillo) para divulgar correctamente en psicología es conocer el canal en que se divulga y que el tema sea claro, entendible (al menos para el público objetivo) «y siempre defendiendo esa base científica», señalaba Lupiani; «si no la defendemos nosotros…».
¿Por dónde empezamos? Lo primero es asegurarse de comprender el tema «lo bastante bien como para ser capaz de resumirlo», decía el psicólogo. Sólo así es posible conectar con el nivel de la audiencia (que sabrá tanto o más) y se podrá corregir errores de divulgaciones incorrectas o, incluso, aportar información para otros investigadores y profesionales (con la capacidad de monetización que eso conlleva). Sin embargo, antes de llegar a esa parte, la de divulgar sin tecnicismos pero con rigor, hay que saber escribir la investigación. Y para saber hacer eso, antes hay que saber leer otras investigaciones científicas.
Lectura crítica y meta-análisis
«La lectura crítica es importante porque damos por hechos los filtros de lo que leemos», advertía Lupiani. Aunque muchas veces esos filtros de rigor y calidad se respetan, «hay tendencias en el mundo editorial y científico de la psicología que han generado problemas», comentaba. Es decir: «Hay artículos de los que no podemos fiarnos». Tras explicar a los alumnos cómo estructurar un trabajo de divulgación (introducción, resumen, metodología, resultados, conclusiones, hacerlo en inglés…), el psicólogo detalló cómo abordar los textos sobre los que se basará el trabajo propio.
Primero, comenzar a leer por la introducción y no por el resumen, pues «la lectura crítica pasa porque esos puntos importantes los descubra yo», defendía Lupiani. Ver la hipótesis y sus preguntas, de dónde surgen y por qué se investiga el tema en cuestión, así como qué se sabe ya al respecto. Entonces deben plantearse varias preguntas clave: ¿Los resultados responden a las mismas preguntas que la introducción? ¿La representación es entendible? ¿Los análisis tienen sentido? Si la respuesta es no, suele ser «mala señal».
Y, sobre todo, ¿incluye el tamaño del efecto? (la magnitud del resultado, la estimación del alcance del hallazgo, puesta en perspectiva con el resto del saber sobre ese tema). «Es lo primero que debo buscar. Si no lo tiene, no aporta casi nada, incluso con lo demás perfecto», argumentaba el psicólogo. Igual con las conclusiones: antes de leerlas, Lupiani recomendó a los estudiantes: «saca las tuyas propias y apúntalas». Luego se comparan para comprobar las diferencias y «poner en duda» dicho trabajo si las hay. Y cuidado con el lenguaje causal, abundó, pues «sin grupo control no puedo decir que en el experimento, junto con los anteriores, se encuentra la relación de causalidad; como mucho ‘quizás’)».
Para facilitar esa revisión de artículos, la necesaria consulta de psicología previa basada en resultados se volvió más ágil con el sistema de revisión sistemática y meta-análisis: buscadores que permiten coger todos los tamaños del efecto de diferentes estudios analizados y ponerlos en perspectiva en global en menor tiempo, para que sea practicable. Esto «permite hacer análisis de resultados muy grandes que sí empiezan a ayudar a establecer relaciones de causalidad», detallaba el psicólogo.
Causalidad y malas praxis
Una vez tenemos claro cómo escribir y tenemos una base crítica de artículos, conviene saber qué prácticas evitar al elaborar la investigación. O cómo equiparse con las nuevas tecnologías para esquivar la prisa y los atajos. Una prisa que sí viene determinada en parte por esos indicadores «cuestionables» de las investigaciones en la universidad: sólo se valoran el número de publicaciones, de impactos, de citas… Esto lleva a artículos menos potentes y elaborados, que se replican menos. Un inconveniente para solucionar ese gran problema, no sólo de la psicología, de la replicabilidad: establecer una relación de causalidad.
La investigación psicológica de los últimos 15 años, según Lupiani, encontraba dificultades para que un porcentaje importante de artículos pudieran replicarse y obtener resultados similares. Así se demostró con el Open Science Collaboration en 2015: analizaron 100 réplicas de estudios aleatorios y sólo un 47% lograron un tamaño del efecto dentro del intervalo de confianza del original. «Los números han mejorado», matizó, «pero grandes experimentos clásicos no se estaban replicando, ni metodológica ni conceptualmente».
Para él, la crisis existe porque hay «muchos estudios poco potentes», y demasiado abiertos y flexibles en sus posibles análisis. Las causas son esas prácticas de escaso rigor científico, como sobreestimar la propia muestra (al no incluir resultados nulos, por ejemplo), o establecer hipótesis inversas (después de tener los resultados), y otras muchas, como el HARKing, el P-hacking, el ‘problema del archivador’, el de la ‘literatura gris’… El problema de todo esto es que altera hasta el nivel de los meta-análisis, que tan útiles son para otras investigaciones. «Y eso no sólo altera la investigación, puede alterar la realidad», reflexionaba Lupiani.
Divulgar en la era ChatGPT
En este contexto, las nuevas tecnologías pueden servir de contrafuerte; herramientas que deben hacer resistir la divulgación clara e impoluta, pero sobre todo rigurosa. Las bases de datos del Open Science Collaboration son una parte, pero hoy en día existen plataformas basadas en inteligencia artificial (IA) que apenas han empezado a abrir un mundo de posibilidades para hacer más pragmáticas y posibles las investigaciones y divulgaciones científicas.
Lo que Open Science aporta es «una filosofía de investigación», afirmaba el psicólogo, pues sus bases son accesibles y aprovechables por todos. Ventaja: ha mejorado el rigor científico, y ha creado un «espíritu por la colaboración» y la investigación diversa. Peligros: pérdida de control de datos delicados, violaciones de la privacidad o las dificultades para reconocer la autoría del trabajo original; así como problemas de calidad. Ante esto, la agilidad para comprobar ese rigor y gestionar los datos de múltiples artículos es crucial.
Durante la parte final de la sesión, Lupiani expuso a los alumnos el gran abanico de posibilidades que las llamadas «redes neurales» como ChatGPT pueden aportar tanto a la parte académica como profesional de los psicólogos. Consensus, Litmaps, Research Rabbit, Quillbot, Carrot2, Elicit o NotebookLM permitirán acceder y gestionar mucho mejor los artículos científicos disponibles, para aprovechar al máximo la IA en la divulgación y áreas prácticas como el diagnóstico o los tratamientos con pacientes.
Ahora bien, estas herramientas siguen teniendo «sesgos», «falta de precisión» y riesgo de hacernos «dependientes» de ellas, así como la elevada «falta de comprensión» que tenemos sobre cómo funcionan estos casos de IA. Sin olvidar otra de las tareas pendientes: la privacidad de esos datos, que en muchos casos están en plataformas de libre acceso y son confidenciales y delicados.
Por ello, aconsejó evitar poner los más privados en los agregadores de artículos que manejen estas redes neurales, pues no está garantizada esa privacidad. La siguiente fase será «cómo usar las IA sin vulnerar esos datos privados; cómo lograr esa anonimización» para tener investigaciones válidas que permitan divulgar con rigor.