A partir de los mismos datos, ¿llegan a distintas conclusiones diferentes investigadores?

Un estudio internacional e innovador, en el que ha participado la profesora Ana Isabel García-Cervigón, pone de relieve la fiabilidad de la investigación en áreas de conocimiento como ecología y biología evolutiva.

Redacción/ Irene Vega

Un equipo de más de 300 investigadores ha publicado un estudio en la revista científica BMC Biology que destaca la necesidad de abordar la variabilidad analítica en los resultados de las investigaciones. Los resultados obtenidos se alinean con el reconocimiento creciente de que muchas decisiones que los investigadores deben tomar -como qué métodos estadísticos aplicar- pueden llevar a conclusiones divergentes incluso cuando las diferentes opciones son todas razonables. Esta variabilidad sustancial tiene importantes implicaciones para los ecólogos y otros científicos que analizan los datos.

Para realizar la investigación, se formaron 174 equipos de analistas que trabajaron con preguntas de investigación predefinidas por los directores del estudio y analizaron los mismos conjuntos de datos, encontrando respuestas notablemente variables a las preguntas planteadas. Estos resultados destacan la diversidad en la toma de decisiones analíticas y arrojan luz sobre posibles fuentes de falta de fiabilidad y de sesgo en los procesos científicos.

“Este ambicioso estudio demuestra con detalle el potencial que tienen las decisiones tomadas durante el proceso de análisis de datos para influir en los resultados estadísticos obtenidos en ecología y biología evolutiva”, subraya Ana Isabel García-Cervigón, investigadora de la URJC y coautora del estudio. “Además, muestra que esta es una preocupación general en el ámbito científico que va mucho más allá del campo de las ciencias sociales, donde hasta ahora se había realizado la mayor parte del trabajo sobre este tema”.

El artículo científico describe varias prácticas de análisis de datos que los investigadores podrían adoptar en respuesta a esta variabilidad. Por ejemplo, los investigadores podrían presentar varios análisis diferentes de los mismos datos para evaluar la similitud de los resultados, a través de modelos estadísticos. También podrían realizar análisis más ambiciosos de ‘multiverso’ en los que generen muchos cientos o miles de análisis para explorar cómo diferentes elecciones influyen en los resultados. Estas diferentes opciones se unen a un ecosistema de otras propuestas para promover la fiabilidad de la investigación científica, muchas de las cuales se centran en mejorar la transparencia.

Los autores esperan que sus hallazgos alienten a los investigadores, instituciones, agencias de financiamiento y revistas a apoyar iniciativas destinadas a mejorar el rigor de la investigación, fortaleciendo en última instancia la fiabilidad del conocimiento científico.

El trabajo ha estado co-dirigido por Tim Parker, profesor de Biología y Estudios Ambientales en el Whitman College (Walla Walla, Washington), junto con los coautores principales Elliot Gould, estudiante de doctorado en la Escuela de Biociencias de la Universidad de Melbourne, Hannah Fraser, investigadora postdoctoral en la Universidad de Melbourne, y Shinchi Nakagawa, profesor y presidente de Investigación de Excelencia de Canadá en la Universidad de Alberta.