Mayte Bonilla Castro

Si hablamos de una publicación científica, el sistema de verificación que suelen utilizar cuando reciben un artículo es el de peer review o el de revisión por pares. No parece que se haya hecho así con el estudio sobre el uso de la hidroxicloroquina (HCQ) contra la Covid, publicado por la revista The Lancet y por The New England Journal of Medicine.


Si no te puedes fiar de las fuentes, ¿de quíén te puedes fiar? Esa es la gran pregunta que, por lo visto, sigue sin respuesta. Lo que ha ocurrido hace pocos días con el estudio sobre el uso de la hidroxicloroquina (HCQ) contra la Covid, publicado por la revista The Lancet y por The New England Journal of Medicine, es una muestra de que las cosas siguen sin hacerse bien. Parece ser que el estudio en cuestión presenta una serie de inconsistencias y de datos erróneos que hubieran sido muy fáciles de detectar si se hubieran hecho las comprobaciones pertinentes; porque ni siquiera se trataba de intentar clarificar fórmulas muy enrevesadas. Simplemente había que visitar la página web de la empresa responsable del estudio para darse cuenta de que podían haber  cosas extrañas.

Si todo ello se confirma, indicaría que los controles que todas estas publicaciones deberían realizar no funcionan, pero esto viene de lejos, pues no sería ni mucho menos la primera vez que se publica un hallazgo científico y después se descubre que es falso. Si hablamos de una publicación científica, el sistema de verificación que suelen utilizar cuando reciben un artículo es el de peer review o el de revisión por pares. Es decir, que quién evalúa el trabajo debe ser alguien con las mismas competencias (esto es, preparación, titulación…) que quién presenta el trabajo.

Este sistema tampoco es que sea perfecto, pues plantea una serie de problemas. Por ejemplo, uno de los peligros de utilizar las revistas científicas como baremo para medir la excelencia de un trabajo científico, y por tanto del científico que lo realiza, estriba en que la presión por conseguir resultados dignos de ser publicados puede acabar en la manipulación de dichos resultados. Un ejemplo lo tenemos la publicación en 2005 de un artículo en la revista Science sobre la investigación llevada a cabo por el equipo del científico surcoreano Woo-suk Hwang. El mencionado artículo sostenía que habían obtenido células madre a partir de embriones humanos clonados. Meses más tarde se descubrió que todo había sido un fraude.

La presión por conseguir resultados dignos de ser publicados puede acabar en la manipulación de dichos resultados.

Así que la situación que tenemos es, por un lado, al ser la comunidad científica relativamente pequeña, se corre el riesgo de que los evaluadores acaben siendo siempre los mismos – por ejemplo, porque el editor de la revista científica lo hace personalmente o porque acaba pidiéndoselo los a colegas con los que tiene más confianza-, y se acabe formando una especie de lobby en el que se imponga de manera habitual una determinada visión a la hora de valorar los trabajos; o las simpatías o antipatías personales de los evaluadores.

Por otro lado, la escasez de recursos que suele caracterizar el trabajo científico puede hacer que los evaluadores primen trabajos que estén en su línea de investigación, para beneficiarse de los avances o, al contrario, que se rechace un trabajo que esté algo más avanzado que el suyo para retrasar su publicación y asegurarse él mismo una pequeña ventaja. Sin olvidar la presión por ser los primeros en presentar cualquier descubrimiento. Ahora mismo, con tantos científicos compitiendo entre sí por conseguir un tratamiento o una vacuna, podríamos estar ante una situación delicada si no se hacen bien las cosas.

También sería un problema la existencia de grupos de poder ajenos al ámbito estrictamente científico. Estos grupos podrían presionar (dando o retirando fondos) para que se investigue en la línea que a ellos les interese. Por ejemplo, en determinados países, investigaciones cuyos resultados pueden tener aplicaciones prácticas en materia militar o de defensa, podrían tener más posibilidades de obtener financiación. En estos casos, un investigador novel o uno con una idea poco atractiva económicamente a corto plazo, tendría menos posibilidades que un investigador consagrado o una idea económicamente más productiva.

person-holding-laboratory-flask-2280571
Foto de Chokniti Khongchum en Pexels

Así es como funciona el asunto de la revisión de trabajos científicos por parte de las revistas científicas y los problemas que podían surgir. Está claro que este tipo de incidentes, como el estudio sobre la hidroxicloroquina, daña la credibilidad de la publicación y de todo el sistema, puesto que las grandes revistas científicas se consideran fuentes oficiales (esto significa que no sería necesario verificar su contenido, aunque es obvio que sí) a la hora de citar sus informaciones.

Eso sin contar con las nuevas tecnologías que hace que cualquier noticia llegue al otro extremo del mundo prácticamente al instante y el perjuicio a la credibilidad de la revista es inmediato. La prisa no es buena consejera y la presión que existe en la actual situación por conseguir resultados no se puede obviar. De todas formas, no puede ser excusa para no llevar a cabo las pruebas y verificaciones necesarias.

 

Fuentes:

Bonilla Castro, M. Introducción a la divulgación y al periodismo científico. Las revistas científicas como fuente, 24-29 (2018)

The Lancet: RETRACTED: Hydroxychloroquine or chloroquine with or without a macrolide for treatment of COVID-19: a multinational registry analysis (Mayo 2020)

Corbella, J. Artículo La Vanguardia, Tres científicos de Barcelona destaparon el escándalo de la hidroxicloroquina. (Junio 2020)