PubMed y Google Académico son dos de las bases de datos bibliográficas más utilizadas para buscar literatura científica. A pesar de que ambas herramientas incluyen miles de estudios sobre temas muy diferentes y relaciones de lo más variopintas, no siempre hay que tomar sus conclusiones al pie de la letra. Es decir, encontrar un artículo científico en estos motores de búsqueda no significa que sus resultados representan la verdad absoluta sobre el tema que abordan. El motivo es que existen varios factores que limitan o aseguran la robustez de sus conclusiones.
No todo lo publicado está revisado por científicos
En ciencia, antes de que una investigación se publique en una revista científica, es esencial que haya sido previamente revisado a través de un proceso llamado revisión por pares o peer-review. Para ello, se envía un primer manuscrito (preprint) del artículo que se quiere publicar a la revista en cuestión. El equipo editorial de la revista, tras una primera lectura, lo envía a otros investigadores e investigadoras del mundo que compartan campo de conocimiento y sin relación de interés con el equipo que ha creado el manuscrito.
Ahora bien, no todos los resultados que Pubmed devuelve al realizar una búsqueda son estudios revisados por pares: “No se puede limitar una búsqueda en PubMed a revistas revisadas por pares”, recuerda Pubmed en su página web. Además, aunque la mayoría de las revistas indexadas en PubMed son revisadas por pares, “los criterios de revisión por pares y las cualificaciones de los revisores o árbitros varían”.
Estos resultados sin revisión o con revisiones de baja calidad incluyen a las revistas científicas predatorias: publicaciones que solicitan manuscritos por los que cobran sin proporcionar procedimientos de calidad como la revisión por pares. Su finalidad exclusiva no es difundir el contenido científico, sino recaudar dinero.
Existe una lista de potenciales revistas predatorias que se puede consultar en esta página. No obstante, algunas publicaciones que se encuentran en esta lista niegan ser predatorias o de baja calidad académica y han emprendido acciones legales contra el creador de esta lista.
No es lo mismo un estudio en ratones que un metaanálisis: la jerarquía de la publicación científica:
No es lo mismo sacar conclusiones de un estudio que se ha hecho sobre una sola persona que sobre cientos o miles, igual que no es lo mismo probar un fármaco o un principio activo en animales que en seres humanos. Tampoco es lo mismo observar que someter a los participantes a ciertos experimentos. Por lo tanto, la evidencia construida a partir de un trabajo científico puede ser diferente, más o menos robusta.
Más allá de las revistas y editoriales, hay muchos tipos de publicaciones científicas. Cada una tiene un propósito determinado y hace una aportación concreta al conocimiento científico. A su vez, cada tipo de publicación tiene que leerse (y entenderse) de manera diferente y no todas ‘construyen’ conocimiento científica de igual forma. Para ayudar en esto último, presentamos la pirámide de la evidencia científica en ciencias de la salud.
Esta pirámide es un esquema que jerarquiza los tipos de publicaciones por su capacidad de hacer más ‘sólida’ la construcción de este conocimiento (esto es, la evidencia científica): cuanto más arriba esté el tipo de estudio en esta pirámide, se puede considerar que es más sólido, riguroso, está expuesto a menos sesgos o fallos metodológicos y, por tanto, la información que contiene es más confiable. En este artículo explicamos por qué no es lo mismo una opinión que un estudio de caso o una revisión sistemática o metaanálisis. El método observacional tiene importantes limitaciones.
Correlación no es causalidad y cuidado con escoger los resultados de un solo estudio
A la hora de leer un estudio científico, también debemos ser cuidadosos. Muchas veces se encuentra asociación entre dos eventos (como entre el consumo de café y un menor o mayor del deterioro cognitivo) sin que ello signifique uno sea la causa del otro: correlación no es causalidad. Además, un solo estudio, por sí solo, no prueba nada y por eso son importante los metanálisis y revisiones sistemáticas para asegurar el conocimiento científico.
Los resultados de estos motores de búsqueda también puede permitir ejercer la falacia de la evidencia incompleta o ‘cherry-picking’, una estrategia para mostrar únicamente información interesada o que refuerza un punto de vista, una estrategia que han usado los antivacunas.
Primera fecha de publicación de este artículo: 30/08/2024