Las calamidades de las revistas científicas de renombre
Hasta que el método de evaluación de grupos investigadores, de tesis de doctorado, de currículos y proyectos científicos deje de otorgar tanta importancia a dónde publica un investigador, difícilmente se romperá el círculo vicioso. Entre todos, seguiremos alimentando lo que criticamos.
Hace algunas semanas Randy Schekman, premio Nobel de Medicina, decía que "la ciencia debe romper la tiranía de las revistas de lujo" y afirmaba que no volvería a publicar en revistas como Cell, Science o Nature. Admitía que publicaciones suyas en esas revistas le habían ayudado a ganar el premio Nobel, pero que ahora, cargado de dignidad, pasaría de publicar en estas tres prestigiosas revistas.
Tan pronto leí la noticia, pensé: Dr Schekman, sabemos que las revistas científicas más prestigiosas son muy criticables por diferentes motivos, pero ha esperado a rondar la edad de jubilación (acaba de cumplir 65 años), y ganar un Nobel, para denunciarlo. Con tanta coherencia, no debiéramos descartar que dentro de un tiempo se negara a recibir más premios nobeles, porque su proceso de selección tampoco es que rebose transparencia y objetividad. En fin, cabe la justificación de que ahora que ha ganado el Nobel tiene más visibilidad y su crítica tendrá más repercusión.
Cierto es que el tema que levanta el Dr Schekman, el de las revistas de renombre y prestigio científico y su proceso de decisión editorial, es complejo y ampliamente cuestionado. Algunas de estas revistas están lideradas por empresarios, periodistas científicos y otros profesionales que no siempre se basan en criterios científicos para decidir qué se publica y qué no. Muchas de las decisiones están claramente influenciadas por la repercusión mediática que puedan tener ciertos estudios, por lobbies de diversa índole o por amiguismos entre editores y algunos científicos. La consecuencia es que no todas las investigaciones son juzgadas de una manera justa (atendiendo a unos criterios lo más objetivos posibles), perjudicando a aquellas cuyo tema no está de moda o no tiene los resultados más impactantes aunque haya contribuido enormemente en términos científicos. En consecuencia, se alteran las prioridades de investigación y se adultera el proceso científico. Es más, como la mayoría de las revistas más prestigiosas están basadas en Estados Unidos o Gran Bretaña, me atrevo a decir que suele haber cierta preferencia por publicar trabajos con investigadores nativos de estos países, con independencia de la calidad del trabajo.
La presunta relevancia e impacto científico de estas revistas se refleja en un índice conocido como factor de impacto. Se construye a través de las citas que reciben los artículos publicados en una determinada revista durante los dos años posteriores a su publicación. El día que un aspirante a investigador descubre el factor de impacto, no sabe hasta qué punto le pesará para el resto de su carrera científica. La obsesión y presión por publicar en estas revistas con alto factor de impacto es enorme, pero no solo por el propio ego científico o el crecimiento profesional que conlleva, sino porque el publicar en esas revistas garantiza la competitividad para atraer nuevos fondos para continuar la labor investigadora. En cierta medida, parece que el fin último se tergiversa, deja de ser la generación de conocimiento útil para el progreso, y pasa a ser publicar en estas revistas de alto impacto. Sabiendo lo complejo que es atraer fondos para investigación, especialmente en estos tiempos de recortes en I+D, el publicar en ciertas revistas garantiza el pan de cada día para el científico y su grupo de investigación y pocos hacen (hacemos) ascos a publicar en estas revistas prestigiosas.
¿Cómo se soluciona esto? ¿Es el sistema actual el menos malo? Hay buenas iniciativas editoriales, que fomentan una mayor transparencia, de acceso libre, que aseguran que no rechazan artículos porque los resultados del estudio no hayan sido lo suficientemente impactantes, con decisiones editoriales tomadas por más de una persona, y con experiencia científica. Plos o elife son ejemplos de ello. Pero aun así, todas estas medidas no anulan el riesgo de perversión editorial. Al final, las decisiones últimas las toman pocas personas, y los científicos que son miembros de los comités editoriales tienen sus propios intereses e influyen no siempre desinteresadamente.
Hasta que el método de evaluación de grupos investigadores, de tesis de doctorado, de currículos y proyectos científicos deje de otorgar tanta importancia a dónde publica un investigador, difícilmente se romperá el círculo vicioso instaurado. Entre todos, seguiremos alimentando lo que tanto criticamos.
Este post ha sido publicado simultáneamente en el blog de ISGlobal.