Inicio > Actualidad, Ciencia > La presión por publicar y la imparcialidad del científico

La presión por publicar y la imparcialidad del científico

29 abril, 2010

Comparte este artículo:

meneame enchilame bitacoras facebook twitter delicious technorati Enviar por correo electrónico Imprimir

La presión laboral a la que se encuentran sometidos los científicos puede influir en la forma en la que manejan sus investigaciones y sus resultados. En un artículo publicado en el último número de la revista PLoS One, donde se analizan 1.300 artículos de los últimos 8 años, se concluye que muchos investigadores tienen como principal objetivo la búsqueda de resultados fácilmente publicables. La presión del “publicar o morir” obliga a replantear el futuro de algunas líneas de trabajo aparentemente menos fructíferas.

La ciencia se nutre de personas que normalmente poseen una elevada formación académica y un alto grado de especialización en su área de conocimiento. Estas personas compiten por desarrollar los mejores proyectos de investigación, por obtener fondos (públicos o privados) que sufraguen estas investigaciones y por mantener su situación laboral de una forma más o menos estable. Este conjunto de circunstancias es lo que obliga a conseguir rápidamente un número significativo de publicaciones en revistas de alto índice de impacto, lo que provoca una presión por publicar que puede ser contraproducente para el ejercicio normal de la ciencia. Así no encontramos con que hay un número elevadísimo de trabajos a ser evaluados, lo que obliga a una evaluación rápida con el peligro de que algunos trabajos no bien sustentados acaben siendo publicados, también es posible que algunas líneas de investigación que pueden ser de gran interés se abandonen si requieren una gran inversión de tiempo para alcanzar resultados o que proyectos rompedores e innovadores sean abandonados ante el peligro de no llegar a publicar nada, y en un caso ya extremo no podemos descartar (porque ha sucedido) que algunas personas llevadas por esta presión acaben falsificando resultados con el fin de promocionarse en la profesión. Aunque la ciencia tiene un sistema de auto-corrección de errores y de falsificaciones, puede llevar décadas desmentir resultados falsificados, dejando además entre el público en general una desconfianza en la ciencia que no se corresponde con el buen hacer de la inmensa mayoría de los científicos.

La competencia desmedida por la pocas posiciones académicas y científicas puede llegar a transforma a la ciencia en una cultura del “publicar o perecer” que puede entrar seriamente en conflicto con la objetividad del trabajo realizado en investigación, porque obliga a los científicos a producir resultados “publicables” a cualquier coste. Es sabido que los trabajos tienen mucha menor probabilidad de ser publicados y de ser citados si se muestran resultados negativos, o lo que es lo mismo, aquellos no apoyan las hipótesis de partida.

Esta apreciación fue planteada como punto de partida de una investigación publicada por Daniele Fanelli en la revista PLoS One en la que se estudia si realmente en ambientes académicos muy competitivos se da preferencia a publicar los resultados positivos. Para ello se analizaron 1.300 publicaciones tomadas al azar publicadas desde diferentes estados de los Estados Unidos. En primer lugar observó que los autores que poseían mayor número de artículos eran los que presentaban mayor cantidad de resultados positivos en sus trabajos. Además, esta correlación se daba de forma más abundante en las publicaciones presentadas en centros de investigación que poseen mayor competitividad (según criterios de la Nacional Science Foundation). Aunque hay que tener en cuenta que las personas que trabajan en los mejores centros son los que más trabajos producen al año (de hecho estos centros suelen reunir los mejores investigadores), el artículo afirma que sus resultados apoyan la idea de que los ambientes académicos altamente competitivos no sólo aumenta la productividad científica sino que también influencia sobre su parcialidad. Este mismo fenómeno ha sido observado en otros países, especialmente en aquellos centros donde la presión para publicar es elevada.

Evaluar la calidad de un científico es difícil, y más difícil lo es aún cuando varios científicos compiten por una única posición de trabajo y hay que elegir imparcialmente a una de esas personas. ¿Cómo se mide eso?. No es fácil. Las agencias de evaluación valoran los “curricula” empleando un “polinomio” donde se puntúan publicaciones, índice de impacto de las revistas donde se publica, proyectos conseguidos, tesis doctorales dirigidas, docencia, etc. El problema es que existe carestía presupuestaria en ciencia, la inversión no siempre es la adecuada y el número de personas con “curricula” brillantísimos sobrepasa con creces la demanda. Algo parecido ocurre cuando los líderes de grupos de investigación compiten por fondos que subvencionen sus proyectos. Esto puede llevar a una carrera altamente competitiva y cegadora, ya que con el fin de publicar a toda costa y de la forma más rápida posible se pueden dejar líneas menos productivas, pero que pueden vitales para el desarrollo de la ciencia, del conocimiento y de la sociedad.

.

Entradas relacionadas:


  1. 29 abril, 2010 en 6:23

    Muy buen artículo.

    Las masas tienden a considerar los estudios científicos como referencias incuestionables, y muchas veces no llega a nuestro conocimiento que tal o cual estudio puede estar sometido a un sesgo de confirmación por parte del responsable del mismo, que no olvidemos, sigue siendo una persona humana con sus virtudes y sus defectos.

    Saludos!

  2. 29 abril, 2010 en 7:44

    Toca el artículo un aspecto bastante importante: el de publicar únicamente (o principalmente) resultados positivos. Unido esto al excesivo fraccionamiento de las publicaciones (un solo experimento puede dar para varias), origina un serio problema: no tenemos la misma información sobre resultados negativos que positivos, lo que lleva a repetir innecesariamente largos procesos que ya habían sido realizados por otros equipos, pero que no se publicaron jamás.

    Precisamente la publicación consiste en informar al resto de investigadores, y debido a esta puñetera carrera por publicar, se pierde gran parte de la utilidad original.

    Saludos.

  3. 29 abril, 2010 en 8:06

    Yeah, esa es la imagen que me ha estado produciendo la ciencia últimamente, el de una industria en la que prima sobre todo, producir, producir, producir… si quieres sobrevivir, subvenciones, etc. Me gustaría una época en la que puedes invertir una vida para desarrollar un buen cuerpo teórico, en la que puedes pensar con calma, leer no solo ciencia, sino también filosofía… No se, el estrés actual es contraproducente, totalmente contraproducente.

  4. esthertje
    29 abril, 2010 en 10:31

    Un tema bien interesante. La presión para publicar cosas pequeñas es muy alta ya incluso desde los tiempos de prebecario y así hasta el final. El número es mucho mas interesante que la calidad (ya sabemos que difícil de medir).

  5. Antubel
    29 abril, 2010 en 13:26

    Hola,

    no sólo eso, sino que esto hace muy difícil para un científico investigar áreas con bajas probabilidades de éxito aunque solo sea para descartarlas o incluso entrar en áreas más desacreditadas sin que se resienta su prestigio o su capacidad de conseguir financiación. Esto crea huecos importantes de la ciencia (más que de la ciencia, de la literatura científica) en terrenos que sin embargo son muy populares en la sociedad y que aprovechan los que todos sabemos para campar a sus anchas.

  6. paa
    29 abril, 2010 en 13:38

    Totalmente de acuerdo con el artículo, es una de las mayores pegas que existen en ciencia hoy en día. y añadiría otra, si eres nuevo en el área de investigación, los revisores te analizan conmás detalle el paper que si llevas trabajando en eso toda la vida..

  7. 29 abril, 2010 en 16:21

    Acá hay que tener en cuenta varios puntos
    1 en la práctica al científico le pagan por “punto de impacto” (puntaje de la publicación)
    2 se podría estar sin trabajar y si no se mide la productividad nadie se enteraría
    Por eso, si se me ocurre un trabajo donde necesito 10 años de trabajar con 10 horas diarias para obtener 2 puntos de impacto, contra otra idea que me va a dar 10 puntos de impacto trabajando 8 meses, pues bueno está más que claro que es lo que voy a elegir. Quizás habría que modificar la asignación de los puntos de impacto para solucionar este problema.
    Ya hubo un intento de hacer esto utilizando protocolos como los de google para asignar la importancia.

  8. jc
  9. jc
  1. No trackbacks yet.
Los comentarios están cerrados.
Seguir

Recibe cada nueva publicación en tu buzón de correo electrónico.

Únete a otros 2.442 seguidores

A %d blogueros les gusta esto: