Cargando...
 
Convocatorias Postdocs

Convocatorias Postdocs


ANEP y becas postdoc

mensajes: 353

Los más veteranos del lugar recordarán que hace un año hice un estudio estadístico de las evaluaciones de los postdoc hechas por la ANEP y ordenadas por la comisión del MEC. Saqué las medias, índices de variación, de asimetría… y ordené los resultados en unas gráficas de dispersión bastante elocuentes que servían para comprobar el grado de coincidencia entre evaluadores.
Como temía, mi área (HA) presentaba una correlación negativa muy débil (pirámide de ziggurath) que sólo podía significar que la correlación de las evaluaciones había sido inferior a 0’6 (muy poca coincidencia).
Eso me permitió inferir que se había producido un reparto de cuotas por especialidad y aportar argumentos bastante contundentes al respecto, a pesar de que el sistema de evaluación de la ANEP es secreto. Con todo este material, envía un recurso de reposición y a día de hoy, más de 11 meses después, recibo respuesta oficial.
En primer lugar, destaca el blindaje de la ANEP. EL MEC dice que la ANEP es un órgano técnico con capacidad discrecional que no puede ser fiscalizado como garantiza una sentencia del Tribunal Constitucional ni debe hacer público su sistema de evaluación, pero como esto niega la tutela jurídica efectiva de cualquier acto administrativo, en caso de que se puedan aportar pruebas que supongan una duda razonable, entonces si cabe aceptarse recurso por la vía contencioso-administrativa.
Problema: la único forma de saber cómo evalúa la ANEP y tener los indicios suficientes para saber si obra correcta o incorrectamente es que su método de trabajo sea público y la única forma de que sea público es obligándolos con una orden judicial, pero como es imposible obtener esa orden sin los indicios necesarios como para que la denuncia se aceptada, se tata de una paradoja.
Después, rebaten algunos de mis argumentos de una forma significativa:
Con mi estudio, había definido un resultado B y la única forma para llegar a B era mi hipótesis, que era A. A significaba sesgo en las evaluaciones, probablemente, a cargo de un miembro de la comisión del MEC vinculado al departamento de medieval de Valladolid y no coincidencia entre los evaluadores, pero era una hipótesis inferida (más tarde supe que era correcta por vías indirectas).
Que argumenta el MEC: que A no causa necesariamente B. Eso es cierto, hasta Hume lo sabe, pero es el problema del principio de causalidad, se tata de una atribución del observador, como todas las hipótesis y toda la investigación científica. De lo que se trata aquí es que A es muy feo y abre dudas sobre B y el MEC, sin darse cuenta, de forma implícita acepta que A es verdad, cuando sólo era una hipótesis, a pesar de que le niega a A papel sobre B. Es el mismo problema jurídico sobre el cohecho propio e impropio. Pero bueno, ya sabemos que hubo cohecho impropio (no hubo mecanismos de control sobre los conflictos de intereses, como parece ser que no hay en la ANEP).
EN definitiva, cómo fueron las evaluaciones de la ANEP el año pasado:
Como el trámite burocrático se demoró, hubo dos oleadas en la evaluación.
Quienes no tuvieron que subsanar documentos fueron evaluados con 15 días en una primera ronda, los evaluadores tuvieron menos carga de trabajo, porque se trataba de menos de 300 casos en total.
La segunda ronda fue de 1.100 proyectos y también hubo 15 días para evaluar. La ANEP confiera a los evaluadores el derecho de decidir si son competentes en el área del candidato, que como están inscritos en macroáreas, causa muchos problemas. Como la ANEP dio prisas y no había tiempo, los evaluadores puntuaron una gran cantidad de proyectos sin que se derivasen realmente a especialistas del campo. Las macroáreas más segmentadas (como es mi caso) se vieron perjudicadas.
A mediados de marzo de 2010, las evaluaciones llegaron al MEC y la comisión ponderó y ordenó las evaluaciones (sistema secreto). En teoría, dicha comisión debía verificar las evaluaciones: es decir, si había un candidato con un informe muy positivo y otro negativo, debía pedir a la ANEP que efectuase una tercera evaluación. Pero como no había tiempo e iban con retraso, la comisión aceptó las evaluaciones tal cual. Esto produjo en el área HA que 60 candidatos estuviesen agolpados en menos de 10 puntos de diferencia, porque los dos evaluadores no habían coincidido, porque no tenían competencia suficiente para evaluar proyectos tan dispersos. Asimismo, el señor X de mi hipótesis tuvo el detalle de poner en primeros lugares a los de su departamento y amigos, hecho que hizo que una vez publicada la lista con nombres y apellidos y puntuaciones correspondientes todo tuviese un aspecto muy feo. Me temo que este año no harán públicos el listado con nombres y apellidos más puntuaciones.

mensajes: 201

Si evaluasen las publicaciones relativizando según el área y no simplemente mirando el índice de impacto de la revista, podríamos empezar a hablar de una forma objetiva de evaluar. En tanto que las cosas sigan como últimamente, no creo que nadie pueda afirmar eso...
Como ejercicio, mirad qué tipo de publicaciones tenían los grandes capos de vuestro campo con vuestra edad; os váis a hartar de reir...

mensajes: 353

Por cierto, la ANEP, que depende del MCIN, y el MEC están enfrentados a muerte por cuestiones de competencias y culturas científicas (la ANEP culpa al MEC de político en sus decisiones, mientras que el MEC considera que la ANEP aplica criterios de las ciencias duras a otras áreas y perjudica a las humanidades).
A mí, personalmente, me parecen estupideces. La ANEP es ópaca, poco transparente y carece de mecanismos de control sobre los evaluadores y el MEC... pues lo de siempre, tolera que cualquiera haga lo que le dé la real gana hacer.

mensajes: 353

Los problemas con la ANEP son incluso más simples y de menor sofisticación:
Un plazo mínimo de evaluación con una ratio fija por número de evaluaciones/días. El año pasado tuvieron 15 días para hacer evaluaciones que en algunas áreas superaban los 80 proyectos.
Un cambio de las áreas. Existen macroáreas que no tienen sentido y deberían desglosarse, las mismas comisiones técnias de la ANEP que aconsejan sobre las áreas (que existen y sus miembros son públicos porque no eran evaluadores) podrían solventar este punto sin demasiados problemas. No puede ser que haya áreas con más de 150 candidatos y otras con 8.
Una comisión técnica que haga una correlación entre los dos evaluadores para comprobar si hay coincidendia. Si el coeficiente es superior al 0'8, por ejemplo, todos pasan. Si está entre 0'6 y 0'8 se estudian los casos en que no hay coincidencia y se pide una tercera opinión. Si el coeficiente de correlación es inferior a 0'6, se abre una investigación para determinar qué ha ocurrido y si uno de los evaluadores ha sesgado las puntuaciones, es excluido de la ANEP por sospechas fundadas.
Se suprime la comisión política del MEC que "ordena" la prelación de candidatos. Que existan estas mega comisiones de catedráticos con amigos en el MEC, díficles de reunir en Madrid, que introducen opacidad y demoran el proceso no tiene el más mínimo sentido, más allá de que sean una lotería para ayudar a algún afortunado.

mensajes: 300
Ya, bueno, si hablamos de una postdoc junior el proyecto tb lo puede escribir el director del grupo, que realmente es lo mas usual porque para que escribir un proyecto nuevo para integrarte en un grupo si no te lo van a financiar con un contrato del MEC o una JdC o JAE-doc. Y en realidad los proyectos casi no cuentan para esos programas (10-15%), pero si lo suficiente para decantar la cosa a un lado de la balanza u otro de forma poco transparente. Tampoco es que las RyC tengan que tener un buen proyecto, en realidad eso se evalua en profundidad mas adelante cuando el RyC que ya ha conseguido su contrato puede empezar a pedir proyectos en serio. Es una perdida de tiempo lo de las evaluaciones tal y como estan establecidas, si realmente se hiciese como debe de ser el proyecto seria esencial, pero en ese caso la grant no solo deberia cubrir el sueldo del candidato sino tambien gastos de investigacion, etc. En España solo las Miguel Servet tienen ese formato que yo sepa, aunque sea parcialmente. Entonces si que debe contar el proyecto, pero para todos los demas programas solo supone una puerta abierta hacia las puntuaciones subjetivas y/o no tienen ninguna utilidad. Y seamos realistas, puedes presentar un proyecto maravilloso para las MEC/JdC/JAE-doc, si el jefe de grupo tiene dinero para desarollar su propio proyecto en que crees que acabaras trabajando durante los 3 años de la JdC? Para que sirve entonces evaluar al candidato en funcion de lo que supuestamente ha escrito en el proyecto? Si, las publicaciones son un yugo, pero hay otra forma de evaluar objetivamente?
mensajes: 201
Pues a mi entender el proyecto es esencial. Uno puede tener un CV espectacular en virtud de haber realizado la tesis doctoral bajo la supervisión de un "genio" (entiéndase como se quiera) y luego no saber hacer la O con un canuto a la hora de diseñar un proyecto propio. Además, el hecho de que sólo se tuviese en cuenta el CV ahondaría aún más el (a mi juicio) problema de publicacionitis que ya existe, según el cual con 30 años tienes que haber publicado en nature o science o no tienes la más remota posibilidad de pescar un euro ni en beca, ni en proyecto, ni en nada...
mensajes: 300
Los proyectos de investigacion no se pueden hacer publicos mas que en lineas generales, por eso del riesgo de plagio. Los Cv ya son publicos en el pubmed con solo tener el nombre y los apellidos del candidato. El tema es como se evalua y quien lo hace. Lo ideal seria establecer un sistema de puntuacion objetivo, basado exclusivamente en los Cvs del candidato y del grupo o centro segun que programa, utilizando como baremo el numero de publicaciones, tipo de publicaciones, etc. No harian falta ni evaluadores, pero habria que asumir que el proyecto que se va a desarrollar es acorde a la calidad de los cvs de la solicitud. Si entramos en el terreno de los proyectos, entonces ya la cosa se vuelve mas subjetiva y entran en juego muchas variables. Seguramente esto es dificil de aplicar a humanidades, pero para todo lo demas no.
mensajes: 34
OK, rojogonza. Estoy de acuerdo entonces.
mensajes: 82
Asparragino wrote:

Lo siento rojogonza, no estoy de acuerdo con eso último que dices. La culpa es de la comunidad de científicos españoles en general. A los políticos y funcionarios les da lo mismo quién se lleve el dienro que destinan a investigación. Somos nosotros los que evaluamos como nos da la gana, los que llegados a un punto preferimos que los criterios sean opacos o incluso inexistentes para poder hacer nuestra real gana y beneficiar a nuestros amigos, lo que en este país es tanto como beneficiarnos a nosotros mismos.
Pienso que llegados a este punto la FJI debería luchar principalmente por aumentar la transparencia de las convocatorias de recursos humanos. No nos vale que me digan que dan de 0 a 80 puntos por el CV si no me dicen cómo asignan esos puntos. Esto debería parecerse más al sistema de la ANECA para la evaluación de los CV en las acreditaciones o habilitaciones para las figuras de profesor universitario. Aunque sé feacientemente que hasta un sistema así en España es objeto de corrupción.
Espero que en un futuro los mismos que lloran por estas injusticias no las cometan cuando les toque ser evaluadores.
Un saludo.


Me parece que me he expresado mal. Me refería precisamente a lo que tú has comentado. Por investigadores indicaba a los aspirantes, no a los científicos que evalúan. La intención de mis palabras iba dirigida a que no caigamos en la trampa de criticar a los compañeros que han obtenido la beca, sino que hay que demandar muchísima más transparencia.
Si todos los curricula fueran públicos y los criterios de baremación más específicos, nos quedaría mucha menor desazón que la que sufrimos en la famosa convocatoria de 2009.

mensajes: 34

Lo siento rojogonza, no estoy de acuerdo con eso último que dices. La culpa es de la comunidad de científicos españoles en general. A los políticos y funcionarios les da lo mismo quién se lleve el dienro que destinan a investigación. Somos nosotros los que evaluamos como nos da la gana, los que llegados a un punto preferimos que los criterios sean opacos o incluso inexistentes para poder hacer nuestra real gana y beneficiar a nuestros amigos, lo que en este país es tanto como beneficiarnos a nosotros mismos.
Pienso que llegados a este punto la FJI debería luchar principalmente por aumentar la transparencia de las convocatorias de recursos humanos. No nos vale que me digan que dan de 0 a 80 puntos por el CV si no me dicen cómo asignan esos puntos. Esto debería parecerse más al sistema de la ANECA para la evaluación de los CV en las acreditaciones o habilitaciones para las figuras de profesor universitario. Aunque sé feacientemente que hasta un sistema así en España es objeto de corrupción.
Espero que en un futuro los mismos que lloran por estas injusticias no las cometan cuando les toque ser evaluadores.
Un saludo.

mensajes: 82

Yo también presenté un recurso contra el procedimiento siguiendo el estudio realizado por C.S., y también en estos días he recibido una respuesta del Ministerio indicándome que no ha lugar a la reevaluación de mi solicitud, y que si no obtuve la beca fue por la incosistencia de mi proyecto de investigación. Un año después no vale ni la pena entrar en discusiones metafísicas sobre las evaluaciones, pero no dejo de recordar que ese mismo proyecto, pero adaptado a un contexto geográfico diferente, recibió una extraordinaria valoración como proyecto del Plan Nacional un par de años antes. Insisto, prefiero no profundizar en el desarrollo de esa línea argumental, pero secundo cualquier iniciativa destinada a mejorar la transparencia de los procedimientos de adjudicación, empezando por la publicidad de todos los contenidos que aportamos para la selección.
Nuestros curricula y nuestros proyectos deberían ser públicos, tal y como sucede en otras de las convocatorias de este tipo (RyC, por ejemplo), y así evitaríamos juicios de valor y echarnos la culpa unos investigadores a otros, cuando lo que falla está por otro lado...

mensajes: 353

a Elp
La comparación era por áreas con más de 5 candidatos evaluados. Intenté hacer un desglose por apartados pidieno esos datos mediante estos foros a los candidatos, pero la iniciativa no logró un gran eco popular.
Lo que sí pude hacer fue una comparación global por áreas mediante agregados como la mediana, el índice de variación respecto de la media, el coeficiente de asimetría... que singularizaba a algunas áreas como Física, Química y Historia y Arte... las gráficas de dispersión, a su vez, mostraron que HA tenía la media más baja, el índice de variación más bajo y un coeficinete de asimetría próximo a cero... y esos resultados sólo eran explicables si los dos evaluadores no habían coincidido. Es decir, que el primer candidato de un evaluador debía de ser el vigesimo segundo o tercero de otro evaluador y viceversa...
Como es obvio, era necesario una tercera evaluación, pero como me transmitió personalmente un profesor que había sido evaluador en la convocatoria de marzo de 2008 (la que se falló en octubre de 2009), eso es lo que había pasado cuando él evaluó y eso había demoró a meses las evaluaciones de la ANEP. Del mismo modo, había evaluadores que se negaron a puntuar subáreas de las que se consideraron incompetentes o hubo conflictos de intereses que la ANEP intentó sortear mediante el concurso de otros evaluadores...
COmo la ANEP es secreta, no podemos saber si para 2009 decidieron ser más resolutivos. El año pasado en su web decían que tenían un código de prácticas para evitar el conflicto de intereses, pero éste no era público. Del mismo modo, en una guía pública que tenían para evaluadores comentaban que era cada evaluador el que debía decidir si incurría en un conflicto de intereses.
Estos detalles los pasamos al foro y circularon y en 2010 vi hace unos meses que habían retirado esa información.
Pero bueno... este es el nivel de transparencia de nuestra administración... a mí todavía me parece inusual que los estudiantes tengan derecho a ver sus exámenes. Debería de estar simplemente prohibido para estar en consonancia con la filosofía oficial...

mensajes: 162

admirando lo que has hecho desde el principio, tengo algunas dudas.

comrpabas que dato, el de puntuacion total que era el publico no? o los de putnacion por apartados?

en mi campo, que es amplio, todos sabemos que elegir el area es todo. hay areas donde las publicaciones son mas potentes que en otras y te van a truñir todos los puntos del cv cuando hagan la ponderacion de datos. da igual que tengas (o la gente de tu campo) 7 papers de indice 2-3 si compites en un grupo donde hay campos en las que todo el mundo tiene 15 de 5. y eso, tambien te daria ese tipo de sesgo.

ahora bien, si el sesgo se manifiesta significativamente unicamente en el apartado de proyecto siendo los otros 4 evaluados correlativos, entonces si. tenemso un probelma.

mensajes: 151

Resumiendo, que estamos en manos de quien estamos...

Gracias por el esfuerzo yo soy de tu misma área y doy fe de la inconsistencia de muchas evaluaciones!

mensajes: 63
Me parece super interesante el estudio que has hecho, ojalá todos hiciéramos cosas de este tipo en nuestra lucha por cambiar las cosas, porque la mayoría nos quedamos en la queja solo. Supongo que esto se podría incluir en la sugerencia de mejora de las postdoc que está abierta. Creo que el tema de transparencia en los criterios es muy relevante y estos deberían ser públicos. Me da la sensación que la valoración de proyectos es muy subjetiva por lo que comentas de la fragmentación de áreas, todos sabemos que, además, dentro de una disciplina hay muchas escuelas de pensamiento, a menudo en conflicto, y encima está la especialización (no todos el mundo es competente para evaluar un proyecto por mucho que se sea un experto en un campo...). En fin, ojalá se les cuele las notas aunque yo también lo dudo. Quizás se podría reclamar para futuras convocatorias que esta información fuese pública, por pedir... Además lo del plazo de quince días es muy bruto, tardan dos o tres meses en simplemente ver si están todos los documentos y la parte más delicada la resuelven en dos semanas, de ahí no puede salir nada bueno. Tiene gracia lo del MEC hablando de principios de causalidad, más bien las cosas a menudo se rigen por la casualidad fruto de la ineficacia! Solo nos queda la actitud grecolatina de confiar en nuestro sino :-) que los dioses nos amparen!

Apúntate a la lista precarios-info

 

Colabora

  • Donar con tarjeta o PayPal: