ANEP y becas postdoc
Los más veteranos del lugar recordarán que hace un año hice un estudio estadístico de las evaluaciones de los postdoc hechas por la ANEP y ordenadas por la comisión del MEC. Saqué las medias, índices de variación, de asimetría… y ordené los resultados en unas gráficas de dispersión bastante elocuentes que servían para comprobar el grado de coincidencia entre evaluadores.
Como temía, mi área (HA) presentaba una correlación negativa muy débil (pirámide de ziggurath) que sólo podía significar que la correlación de las evaluaciones había sido inferior a 0’6 (muy poca coincidencia).
Eso me permitió inferir que se había producido un reparto de cuotas por especialidad y aportar argumentos bastante contundentes al respecto, a pesar de que el sistema de evaluación de la ANEP es secreto. Con todo este material, envía un recurso de reposición y a día de hoy, más de 11 meses después, recibo respuesta oficial.
En primer lugar, destaca el blindaje de la ANEP. EL MEC dice que la ANEP es un órgano técnico con capacidad discrecional que no puede ser fiscalizado como garantiza una sentencia del Tribunal Constitucional ni debe hacer público su sistema de evaluación, pero como esto niega la tutela jurídica efectiva de cualquier acto administrativo, en caso de que se puedan aportar pruebas que supongan una duda razonable, entonces si cabe aceptarse recurso por la vía contencioso-administrativa.
Problema: la único forma de saber cómo evalúa la ANEP y tener los indicios suficientes para saber si obra correcta o incorrectamente es que su método de trabajo sea público y la única forma de que sea público es obligándolos con una orden judicial, pero como es imposible obtener esa orden sin los indicios necesarios como para que la denuncia se aceptada, se tata de una paradoja.
Después, rebaten algunos de mis argumentos de una forma significativa:
Con mi estudio, había definido un resultado B y la única forma para llegar a B era mi hipótesis, que era A. A significaba sesgo en las evaluaciones, probablemente, a cargo de un miembro de la comisión del MEC vinculado al departamento de medieval de Valladolid y no coincidencia entre los evaluadores, pero era una hipótesis inferida (más tarde supe que era correcta por vías indirectas).
Que argumenta el MEC: que A no causa necesariamente B. Eso es cierto, hasta Hume lo sabe, pero es el problema del principio de causalidad, se tata de una atribución del observador, como todas las hipótesis y toda la investigación científica. De lo que se trata aquí es que A es muy feo y abre dudas sobre B y el MEC, sin darse cuenta, de forma implícita acepta que A es verdad, cuando sólo era una hipótesis, a pesar de que le niega a A papel sobre B. Es el mismo problema jurídico sobre el cohecho propio e impropio. Pero bueno, ya sabemos que hubo cohecho impropio (no hubo mecanismos de control sobre los conflictos de intereses, como parece ser que no hay en la ANEP).
EN definitiva, cómo fueron las evaluaciones de la ANEP el año pasado:
Como el trámite burocrático se demoró, hubo dos oleadas en la evaluación.
Quienes no tuvieron que subsanar documentos fueron evaluados con 15 días en una primera ronda, los evaluadores tuvieron menos carga de trabajo, porque se trataba de menos de 300 casos en total.
La segunda ronda fue de 1.100 proyectos y también hubo 15 días para evaluar. La ANEP confiera a los evaluadores el derecho de decidir si son competentes en el área del candidato, que como están inscritos en macroáreas, causa muchos problemas. Como la ANEP dio prisas y no había tiempo, los evaluadores puntuaron una gran cantidad de proyectos sin que se derivasen realmente a especialistas del campo. Las macroáreas más segmentadas (como es mi caso) se vieron perjudicadas.
A mediados de marzo de 2010, las evaluaciones llegaron al MEC y la comisión ponderó y ordenó las evaluaciones (sistema secreto). En teoría, dicha comisión debía verificar las evaluaciones: es decir, si había un candidato con un informe muy positivo y otro negativo, debía pedir a la ANEP que efectuase una tercera evaluación. Pero como no había tiempo e iban con retraso, la comisión aceptó las evaluaciones tal cual. Esto produjo en el área HA que 60 candidatos estuviesen agolpados en menos de 10 puntos de diferencia, porque los dos evaluadores no habían coincidido, porque no tenían competencia suficiente para evaluar proyectos tan dispersos. Asimismo, el señor X de mi hipótesis tuvo el detalle de poner en primeros lugares a los de su departamento y amigos, hecho que hizo que una vez publicada la lista con nombres y apellidos y puntuaciones correspondientes todo tuviese un aspecto muy feo. Me temo que este año no harán públicos el listado con nombres y apellidos más puntuaciones.