Amics de la Universitat Pública

Análisis de los resultados de la encuesta sobre el sistema de evaluación y régimen de dedicación (II)

Índice

Valoraciones cualitativas

  1. Indicadores docentes
  2. Indicadores de investigación
  3. Valoraciones libres
  4. Conclusiones

Continúa el análisis de las respuestas a la encuesta sobre el Sistema de evaluación y régimen de dedicación”. Con la primera entrega de este análisis se difundieron los resultados cuantitativos de la encuesta que Amical Universitaria propuso al PDI de la UPC.

En el presente documento se estudian las respuestas a las preguntas abiertas planteadas en el cuestionario, que podían ser redactadas libremente por los participantes proponiendo indicadores y dando una opinión global.

Invitamos encarecidamente a leer los textos originales escritos por los encuestados en el fichero recopilatorio de las respuestas. Este estudio es un resumen general que no puede preservar el detalle: se centra en resaltar las coincidencias, subrayando aquellos temas que preocupan al colectivo dada su reiteración en las distintas respuestas. Hay también un trabajo de interpretación y síntesis de propuestas agrupadas por similitud, cuyo redactado puede ser variado pero compartiendo un fondo. Sea como sea, es enriquecedor leer los textos que han escrito los participantes en la encuesta.

Valoraciones cualitativas


En la encuesta había tres preguntas abiertas donde se ofrecía la opción de redactar un texto libre sobre varios aspectos.

I – Indicadores docentes


La pregunta 8 pedía a los encuestados, con el texto “Quins indicadors sobre la docència afegiries“, opinar sobre qué indicadores docentes encontraban a faltar. Analizadas las respuestas se ofrece un resumen de las propuestas.

Propuestas de simplificación del sistema actual


Un número de respuestas sugieren de varias maneras que el sistema actual se debería simplificar, e incluso hay diversas propuestas concretas sugiriendo la eliminación de los siguientes indicadores: autoinforme, informe del departamento y jefe de sección, informe del centro, desarrollo profesional,  quinquenio, planificación docente.

Un punto en el que hay un gran consenso entre las respuestas: las encuestas a los estudiantes son sesgadas y no representativas. Parece ser que son un mecanismo que no contenta a nadie.

Una persona propone que la evaluación de docencia no sea anual sino plurianual.

Propuestas de nuevos indicadores


En lo que respecta a propuestas sobre nuevos indicadores, la figure 1 muestra un listado en orden descendente de frecuencia.

Figura 1: Indicadores docentes propuestos

Figura 1: Indicadores docentes propuestos

Bajo el epígrafe Encuestas en la figura 1 se agrupa un conjunto de mociones que versan sobre el tema de las encuestas a estudiantes. En el apartado anterior se comentaba que hay un gran consenso en que las encuestas a los estudiantes son sesgadas y no representativas, y por otra parte hay tantas propuestas relacionadas con este tema que forman el conjunto de respuestas con mayor frecuencia:

  • La principal petición es que se contraste de alguna manera la credibilidad del alumno que rellena la encuesta. Si un alumno, por ejemplo, ha asistido a la mitad de las clases o no ha dedicado el tiempo suficiente a la asignatura, su testimonio debería ser cuestionado.
  • También se propone agregar preguntas sobre cómo desarrolla el profesor su labor.
  • Y por último también se pide que se encueste a alumnos de años anteriores e incluso a alumnos ya titulados, pues son los únicos que tienen conocimiento real de si lo que les enseñó un profesor es de valor o no, con independencia de que fuera ‘enrollado’, exigente, o regalara el aprobado; son alumnos cuya evaluación tenderá a ser más objetiva, y no será fruto, por ejemplo, de una eventual venganza por haber obtenido un suspenso. Hay respuestas que sugieren también preguntar por la utilidad de los estudios en el desarrollo profesional posterior, y eso es algo que solamente los alumnos egresados pueden responder.

Los dos siguientes temas con una frecuencia algo menor (en número de respuestas) piden que se tengan en cuenta como ponderación para la valoración del PDI la impartición de docencia en dos casos concretos:

Los dos temas con frecuencia inmediatamente menor expresan la petición de que en la valoración del PDI se pondere la impartición de docencia en dos casos concretos:

  • en el caso de impartir muchas asignaturas distintas o en distintos centros
  • en el caso de impartir asignaturas de primer curso o masificadas.

Estos condicionantes afectan en gran medida y limitan la calidad de la docencia que se puede llegar a impartir y son factores distorsionantes sobre los que se percibe una total indiferencia por parte de la UPC. Desde la institución se sigue dando por sentado que la docencia de cualquier asignatura, en cualquier nivel, es equivalente a las demás, y se puede ofrecer de la misma manera, una presunción que cualquier profesor sensato juzgaría como radicalmente falsa.

Con un decremento de frecuencia que llega a la mitad de la correspondiente al anterior conjunto de respuestas, hay un grupo de 8 temas con frecuencias entre 3 y 6. Y finalmente hay un grupo de 12 temas con una frecuencia de 1 o 2. Para estos grupos de propuestas de menor frecuencia, los textos de la figura resumen elocuentemente las ideas expresadas, de modo que  no parecen necesarias más aclaraciones.

II – Indicadores de investigación


La pregunta 18, con el texto “Quins indicadors sobre la recerca afegiries“, instaba a proponer indicadores de evaluación de la actividad investigadora. De nuevo invitamos a los lectores a que acceden al fichero que acompaña a esta entrada para poder conocer de primera mano los textos escritos por los participantes, más allá del resumen global aquí realizado.

Varios participantes coinciden en criticar el sistema de evaluación actual en base a algo fundamental, a saber: que la institución no ha establecido unos criterios previos de aquello que busca, y por tanto está evaluando sin sentido ni criterio director.

La gran confusión

Como se verá a continuación, la gran mayoría del colectivo padece una gran confusión en lo que respecta al “sistema de evaluación y régimen de dedicación“. En el apartado de investigación, esta anomalía queda de manifiesto con mayor intensidad que en el apartado anterior, el de docencia.

Aunque la encuesta apuntaba, como explicaba su título, a una valoración del “sistema de evaluación y régimen de dedicación“, los participantes,  en este apartado “indicadores de investigación”, han respondido a un batiburrillo de cosas distintas. Han hablado sobre aspectos para la obtención de puntos (PAR/PAD/PAC/etc), de los criterios para la consecución de tramos, del sistema de evaluación, del régimen de dedicación, etc. En realidad es comprensible tanta confusión, que viene generada por la propia concepción del “sistema”, el cual en realidad es una amalgama de criterios mezclados y sin clara delimitación. Se exponen en este apartado los diversos criterios mencionados y sugeridos en la encuesta, con la idea de que sean los lectores quienes decidan por sí mismos cómo clasificarlos.

Propuestas de simplificación del sistema actual


Un grupo numeroso de respuestas aboga por simplificar el sistema.

Hay encuestados que proponen racionalizar la solución actual suprimiendo algunos indicadores:

  • La petición que tiene más apoyos es suprimir el requisito de tener doctorandos, arguyendo que no está al alcance de todos conseguirlo y por tanto es injusto.
  • Con menor respaldo encontramos la sugerencia de supresión de otros dos indicadores: suprimir el indicador de gestión -razonando que la gestión ya se evalúa aparte-, y suprimir el requisito de “sexenio vivo”,  porque no es algo obligatorio.
  • Por debajo en número de apoyos, consecutivamente, está la propuesta de eliminar el requisito de participación en proyectos -pues se considera que es un requisito puramente económico-, y que no tiene ningún criterio de investigación; y la propuesta de suprimir la valoración de revistas que requieren un pago de los autores, o que presenten indicios de fraude.

Otros proponen simplificar, en vez de eliminando criterios, corrigiendo los existentes. Correcciones propuestas son las siguientes, por orden de mayor a menor apoyo:

  • Poner límites al número de publicaciones aceptadas por persona y año. Razonan que, superado un límite, se entiende que no es posible hacer una aportación sustancial a una investigación. Ésto serviría además para reducir la cantidad de infiltrados en las listas de autores.
  • Al mismo nivel de apoyo está la petición de desligar la publicación de artículos de la participación en proyectos, y se aboga por que sean dos criterios separados.
  • Otra petición con bastante apoyo es la de utilizar indicadores distintos al SCI, que es un indicador de una empresa privada que sirve para promocionar su propias revistas, y utilizar otros, por ejemplo Social Science, H, CORE, Scopus o Google Scholar, Research Gate. En el mismo sentido, varios encuestados proponen contabilizar el impacto real sobre la sociedad de agencias estatales, pero no con indicadores privados que tienen un claro ánimo de lucro. Y se pide también que las revistas Open Acces tengan idéntica valía que las JCR.
  • Hay peticiones para ampliar el número de años de los artículos publicados y valorar los convenios/proyectos independentemente de su presupuesto.
  • En paralelo hay otras peticiones para contar ingresos totales de cada persona, no por cada proyecto por separado, y también ajustar los requisitos de ingresos por áreas temáticas.  Además se pide no dividir los ingresos de un proyecto entre el número de pagadores sino contabilizar el total.
  • Por último, hallamos estas peticiones: no exigir un minimo de puntos PAR a la participación en proyectos; reducir la valoración del índice de impacto; contabilizar el índice de impacto de las revistas; aumentar el número de publicaciones (puntos PAR) necesarias.

Como puede constatarse en este apartado, la valoración de la investigación es una tarea que se percibe con una notable confusión, cuando no se ve como excesivamente compleja. Miembros diversos de la propia comunidad, en investigación, demandan objetivos de valoración contrapuestos; no pasa lo mismo en el apartado de docencia. En investigación, mientras unos abogan por que no se evalúe la participación en proyectos -pues lo tildan de criterio meramente económico-, otros demandan que se contabilice la totalidad de los ingresos generados por un PDI, y no los ingresos aportados por cada proyecto por separado. Unos profesores piden reducir la valoración del índice de impacto y otros profesores contabilizarlo.

Recapitulando: el sistema de evaluación actual ofrece una solución muy controvertida, donde parece muy difícil, si no imposible, llegar a un consenso. La cuestión es si es posible organizar un sistema justo y equitativo para la comunidad universitaria al completo. La realidad empírica apunta a que, tal como está diseñado ahora, el sistema se basa en “vasos comunicantes” perniciosos, en el sentido de que lo que beneficia a unos perjudica a otros.

Propuestas de nuevos indicadores


Reflejando bien lo controvertido del sistema de evaluación en el apartado de la investigación, la figura 2 muestra la lista de indicadores de investigación que los participantes han sugerido -como posibles adiciones- en sus respuestas, ordenadas por orden de mayor a menor frecuencia.

Figure 2: Indicadores de investigación propuestos

Figura 2: Indicadores de investigación propuestos

Lo primero a subrayar es que las propuestas están muy repartidas y diversificadas, y no hay una clara ganadora. La petición más frecuente en investigación tiene frecuencia 7 mientras que la más frecuente en el apartado de docencia tiene frecuencia 22. En el ámbito de la investigación, hay, en efecto, una variabilidad notable de actividades distintas, y si se quieren valorar cabalmente todas mediante indicadores, el número de éstos tendría que ser enorme. Sin embargo, actualmente esto no sucede, y la lista de indicadores es muy restringida, en una visión tergiversada de lo que parece ser la investigación para los encuestados.

Dentro del grupo de 9 peticiones con frecuencia media (de 3 a 7), las tres principales son: que la manera de evaluar las publicaciones sea en base a las citas que recibe; que se distingan las áreas de conocimiento por sus particularidades; y que se contabilicen las patentes y los productos generados. Por último, hay 26 peticiones dispersas con frecuencia baja (1 o 2).

La figura 2 da a entender que, en verdad, para conseguir un sistema justo, ecuánime, donde la investigación quedase valorada en toda su versatilidad y potencialidad, sería necesario un algoritmo complejísimo que involucrara una infinidad de variables y casos particulares, lo que lo hace de facto inviable.

Si comparamos las figuras 1 y 2 se ve que hay muchas más peticiones en investigación que en docencia, 35 propuestas de indicadores para investigación más 9 propuestas de modificación del sistema, respecto de 23 indicadores para docencia más 3 propuestas de modificación del sistema. Además, así como en docencia hay una petición principal y dos peticiones muy frecuentes y un grupo con apoyo medio, en la de investigación no hay una petición principal, ni siquiera muy frecuente, solamente hay una con apoyo medio y el resto con apoyo bajo. Lo cual manifiesta la existencia de una variedad enorme de aspectos a ponderar en una labor investigadora; son tantos los aspectos a tener en cuenta que, desde un punto de vista neutral, la solución vigente, caracterizada por la pretensión de contabilizar todas y cada una de las posibles actividades -otorgando puntos a cada una de ellas-, se vuelve completamente ineficaz.

Por otra parte, una conclusión destacable en este apartado es que hay muchos factores relacionados con la investigación que no se están teniendo en cuenta.

III – Valoraciones libres


La pregunta 32 “Si us plau, fes els comentaris oberts que creguis oportuns sobre el «sistema d’avaluació i règim de dedicació»” daba la opción a los participantes de escribir cualquier comentario que considerasen pertinente. La figura 3 muestra el resultado de la encuesta, habiéndose procedido, tras la lectura de todas las respuestas, a la recopilación de los comentarios relevantes que hacían referencia al “sistema de evaluación y régimen de dedicación”, y a su interpretación y agrupación  por similitud. Solamente los temas en que al menos han coincidido 4 participantes quedan reflejados en la figura.

Figura 3: Valoraciones libres

Figura 3: Valoraciones libres

En la figura 3, dado que los datos proceden de un campo donde se podía escribir cualquier opinión, hemos escogido aquellos temas que presentaban al menos una coincidencia media. Como puede apreciarse, hay un número de temas pequeño, 9 en total. Hay otras 12 opiniones minoritarias que no se recogen en este resumen, y porque ya habían sido expuestas en los dos apartados de docencia e investigación.

La opinión más frecuente no sólo es que hay un notable desequilibrio valorativo entre docencia e investigación, sino que existe de hecho un verdadero menosprecio institucional por la docencia, e incluso que el sistema vigente interpreta el aumento de la docencia como un castigo; como si impartir docencia fuera algo perverso o indeseable. La mayoría de participantes no entiende por qué se asocia la docencia a una punición institucional.

La segunda opinión en frecuencia de apariciones responde a un matiz de la pregunta X24CalSistAvalInterna: “Crec important que la institució disposi d’un sistema d’avaluació propi amb independència de que els criteris siguin més o menys encertats“.. Ya se analizó en la primera parte del estudio que solamente un 20,4% de los encuestados estaban en contra de que la institución ofreciese un sistema de evaluación. Pero en las respuestas abiertas muchos han matizado ese parecer, argumentando que bastaría con que la institución controlase el cumplimiento de las obligaciones de su personal. A esto se suma la opinión de que el sistema de indicadores no satisface el fin para el que supuestamente sirve, y que es injusto y no riguroso. La suma de estos dos comentarios apuntan en la misma dirección y configura la opinión más votada.

La siguiente opinión indica que para un colectivo importante se percibe que el sistema tiene objetivos represores. En una dirección similar apunta otra de las opiniones, la cual manifiesta que el sistema no ofrece recompensas por hacer bien las cosas, solamente castigos por hacerlas mal.

Sigue la opinión de que el sistema genera un aumento innecesario de burocracia que finalmente interfiere en el quehacer diario, de modo que el método empleado acaba convirtiéndose más en una molestia que en una ayuda: parece que el sistema está ahí únicamente para justificar el trabajo de los gestores que lo controlan.

La figura 3 también refleja la opinión de que la institución se ha lanzado a la evaluación de tareas sin tener previamente unos objetivos delimitados. En las conclusiones de este escrito se comenta esta carencia, que nos parece de una gravedad incuestionable.

Otra queja formulada en las respuestas libres es que el sistema vigente padece constantes cambios, en el sentido de que aumentan las exigencias progresiva e inopinadamente, y de que eso vuelve imposible la tarea de estar al día y cumplir con requisitos aparentemente establecidos. Lo cual contribuye a generar un exceso de burocracia innecesaria, con las consiguientes pérdidas de tiempo, pues constantemente hay que estar buscando nuevas modificaciones que afectan a modificaciones anteriores. Metafóricamente, e incluso con sarcasmo, alguien ha escrito que la UPC funciona en la actualidad con la estrategia del palo y la zanahoria: no importa cuánto corras y cuánto te esfuerces, la zanahoria siempre estará igual de lejos.

Por último está la petición de que se incluyan en el sistema la totalidad de actividades que realizan los PDI, y no solamente el pequeño subconjunto que se tiene en cuenta actualmente.

IV – Recapitulación y conclusiones


Sobre la pasividad de la UPC

La UPC se ha dotado de un instrumento llamado “sistema de evaluación y régimen de dedicación del profesorado” que ofrece un presunto método de evaluación de la calidad del trabajo; pero la realidad es que la misma institución no ha sido capaz de hacer una revisión crítica de este sistema, tal como -por cierto- proponen los estándares de calidad vigentes. La UPC se ha embarcado en la propagación de un sistema posible (gratuito, sobrante, a tenor de muchas opiniones) y se ha enrocado en la actitud del wait and see, efectuando modificaciones puntuales en el funcionamiento de tal “sistema”, pero sin cuestionar nunca si lo que va aconteciendo dentro de él es positivo o se dirige a alguna meta.

Sobre los resultados del sistema

Implementar un sistema de evaluación de calidad puede hacerse con dos fines: comprobar la calidad de un producto, o bien mejorar la calidad. Ambos propósitos exigen un proceso de comparación.

Después de unos años sometidos al sistema de evaluación vigente en la UPC, puede analizarse comparativamente la situación de partida y la situación presente, y puede percibirse hacia dónde nos lleva la última; y cuáles han acabado por ser los objetivos de facto de la institución, ante la ausencia flagrante de objetivos explícitos.

El resultado es que las franjas A han aumentado un 14% tanto en investigación como en docencia. Pero los resultados son muy distintos si se mira docencia por un lado e investigación por el otro. En  docencia el aumento en valoraciones ha sido claro, las franjas C y D han quedado casi desiertas. En cambio, en el apartado de investigación las franjas C y D han quedado casi iguales y una porción de la franja B ha pasado a A.

Obervando estas tablas podría pensarse que en la UPC hay muy buenos docentes, y que, en cambio, hay un colectivo de holgazanes que no hacen investigación. Una segunda mirada permite apreciar, por determinadas respuestas a la encuesta, que la mayoría del PDI considera que hay un agravio comparativo en favor de la investigación y en contra de la valoración que merece la docencia, que se interpreta institucionalmente como un castigo. Implícitamente, se estaría fomentando la creencia de que la valoración en docencia “se regala”, y que, por el contrario, hay que pasar un calvario para obtener una buena valoración en investigación. El progreso en la evaluación de la docencia no es realmente una mejora –sugiere el dispositivo actual–, sino que se deriva de una relajación en los criterios de exigencia, lo que no ocurre en el apartado de investigación.

Queda meridianamente claro que la UPC se limita a observar cómo se desenvuelve la plantilla en su labor cotidiana, pero no hace nada para optimizar las condiciones de trabajo, ni considera los logros potenciales de sus afiliados. El objetivo del sistema actual, por tanto, y a tenor de los resultados de la encuesta, no ha sido nunca mejorar lo que existe, sino simplemente comprobar qué mal algunos lo están haciendo para poder penalizarles. Y para eso, para castigar a unos pocos, la inmensa mayoría carga con el lastre de una burocracia que perturba significativamente su labor diaria.

Sobre la ausencia de objetivos institucionales

El estudio demuestra que las franjas A de valoración han aumentado ambas un 14%. La pregunta que cabe hacer es, ¿ese incremento da a entender una mejor labor investigadora y docente, o simplemente una buena adaptación al sistema de evaluación?

Porque es sabido que todo método de evaluación acaba orientando sus metas. Este efecto orientador puede apreciarse en el registro histórico de la matriz de evaluaciones globales: las franjas A han engordado aumentando en un 14%; de acuerdo, podría decirse. Cierto efecto director modificaría el hábito de los sujetos evaluados, los cuales tenderían a reducir sus actividades, centrándose en aquellas orientadas a obtener una buena valoración y abandonando cualesquiera otras que no sirviesen a ese propósito. Concluyamos que si las actividades potenciadas van en la dirección de los fines de la institución, la reflexión es excelente. Pero si no fuera así, hay que dar la alerta, pues el “sistema” sólo estaría provocando un empobrecimiento de la actividad docente del PDI, una actividad que, de otra manera, quizá podría llegar a ser muy rica y variada, y creadora de mucho valor añadido.

Como corolario, sinó como obviedad, parece indispensable que el sistema evalúe elementos directamente relacionados con objetivos institucionales. La formulación explícita de estos últimos es crucial. Si no se entiende así, el resultado puede ser perverso, pues objetivos heterogéneos (contingentes, personalistas, interesados…), sin nada que ver con objetivos de una institución universitaria, serían altamente disruptivos. Por ejemplo, si se valora la dirección de un proyecto de ámbito estatal, los profesores tenderán a tener un proyecto estatal. Si, por el contrario, se valora el número de proyectos dirigidos y la suma de ingresos en caja, el PDI tenderá a conseguir cuantos más proyectos mejor, intentando maximizar la cantidad de dinero ganado.

¿Y cuáles son los objetivos de la UPC? ¿La dirección de un proyecto estatal, o la dirección del máximo número de proyectos posible, maximizando los ingresos obtenidos?

Un escollo que presenta el “sistema de evaluación y régimen de dedicación” de la UPC es, en efecto,  la falta de unos objetivos institucionales claros y concretos que sirvan para articular posteriormente un sistema de promoción de actividades consecuentes con esos objetivos. Es algo evidente. Este gravísimo diagnóstico de la situación es compartido por muchos de los encuestados.

Sobre el desequilibrio entre docencia e investigación

Subrayemos el desequilibrio que existe, en las cifras que se publicitan del dispositivo actual sometido a encuesta, entre el peso y la importancia que se otorga a docencia e investigación, respectivamente: mientras un 70% del total de la UPC tienen una A en docencia, solamente un 56,8% llegan a la A en investigación. Esa misma tendencia se encuentra en las respuestas a nuestra encuesta: hay un menor número de A’s en investigación que en docencia.

Entre los implementadores (el equipo rectoral anterior) y los fomentadores (el equipo rectoral actual) del sistema de evaluación vigente, parece extenderse la divisa de que “cualquiera que sepa leer y escribir puede impartir docencia” (¡frase literal de un ex-vicerrector de la institución!), mientras que solamente unos pocos, especialmente dotados, llegarían a ser capaces de investigar. Es decir, en caso de que la UPC persiga algun objetivo concreto (lo que está por demostrar), quizás el sistema esté diseñado para mantener las diferencias entre los que ya eran buenos investigadores -con horizonte H- y los que pugnan por conseguirlo; aunque, eso sí, sin que la universidad ponga en ningún caso medios para salvar la distancia entre unos y otros.

Sobre la confusión de criterios

En la entrega anterior se estudió la respuesta a dos preguntas:

  • X31SuficientDivulgCanvis con el texto “El canvis en la normativa i el sistema d’indicadors son suficientment divulgats i amb temps suficient per permetre l’adaptació de l’activitat del PDI a la nova normativa i no sofrir sancions retroactives
  • y X25ProuInformRequisits con el texto “He estat suficientment informat sobre els requisits per assolir els diferents indicadors“.

Pues bien, un 40% sugiere que es falso que haya suficiente información sobre los requisitos, y un 62,4% apunta a que es falso, asimismo, que los cambios en el sistema se divulguen adecuadamente. Estas cifras condenatorias deberían ser mucho mayores, pues en realidad los encuestados están solapando varias cosas que el sistema involucra en la evaluación; muchos profesores no tienen consciencia de cuán desinformados están. En las respuestas de los encuestados a la pregunta 18 “Quins indicadors sobre la recerca afegiries“, se percibe una hibridación de diversos apartados y conceptos en las respuestas. Aunque es posible que los profesores de la UPC  estén evaluados de manera tan sofisticada que ya no entiendan nada, es decir, que no estén a la altura de tan egregio mecanismo o algoritmo. Dicho con humor prosaico, al final un PDI no sabe de dónde “van a venirle los palos”, de modo que lo único que debe preocuparle -parece ser- es que el sistema contabilice las actividades eventualmente realizadas, sin importar dónde ni cuándo.

Tanta confusión y tanto desconocimiento son, por supuesto, atribuibles a la UPC, que en su obsesión por tatuar a los profesores con letras del abecedario, ha abandonado la tarea principal de informar sobre la finalidad del alfabeto del “sistema” (por ahora críptico). El proceso de evaluación, hoy por hoy, se realiza de arriba hacia abajo (top down) por parte de quienes parecen considerarse amos y dominadores de la ciencia, por parte de quienes se arrogan el don de establecer patrones académicos universales -de fines inciertos- en los que todos deben encajar. Si por ventura a algun mortal no le encajara ese guante -y la encuesta de Amical alerta de la deficientísima confección de la prenda-, entonces lo mejor es que la persona en cuestión se cambie la mano, o peor, que se la ampute.

Sobre la apreciación negativa del sistema

Los encuestados opinan mayoritariamente que los cambios en el sistema son constantes y no se comunican adecuadamente, que el sistema vigente es desequilibrado y que ha degradado su actividad docente como resultado. Además, dicen que el sistema les desmotiva, y que no es un buen sistema. La crítica general parece demoledora, y los culpables del despropósito serían tanto el staff dirigente de la UPC  como las organizaciones sindicales, pues estas últimas, con cierta connivencia o pasividad, han pactado este sistema.

Sobre la división generada en la comunidad PDI

Al analizar la predisposición al castigo de los diferentes colectivos con valoraciones en investigación, ya se comentó el problema . Es curioso –se dijo– que no existan las diferencias entre colectivos de profesores con valoraciones en docencia. Por su parte, el mecanismo de valoración de la investigación ha generado varios grupos de opinión diferenciados en el seno de la comunidad PDI:

  • un colectivo con evaluación A que exige a los demás pasar por su via crucis, o bien que se les castigue;
  • un colectivo con evaluación B que, básicamente, pide ayuda;
  • por último, los profesores evaluados con C’s y D’s, los cuales, siendo quienes más soporte necesitarían, son en cambio más propensos a aceptar una punición, en una extraña ocurrencia sociológica del llamado “síndrome de la víctima narcisista”.

Lo que ha conseguido el sistema actual de nuestra universidad es, en definitiva, declarar proscrito a un colectivo muy significativo de PDI (un 22% de la plantilla total), asignándole sendas valoraciones C y D en investigación, o, lo que es lo mismo, arrojando a muchos profesores a un hoyo del que no podrán salir. La anomalía estadística en este caso son algunos profesores que parecen sufrir cierta extorsión emocional por parte de la institución, pues, sintiéndose estigmatizados, estas personas han llegado a creer en “su propia maldad”, y de alguna manera están pidiendo que se les castigue.

No consideramos que ese deba ser el sistema por el que se deba articular nuestra universidad.

Sobre la idoneidad de un sistema de indicadores

Las propuestas de nuevos indicadores de investigación, en la eventualidad de que existiera un nuevo sistema, constatan el absurdo y el contrasentido que supondría atender a la numerosísima cantidad de indicadores necesarios para implementar un sistema justo. De hecho, como se mencionó, varias respuestas abiertas de los participantes apuntan a que un sistema de indicadores, ya de por sí, parece inadecuado para lograr lo que se pretende. Muchos opinan que bastaría con un sistema de comprobación de las obligaciones del PDI, que seguramente sería mucho más efectivo.

Print Friendly

2 Comentarios

  1. Joan Salaet Joan Salaet
    8 febrero, 2016    

    En vista a la disparidad de criterios no iría nada mal el convocar unas jornadas o algo parecido donde los miembros del pdi (ojalá todos) expusiéramos nuestras ideas y aprobáramos un acuerdo. Algo que sirva como criterio para establecer un camino a seguir en cuanto a nuestro régimen de dedicación. Lo digo porque esta Universidad (me temo que todas) no parará de ejercer de correa de transmisión entre el Consell Social (al cual no vota ni Dios) y los currantes. Un criterio por el cual nos podamos guiar y que se cumpla por parte de tod@s.

    Por lo menos estaría bien tener un documento surgido desde la base. Sin negociar a escondidas como algun@s parece que están haciendo desde hace meses y meses.

  2. Francisco Hernández Abad Francisco Hernández Abad
    1 febrero, 2017    

    Particularmente considero que las encuestas de opinión no deberían poder formar parte de un sistema de valoración y menos aún con repercusiones económicas ya que al ser anónimas, opcionales y subjetivas pueden dar lugar a deformar la visión de la realidad y a intentos de estudiantes para desprestigiar a un profesor que esté realizando bien su labor, y que se sentirá abandonado por la institución y sin posibilidad de defensa alguna.
    La redes sociales facilitan ese tipo de acciones, que pueden atentar contra la dignidad de las personas y ante lo que no cabe interponer una denuncia porque se les permite tirar la piedra y esconder la mano.
    Todos los que hemos dado clase durante muchos años en la universidad sabemos de casos que se han producido y que no hubieran sido posibles si las encuestas fuesen eso “Una herramienta para detectar y corregir la forma de impartir la docencia, pero también para detectar deficiencias en instalaciones, software, equipos, aulas, masificaciones etc”.
    Nunca he tenido la percepción de que la comunidad haya querido escuchar cómo se puede incrementar la calidad del tipo de enseñanza que imparto, más bien percibo que quiere abaratarse su coste o rebajar sus objetivos para contentar a una parte de la comunidad.

No Pings Yet

  1. Balance de 2016 | | Amical Universitaria on 1 febrero, 2017 at 08:48

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Recibe noticias del blog por correo electrónico

Introduce tu correo electrónico para recibir notificaciones de nuevas entradas el blog .

Videos

Defensem la dignitat del professorat