viernes, 15 de junio de 2012

Los Rankings Universitarios y la Prensa


En las capacitaciones sobre Calidad Universitaria, en las que he tenido el enorme gusto de compartir con colegas de casi todo el país, acostumbro enfatizar el tema de los rankings de educación superior para darles el lugar que corresponde y así evitar ese efecto boom que suelen tener en los medios de comunicación.

Uno de los aspectos a considerar, en primer lugar, es lo que el ranking mide puesto que cada ranking posee criterios técnicos para decidir qué información tomará de las instituciones sobre las cuales hará el típico ordenamiento.

Por ejemplo, el Academic Ranking for World Universities (más conocido como el ranking de Shangai) tiene como uno de sus criterios de inclusión para la calidad de educación (quality of education) el número de egresados ganadores del Premio Nobel o reconocidos con las más altas distinciones en sus respectivos campos académicos.

¿Qué tan relevante es este criterio como medida de la calidad de la formación de una universidad? Para medir el verdadero impacto, tendríamos que limitarnos a considerar la facultad donde el egresado estudió (y considerar el periodo en el que lo hizo) y excluyendo factores personales y su historial de formación complementaria en otras instituciones.

En este contexto, por ejemplo, la UNMSM subió varios puestos en algunos rankings luego de que Mario Vargas Llosa ganara el Nobel de Literatura (ojo que para algunos rankings no se considera el criterio mencionado, o es limitado a premios en ciencias básicas)

Otro aspecto a tomar en cuenta es la ponderación de los criterios del ranking, es decir, cada criterio tiene un peso relativo, además que de por sí los resultados de cada criterio implican una calificación, dado que los puestos a ocupar por las universidades deben ser producto de una cuantificación de sus resultados.

En el ejemplo anterior (Shangai y los premios Nobel) dicho criterio tiene una ponderación de 10% respecto a la calificación total de la tabla de puntajes.

Otra cuestión importante es la forma en que la información es recogida, esto implica dos cuestiones: primero, que no todas las instituciones son tomadas en cuenta para elaborar el ranking (aunque en los últimos años, internet ha ayudado mucho para aumentar la cobertura) y segundo, que no todas las instituciones tienen a disposición la información que los encargados de elaborar el ranking recogerán.

Así, para la lógica del armado del ranking, si la información de la institución no está disponible, se asume que no existe y se procede a la calificación y ordenamiento sólo con la información que se logró conseguir.

Respecto a este punto, el Quacquarelli Symonds, responsable del QS World University Ranking, para su edicción 2011 tuvo una cobertura de 712 instituciones de educación superior, aproximadamente el 0.04% del total de instituciones a nivel mundial.

----------------------------------------

Hace unos días, varios medios peruanos rebotaron los resultados del QS 2012, con los datos para Latinoamérica (aquí, aquí, aquí, aquí y aquí) Algunas notas con cierta tendencia alarmante, como la de El Comercio titulada "No hay universidades peruanas entre las 30 primeras en América Latina" cuando el ranking publica los 50 primeros puestos (la PUCP está en el puesto 31 de esta edición) Otras con errores como la de Publimetro que linkea erróneamente el Quacquarelli Symonds (el link de la nota nos manda a una web española de servicios empresariales)

Incluso las propias universidades interpretan la información de manera conveniente, San Marcos (UNMSM) publica una nota al respecto: "...la Decana de América lidera por segundo año consecutivo la lista de las universidades públicas peruanas que integran el Ranking de Universidades Latinoamericanas, desarrollado por QS.."

Los criterios de tipificación del QS son interesante:
- Tamaño de la institución (Size): de acuerdo a la cantidad de estudiantes que agrupa
Small: menos de 5 mil
Medium: más de 5 mil
Large: más de 12 mil
Extra Large: más de 30 mil
- Enfoque académico (Focus): de acuerdo a la cantidad de facultades por área del conocimiento (QS adopta cinco áreas del conocimiento: ciencias, tecnología, biomedicina, ciencias sociales, artes y humanidades)
Especialist: facultades en un área del conocimiento
Focused: facultades en más de dos áreas del conocimiento
Comprehensive: facultades en las cinco áreas del conocimiento 

Fully Comprehensive: facultades en las cinco áreas del conocimiento, incluyendo una facultad de medicina
- Intensidad de la Investigación (Research Intensity): se calcula con la data de investigaciones citadas e investigadores citados, respecto al total de miembros de la institución y el grado de enfoque académico (la fórmula de cálculo es diseñada por QS)
Limited or None
Moderate
High
Very High
- Antigüedad (Age)
Young 2: menos de 25 años
Established 3: menos de 50 años
Mature 4: menos de 100 años
Historic 5: más de 100 años

Sobre los indicadores del ranking QS para Latinoamérica:
Reputación académica 30% (en base a una encuesta a académicos)
Reputación laboral 20% (en base a una encuesta a empleadores)
Estudiantes 10% (ratios en base a cantidades totales y relativas)
Impacto en la web 10%
Docentes con PHD 10%
Investigaciones citadas 10%
Investigadores citados 10%

-----------------------
Como conclusión, la próxima vez que lea una nota periodística sobre rankings universitarios, dése un tiempo para conocer la ficha ténica del autor del ranking y tenga en cuenta que un ranking (sobre todo los que se emiten anualmente) difícilmente podrá medir el nivel de calidad de una institución.

Nota para despistados: aclaro que al exponer las limitaciones de los rankings no estoy sugiriendo que las universidades peruanas sean mejores que lo que el ranking demuestra; el objetivo de este post es considerar que existen otras estrategias para "medir" la calidad de la formación en las universidades, y que deberían tener tanto impacto mediático como el que actualmente poseen los rankings.

No hay comentarios:

Publicar un comentario