Kitabı oku: «Educación superior, gestión, innovación e internalización», sayfa 2

Yazı tipi:

En contraste con los rankings anteriores, los cuales se caracterizan por considerar únicamente la investigación, U-Multirank incorpora múltiples dimensiones, intentando con ello superar sus limitaciones y problemas.

Metodologia

Un ranking de IES es un conjunto ordenado en el cual la posición de cada una está determinada por el puntaje final que obtiene como resultado de sumar los valores de los indicadores que integran la metodología correspondiente. La presentación de los resultados puede adoptar el formato de una tabla de posiciones como en el caso de ARWU, THE y QS, o adoptar otras formas de representarlos, por ejemplo, aquellas utilizadas en SClmago y U-Multirank. En una tabla de posiciones, que es el formato adoptado por los tres primeros, se le asigna la primera posición a la institución que logra el puntaje mayor; a la que logra la puntuación menor más cercana se coloca en la segunda, y así sucesivamente. Este orden incluye a todas las IES participantes de manera que para cualquier par de éstas, una ocupa una posición superior o bien una inferior con respecto a la otra (Rauhvargers, 2011). En la mayoría de los casos, el puntaje final se consigue a partir de las siguientes decisiones metodológicas: a) se define un conjunto de indicadores, los cuales miden una o varias dimensiones de las universidades. Generalmente los valores de éstos pertenecen a diferentes tipos de desempeño, por lo que se les sujeta a un proceso de homogenización a través de un tratamiento matemático por medio de procedimientos de estandarización8 y normalización;9 y b) se estipula un porcentaje determinado a cada indicador, o categoría de éstos, en el puntaje final,10 el cual pasa a ser un indicador compuesto que funge como representación (proxy) de la calidad de una IES (Longden, 2011).

En el resto de la sección se describen, en primer lugar, los indicadores de ARWU, THE y QS y el peso que se les asigna en cada caso. Posteriormente, se abordan los rankings Leiden y SClmago en virtud de que presentan una variante metodológica importante. En ARWU los indicadores de investigación reciben el 40% en el puntaje final. Sin embargo, en la realidad este peso aumenta al 90%, en vista de que la calidad del aprendizaje y la del cuerpo académico también se miden por otros indicadores de investigación como lo son la obtención de premios Nobel, o equivalentes, por parte de los egresados y académicos, con la salvedad de que en este último caso también se incluye como criterio el pertenecer al grupo de los investigadores más citados en 21 disciplinas11 de acuerdo con los criterios de Thomson ISI (Tabla 2).

Tabla 2.ARWU: indicadores y porcentaje en el puntaje total


CategoríaIndicador% en el puntaje total
Educación/FormaciónEgresados recipientes del Premio Nobel o distinciones extraordinarias en su área de investigación10
AcadémicosAcadémicos recipientes del Premio Nobel o distinciones notables a nivel global y el alto índice de citas HiCi40
Producción científicaProducción: número de publicaciones en Nature and Science Impacto: citas en Science Citation Index and Social Science Citation lndex40
Productividad per cápitaProductividad de la institución por cada académico10
Total100

Fuente: ARWU, <http://www.arwu.org/>.

Por lo que toca a la producción científica misma, ésta se mide a través de indicadores bibliométricos.12 Una de las características de éstos es que sus valores se pueden obtener de fuentes globalmente transparentes, que no dependen de encuestas de opinión o de datos proporcionados por las instituciones mismas.13 Se excluye la medición del aprendizaje por las dificultades técnicas para obtener información que sea internacionalmente comparable (Liu & Cheng, 2005).

Por su parte, la metodología del THE World University Ranking,14 en colaboración con Thompson Reuters, busca evaluar IES de clase mundial, tomando en cuenta la investigación, junto con otros componentes de su misión: formación de capital humano, transferencia de conocimientos e internacionalización. Con este fin incorpora 13 indicadores, de los cuales más de la tercera parte de la puntuación final se obtiene a partir de medidas bibliométricas y el 34.5% se basa en encuestas de reputación sobre docencia e investigación entre académicos de reconocido prestigio.15 Sin embargo, en la ponderación final se sigue dando mayor importancia a esta última función ya que se le otorga más del doble del puntaje final (62.5%) del peso que se le asigna a la docencia (30%), (Tabla 3).

Tabla 3.THE World University Ranking: indicadores y su peso en el puntaje total16



Fuente: THE, <http://www.timeshighereducation.co.uk/world-university-rankings/2011-2012/analysis-rankings-methodology.html>; THE, <http://www.timeshighereducation.co.uk/world-university-rankings/2011-2012/reputation-methodology.htm>.

En contraste con ARWU, el ranking QS incluye, además de indicadores para la investigación, otros para las siguientes dimensiones de las universidades de clase mundial: la empleabilidad de los graduados, la formación de capital humano por medio de la docencia y la internacionalización.17 QS incorpora una alta proporción (hasta un 50%) de la evaluación de pares y empleadores, la cual se lleva a cabo por medio de encuestas de reputación con confiabilidad estadística (Tabla 4). Esto se justifica aduciendo que con este enfoque se busca disminuir la influencia de sesgos culturales tales como la preferencia por el modelo norteamericano de universidad de investigación, o el prejuicio a favor de las ciencias duras. Para América Latina, el ranking QS excluye los indicadores de internacionalización y agrega los siguientes: artículos por académico, proporción de académicos con doctorado y presencia en la Web (a partir de los resultados de Webometrics)18

Tabla 4. QS World University Rankings: indicadores y porcentaje en el puntaje total


IndicadoresPorcentaje en el puntaje totalFuentes
Reputación de la investigación40Encuesta en Internet entre pares
Reputación entre empleadores10Encuesta en Internet entre empleadores
Citas por académico20Base bibliométrica SCOPUS
Proporción de estudiantes por académico20Se incluyen estudiantes de pre-grado y graduados
Proporción de estudiantes internacionales5El cálculo adolece de una definición precisa de estudiantes internacionales.
Proporción de académicos internacionales5El cálculo adolece de una definición precisa de académicos internacionales
100

Fuente: QS, <http://www.iu.qs.com/university-rankings/rankings-indicators/>.

La comparación de los indicadores y su peso en el resultado total revela diferencias significativas entre el peso que tienen los de investigación y el asignado a los que buscan medir la formación de capital humano. En tanto que ARWU (80%), THE (62.5%) y QS (60%) le dan a los de investigación el mayor porcentaje (Tabla 5), los correspondientes al aprendizaje quedan reducidos en cada caso al 10%, 30% y 20% respectivamente (Tabla 6). Esta aparente falta de proporción a favor de la generación de conocimientos se justifica en gran medida por el hecho de que estos rankings globales se proponen evaluar a instituciones que satisfacen el modelo de universidad antes mencionado (Baty, 2011a; Liu & Cheng, 2005). La selección de éste, se explica también por las dificultades que hasta ahora hay para llevar a cabo comparaciones globales con otros tipos de universidades (Marginson & Wende van der, 2007a).

Tabla 5. Rankings globales: indicadores de investigación


Fuente: ARWU, <http://www.arwu.org/>; THE, <http://www.timeshighereducation.co.uk/world-university-rankings/2011-2012/analysis-rankings-methodology.html>; QS, <http://www.iu.qs.com/university-rankings/world-university-rankings/>.

Tabla 6. Rankings globales: indicadores de aprendizaje


Indicadores de aprendizajeARWUTHEQS
Reputación de los académicos como docentes--15--
Número de doctorados otorgados por académico--6
Proporción de estudiantes de pregrado por académico--4.520
La proporción de doctorados otorgados en relación con el número de graduados del primer ciclo--2.25--
Ingresos de la institución por académico2.25
Egresados que han obtenido premios Nobel; así como reconocimientos extraordinarios en su área de especialización10----
Peso de los indicadores de docencia y aprendizaje en el puntaje total103020

Fuente: ARWU, ;<http://www.arwu.org/> THE, <http://www.timeshighereducation.co.uk/world-university-rankings/2011-2012/analysis-rankings-methodology.html>; QS, <http://www.iu.qs.com/university-rankings/world-university-rankings/>.

Por lo que respecta a la internacionalización, sólo THE y QS incluyen indicadores para medir la presencia de estudiantes y académicos internacionales, otorgándoles un peso de 5% en el primer caso y 10% en el otro en el puntaje total. Con ello, se limitan a medir actividades de internacionalización de tipo tradicional, sin incorporar el concepto actual de internacionalización comprehensiva. Ésta ha sido definida como «un compromiso, que se corrobora en la acción, para infundir una perspectiva internacional y comparativa en las misiones de enseñanza, investigación y servicio de la educación superior, configurando con ello el ethos y los valores institucionales, impactando así a todo el quehacer educativo. Es esencial que sea adoptada por el liderazgo institucional, la gobernanza, los académicos, los estudiantes y las unidades de servicios académicos y apoyo. Se trata de un imperativo institucional y no de una posibilidad que es deseable» (Hudzik, 2011).19 La ausencia de este concepto en los rankings globales resulta extraña en vista de que la internacionalización forma parte de las características básicas de las universidades de clase mundial (Salmi, 2009).

Rankings sin tablas de posiciones: Leiden y SCImago

Los rankings Leiden y SCImago se concentran exclusivamente en el desempeño de la investigación y ambos se caracterizan por obtener un puntaje que no es la sumatoria de varias medidas sino que jerarquizan las IES con base en el total obtenido en cada indicador (Waltman et al., 2012). La regla general en estos casos es presentar los resultados por medio de una serie ordenada por sólo uno de éstos. Así, los resultados de SCImago se presentan en una sola tabla, la que en cada renglón muestra los puntajes de una IES en cada uno de los siete indicadores anteriores, pero cuyo orden está determinado sólo por el indicador de producción científica; en esta forma se evita la jerarquización de IES a partir de un indicador compuesto y con ello la formación de una tabla de posiciones (SCIimago Institutions Rankings, 2012).

3. LIMITACIONES Y PROBLEMAS DE LOS RANKINGS

Los rankings globales han recibido críticas desde diferentes ángulos. Por una parte, se ha señalado una serie de deficiencias que, siendo inherentes a cada metodología, identifican limitaciones comunes que se deben tomar en cuenta al usarlas como instrumentos de evaluación y transparencia; así como en su función de producir información para la toma de decisiones estratégicas sobre reforma educativa y asignación de fondos. Por otro lado, se han hecho críticas específicas, de diferente índole, a cada uno de ellos. En esta sección se examinan estas objeciones en el siguiente orden: 1) obstáculos que se derivan de un concepto de calidad que es incompleto y parcial; 2) dificultades inherentes al procedimiento de cálculo y a los indicadores mismos.

Falta de consenso en el concepto de calidad

En la sección anterior, se vio que las metodologías de ARWU, THE y QS comparten con muchos rankings nacionales el seleccionar indicadores y asignarles pesos específicos para llegar a una cifra final única (Salmi & Saroyan, 2007). Desde su surgimiento se han señalado varias dificultades concomitantes con esta orientación metodológica (CHERPA-Network, 2010; Hazelknorn, 2011a; 2012a; Lloyd, Ordorika, & Rodríguez-Gómez, 2011; Marginson & Wende van der, 2007a; Marginson & Wende van der, 2007b; Salmi & Saroyan, 2007).También se ha observado que los indicadores seleccionados tienen limitaciones, en algunas ocasiones drásticas, para medir la realidad que buscan representar. En cada ranking, los indicadores y sus porcentajes correspondientes se determinan a partir de un conjunto de supuestos que asumen implícitamente un concepto de lo que constituye la calidad de la ES. Por esta razón sería de esperarse que la metodología de cada ranking partiera de una discusión amplia sobre esta noción. Sin embargo, los juicios en que se basan estas decisiones básicas –los indicadores mismos y sus pesos correspondientes– no son explícitos ni tienen la sistematización requerida20 como se vio en la sección anterior, creándose la impresión de que, en última instancia, los guía una inclinación subjetiva, o bien consideraciones prácticas sobre la disponibilidad y confiabilidad de la información que se requiere para determinar sus valores, tal como se ha señalado por Dill and Soo (2005), Kehm and Stensaker (2009), Longden (2011), Marginson and Wende van der (2007a), Usher and Medow (2009), Usher and Savino (2006), and Vught van and Ziegele (2012). En particular, las razones por las cuales se elige cada indicador, en vez de otros del mismo tipo, no se apoyan en una fundamentación teórica (Vught van & Westerheijden, 2010). Esta falta de bases constituye un hueco metodológico que se ha señalado como un elemento de arbitrariedad en estos rankings. Ello ha dado como resultado la falta de consenso en el concepto de calidad que en cada caso se asume (Hazelkorn, 2012a). La relatividad de estos rankings, mostrada en esta falta de acuerdo, no es una objeción definitiva en sí misma, ya que cada uno podría estar asumiendo un enfoque parcial sobre lo que constituye la calidad de la ES, que sería complementario a los demás. Desafortunadamente esto no es posible como se verá en el siguiente apartado.

Un solo modelo de universidad

Como se mencionó en la tercera sección, los rankings ARWU, THE y QS consideran de manera preferente la investigación al comparar y evaluar IES. Esta decisión se basa en tres supuestos: 1) que la calidad de la enseñanza y el aprendizaje está determinada por la investigación que se lleva a cabo en una institución; 2) que las IES con mayor calidad, es decir aquellas que son de clase mundial, son las dedicadas a la investigación intensiva con resultados «de punta»; 3) es difícil conseguir información confiable y relevante que pueda ser internacionalmente comparable en funciones universitarias como el aprendizaje, la transferencia de conocimientos o el involucramiento regional. Basta recordar que ARWU (80%), THE (62.5%) y QS (60%) le asignan a los indicadores de investigación el mayor porcentaje (Tabla 5), y los indicadores de aprendizaje quedan reducidos al 10%, 30% y 20%, respectivamente (Tabla 6). De acuerdo con las empresas que los producen, esta falta de proporción se justifica en gran medida en el hecho de que se evalúa un tipo particular de universidades (Baty, 2011a; Liu & Cheng, 2005). Las razones para esta preferencia se explican, en parte, por las dificultades para llevar a cabo comparaciones globales con otros modelos de universidades (Marginson & Wende van der, 2007a). Con ello, se reconoce implícitamente que estos rankings son inadecuados para evaluar el desempeño de IES con una misión diferente. Por lo demás, el precio de tener como parámetro al modelo de universidad de investigación de clase mundial, y específicamente a su modalidad norteamericana, es la exclusión de otras instituciones con altos estándares de calidad académica como es el caso de IES de tipo vocacional y tecnológico de gran prestigio mundial como las Fachhochschulen de Alemania y las Grandes Écoles de Francia. Con ese enfoque, se deja fuera también a instituciones como los colegios de artes liberales (Wende van der, 2008). Esta consecuencia refuerza aún más la conclusión del párrafo anterior de que hay aspectos de la calidad de la ES que no se consideran en los rankings como THE y QS.

Otra razón que muestra lo insuficiente que es evaluar el desempeño de todas las IES con una sola dimensión es que no existe una relación necesaria entre la investigación, la calidad de la docencia y la del aprendizaje de los egresados (Verburgh, Elen & Lindblom, 2007). Desde luego, esta relación no debe confundirse con la implementación de actividades de aprendizaje basadas en enfoques docentes que ejercitan habilidades cognitivas de orden superior utilizando modelos de razonamiento científico como el planteamiento de problemas y el diseño de preguntas e hipótesis de investigación.21 Más aún, no hay métodos globalmente aceptados para medir la calidad de la docencia y evaluar su impacto en los estudiantes (Altbach, 2006). Esto sugiere que la contribución de la investigación a la formación de los estudiantes se debe buscar a través de los resultados de aprendizaje, es decir, midiendo los conocimientos, habilidades y actitudes que poseen los estudiantes al graduarse. Ésta es una de las razones que hacen promisoria la evaluación internacional de éstos como se propone hacerlo el programa Assessment of Higher Education Learning Outcomes (AHELO), (Nusche, 2008).

La dificultad de comparar el desempeño de las IES también se debe a razones metodológicas señaladas reiteradamente por varios autores (Dill & Soo, 2005; Hazelkorn 2012a; 2012b;Liu & Cheng, 2005;Lloyd, Ordorika & Rodríguez-Gómez, 2011;Marginson & Wende van der, 2007a; 2007b;Ordorika & Rodríguez-Gómez, 2010; Raan van, 2007; Salmi and Saroyan, 2007; Wende van der, 2008;Wende van der & Westerheijde; 2009). Estas críticas señalan varias limitaciones que surgen como consecuencia de:

a. El número reducido de indicadores en contraste con los usados en los rankings nacionales.

b. El uso de indicadores que no reflejan adecuadamente la calidad que pretenden medir.

c. El proceso mismo mediante el cual se calcula el puntaje final; y

d. El hecho mismo de representar la calidad de una institución a través de una cifra final única.

A continuación se abordan brevemente algunas de estas deficiencias.

Limitaciones en la selección de indicadores

Por la dificultad de recabar información confiable en fuentes internacionales, ARWU, THE y QS usan un número reducido de indicadores en contraste con los rankings nacionales. Si a esto se agrega que se restringen a un solo modelo institucional, se tiene el riesgo de distorsionar los resultados (Vught van & Westerheijden, 2010). Sin embargo, una limitación mayor de los indicadores se encuentra en que carecen de los recursos para fungir como representaciones de realidades complejas.

Problemas con el cómputo de una cifra final

El proceso de cómputo vuelve a introducir el problema de la falta de fundamentación. No es sólo la falta de consenso sobre un concepto de calidad, sino que el cálculo de la cifra a partir de la cual se asigna una posición también carece de bases sólidas (CHERPA-Network, 2010; Dill & Soo, 2005; Longden, 2011; Marginson, 2012; Rauhvargers, 2011; Vught van & Ziegele, 2012; Wende van der & Westerheijden, 2009). Por otra parte, la interpretación de la calificación final plantea un problema adicional: ¿Es posible representar el desempeño de una IES a través de un solo valor numérico? Esta pregunta no hace sino volver a plantear lo que constituye una de las limitaciones más importantes de estos instrumentos: no tener un concepto objetivo e incluyente de lo que constituye la calidad de la ES. Los rankings globales le asignan a cada institución una posición definida como si fuera un todo homogéneo, sin tomar en cuenta su diversificación interna, tanto horizontal como vertical (CHERPA-Network, 2010; Wende van der, 2008). Es común que las facultades o departamentos de una universidad tengan diferente prestigio; así mismo es frecuente que tengan unidades académicas con distintos grados de consolidación o dedicadas a varias funciones. Considérese, como ejemplo, el caso de instituciones como la Universidad Nacional Autónoma de México (UNAM) para percatarse de la dificultad de evaluarla holísticamente, dada la variedad de ciclos educativos, facultades, escuelas, institutos de investigación, y etapas de crecimiento y maduración de cada dependencia académica.22 Esta diferenciación dificulta la comparación holística de las IES dentro de un sistema de ES, y es un obstáculo para contrastarlas con instituciones de otros países y regiones del mundo. Finalmente, la metodología de los rankings como ARWU, THE y QS tiene la falla de que al asignar posiciones absolutas se da el caso de que un cambio en el lugar no corresponde, en realidad, a las diferencias estadísticas que se dan en los puntajes que obtienen (Wende van der, 2008).

4. ALTERNATIVAS A LOS RANKINGS GLOBALES

Esta sección se ocupa brevemente de tres proyectos que desarrollan, cada uno, distintos enfoques para superar las limitaciones de los rankings globales, especialmente las del primer grupo (ARWU, THE y QS). Estas iniciativas son: 1) el desarrollo de U-Multirank, un ranking que incluye una tipología de IES más allá de las universidades de investigación;23 2) el programa AHELO de la OCDE, todavía en etapa de factibilidad; y 3) el ranking U21 Ranking de Sistemas de Educación Superior 2012.

El proyecto U-Multirank

U-Multirank es un proyecto, lanzado por la Comisión Europea el 2 de junio de 2009, para determinar la factibilidad de un ranking global de universidades, multidimensional, en el cual los usuarios puedan interactuar. El proyecto estuvo a cargo del Centro para el Desarrollo de la Educación Superior (CHE)24 y del Centro para Estudios de Política Educativa de la Educación Superior (CHEFS). En el estudio piloto participaron 159 IES de 57 países: 94 (68%) de éstas de Europa y 65 (32%) de otras regiones del mundo.25 Éste tuvo dos etapas: la primera, de diseño y consulta, terminó hacia finales del 2009; y en la segunda, se buscó probar la metodología y factibilidad de U-Multirank en dos áreas: negocios e ingeniería. Los resultados finales de la fase piloto se presentaron en junio del 2011 (Vught van & Ziegele, 2011).

Metodológicamente, U-Multirank está orientado a incluir todas las funciones de las IES y evita la selección de indicadores y porcentajes basada en supuestos parciales de lo que constituye la calidad de la ES. Los resultados no se presentan en el formato de tabla de posiciones ni se basan en una cifra final agregada. Las dimensiones de U-Multirank se derivan de las tres funciones sustantivas de las IES, docencia y aprendizaje, investigación, transferencia de conocimientos más sus dos ámbitos de interacción: internacionalización e impacto regional. A su vez, éstas se dan en dos etapas distintas como se señaló arriba: la ejecución y la generación de los productos (insumos y procesos) e impactos del desempeño (productos e impactos). Por lo tanto, hay cinco dimensiones, divididas cada una en cuatro fases. Incorpora en su conjunto más de 40 indicadores. U-Multirank tiene varios modos de presentación de los resultados. Entre éstos se destaca la representación multidimensional de perfiles institucionales por medio de gráficas de rayos solares.26 Los resultados de las instituciones con un perfil semejante se presentan en tablas que no muestran un orden jerárquico, sino que reúnen los diferentes niveles de desempeño con respecto a cada una de las dimensiones. Una de las dificultades operativas fue recabar la información misma, en vista de que ésta depende en gran medida de la participación de las propias universidades. Por otra parte, se ha objetado que los indicadores institucionales no han tomado en cuenta las misiones de cada IES (Beer, 2011). El resto de las críticas como las publicadas en (Baty 2011b; 2012) han tendido más a defender a los rankings globales que a señalar deficiencias metodológicas inherentes a esta alternativa. Faltan, por lo tanto, estudios de tipo analítico y crítico que propongan una discusión informada y sin sesgos.

El proyecto AHELO de la OCDE

Como se ha visto más arriba, los indicadores utilizados en los rankings globales no evalúan la calidad de la enseñanza y el aprendizaje directamente; mucho menos podrían hacer comparaciones internacionales en este rubro. El proyecto AHELO de la OCDE busca llenar esta laguna evaluando los resultados de aprendizaje de los estudiantes hacia el final del primer ciclo de la ES, en diferentes países. Esta iniciativa se encuentra en la etapa de factibilidad, circunscribiéndose a un subconjunto de habilidades genéricas: el pensamiento crítico, el razonamiento analítico, la capacidad para resolver problemas y la comunicación por escrito, además de valorar el aprendizaje en dos áreas disciplinares: la economía (OCDE: 2011a) y la ingeniería civil (OCDE, 2011b; Tremblay, Lalancette & Roseveare, 2012). Uno de los aspectos más interesantes de este programa es su interface con el proyecto Tuning por lo que toca a la metodología para definir resultados de aprendizaje como competencias específicas a profesiones y disciplinas (Nusche, 2008). No obstante de que se trata de un proyecto sólidamente fundado en su aspecto conceptual y estadístico, AHELO tiene que despejar las dudas que despierta la evaluación por medio de pruebas estandarizadas, especialmente cuando se hace con estudiantes de diferentes tradiciones educativas, condiciones socio-económicas y culturas (Douglass, Thomson & Zhao, 2012; Green, 2011).

Sistemas nacionales de ES

Los rankings de universidades no pueden dar cuenta de factores como la diversidad horizontal entre las universidades de un país; así como tampoco del impacto que este nivel superior tiene en la economía y el bienestar de los ciudadanos de una nación. Se requiere también apreciar la competitividad de estos sistemas de cara a la globalización (Marginson & Wende van der, 2007b; Marginson, 2010). A partir de considerar estas limitaciones de los rankings globales individuales surge la necesidad de diseñar instrumentos que puedan evaluar el desempeño de los sistemas de ES, incorporando algunas de las lecciones que se desprenden de las críticas que se han hecho a la metodología de los primeros. Hay varias iniciativas que han desarrollado una metodología propia para los de este último tipo. Sin embargo, por falta de espacio, se escoge sólo el U21 Ranking de Sistemas Nacionales de Educación Superior 2012 (Universitas 21, 2012), el cual desarrolla un marco de indicadores que incorpora cuatro áreas básicas. Éstas son: 1) los recursos, públicos y privados, que se asignan a la ES; 2) el entorno en que se desenvuelve el sistema incluyendo las políticas públicas y el marco regulatorio correspondiente junto con una caracterización del grado de diversidad horizontal que se da entre las IES; así como la relación que se tiene con el resto de la sociedad y 3) su grado de internacionalización. Estos rubros también deben dar cuenta de 4) los resultados educativos que se obtienen. El puntaje final se obtiene con los siguientes porcentajes: recursos (25%), entorno (25%) internacionalización (10%) y resultados (40%).

Las tres alternativas anteriores no son las únicas. Existen además las evaluaciones que se realizan desde el punto de vista estratégico, haciendo comparaciones con otras IES, con el fin de apoyar a los gobiernos y a las autoridades institucionales para el diseño de políticas públicas e institucionales (benchmarking). Otra alternativa para evaluar la enseñanza y la investigación en la ES la constituyen los procesos mismos de aseguramiento de la calidad, incluyendo la acreditación de instituciones y programas educativos. Así mismo, como un complemento a lo anterior, también se cuenta con marcos de cualificaciones como los que se han desarrollado en la Unión Europea que establecen lineamientos y estándares para los resultados de aprendizaje en todos los niveles educativos (Hazelkorn, 2012a).

5. LA ES DE AMÉRICA LATINA FRENTE A LOS RANKINGS GLOBALES

La ES de la región

La situación actual de la ES de América Latina (AL) y el papel que tienen las IES en la creación del capital humano avanzado, así como su contribución a la generación y transferencia de conocimientos, ha sido objeto de varios diagnósticos durante los últimos años.27 A pesar de que éstos se han elaborado a partir de diferentes enfoques metodológicos, hay un cierto consenso en señalar los siguientes problemas: 1) la deficiente cobertura en la mayoría de los países de la región, a pesar de los avances en este renglón;28 2) la necesidad de mejorar la formación de los egresados;29 3) la obsolescencia y rigidez de los modelos curriculares;30 4) las limitaciones en los insumos materiales, especialmente la necesidad de contar con equipamiento suficiente para integrar las TICS y la banda ancha a los procesos de aprendizaje y la de tener acervos bibliográficos, físicos y virtuales actualizados;31 5) la baja proporción de académicos y de un cuerpo docente con doctorado de tiempo completo;32 6) el insuficiente desarrollo del posgrado, particularmente de doctorados en ciencias;33 7) la poca e inadecuada diferenciación de los sistemas de ES y la falta de distintos tipos de instituciones para satisfacer las necesidades específicas de cada país;34 8) la poca convergencia de los sistemas de la región;35 9) la falta de mecanismos para el reconocimiento y la transferencia de estudios; 10) el escaso desarrollo de la investigación en las IES de la región y el número reducido de verdaderas universidades comprehensivas de investigación;36 y 11) la insuficiente internacionalización.37 Desde luego, para apreciar el esfuerzo que se ha hecho por parte de gobiernos e instituciones durante los últimos veinte años, haría falta enunciar los logros alcanzados en ese período; así como mencionar aquellas instituciones que son la excepción a uno o varios de estos problemas.

La descripción de la problemática anterior se basó en el análisis de indicadores nacionales de varios tipos hecho en cada caso por los autores respectivos, y está restringida por la información disponible, por lo que no se trata de generalizaciones arbitrarias aunque se requeriría de mayores fuentes de transparencia para obtener un espectro de comparaciones más completo. Sin embargo, estas limitaciones dan una pauta para apreciar algunos de los obstáculos que tiene actualmente la región para integrarse a la economía global del conocimiento. Superarlas deficiencias señaladas requeriría, entre otras cosas, disponer de cuantiosos recursos económicos públicos o de origen privado; así como la voluntad política de invertirlos en ES como ha sido el caso en algunos países de Asia (Levin, 2010).Es pertinente tomar en cuenta el diagnóstico anterior al discutir las consecuencias que tienen los rankings globales en las universidades de la región. En este sentido, basta señalar que todavía no hay suficientes investigaciones que estudien el lugar que ocupan las IES latinoamericanas en estos rankings (UNAM-DGEI, 2012a). No obstante, este tema ha sido abordado explícitamente por Lloyd, Ordorika y Rodríguez-Gómez (2011), López Leyva (2012), Martínez Rizo (2012), y Ordorika y Rodríguez-Gómez (2008; 2010). En éstos se realiza un análisis sistemático de ARWU y THE, en su versión 2004, señalando algunas de las limitaciones y sesgos que afectan el posicionamiento que hacen de las universidades de la región. En el caso específico del informe que aparece en UNAM-DGEI (2011), se examina la evolución que ha tenido la Universidad Nacional Autónoma de México en los rankings anteriores.

Türler ve etiketler

Yaş sınırı:
0+
Hacim:
424 s. 58 illüstrasyon
ISBN:
9788437093444
Telif hakkı:
Bookwire
İndirme biçimi:
Metin
Ortalama puan 4,7, 343 oylamaya göre
Ses
Ortalama puan 4,2, 750 oylamaya göre
Metin
Ortalama puan 4,9, 119 oylamaya göre
Metin
Ortalama puan 4,7, 25 oylamaya göre
Metin
Ortalama puan 5, 53 oylamaya göre
Metin
Ortalama puan 0, 0 oylamaya göre
Metin
Ortalama puan 0, 0 oylamaya göre
Metin
Ortalama puan 0, 0 oylamaya göre
Metin
Ortalama puan 0, 0 oylamaya göre
Metin
Ortalama puan 0, 0 oylamaya göre
Metin
Ortalama puan 0, 0 oylamaya göre
Metin
Ortalama puan 0, 0 oylamaya göre
Metin
Ortalama puan 0, 0 oylamaya göre