Matéria da Folha de S. Paulo discute critérios usados na elaboração de rankings internacionais de universidades e de produção científica e traz opinião do diretor científico da FAPESP. O jornal cita, por exemplo, que diferença de critérios faz USP variar da 19ª à 471ª posição em 9 listagens.
A ciência brasileira deu um salto significativo na última década. Mas quando o assunto são rankings internacionais, as universidades ainda estão no final da fila.
A conta não fecha na matemática dos rankings, na opinião de especialistas consultados pela Folha, porque essas classificações são pensadas para universidades que estão num contexto anglo-saxão. Ou seja: as europeias e norte-americanas.
"As metodologias dos rankings nunca atingirão um ponto satisfatório porque trabalham um conjunto muito diverso de indicadores", diz Ronaldo Pilli, pró-reitor de pesquisa da Unicamp. As posições da USP e da Unicamp, por exemplo, se alteram a cada ranking. A USP ocupa a 19ª posição no ranking Scimago, mas está na 471ª posição no Leiden.
"Os rankings ajudam pais, estudantes e professores a enxergar melhor a universidade. Mas eles não medem qualidade", afirma a professora do Instituto de Tecnologia de Dublin, Ellen Hazelkorn, que na OECD desenvolve pesquisa sobre como essas listas influenciam governos e políticas públicas. Para Hazelkorn, os rankings ocuparam o espaço que instituições de ensino e governos não conseguiram: fornecer à sociedade dados sobre o desempenho dessas instituições.
"Os rankings fazem parte do mercado global de competição por inovação. O conhecimento é o novo petróleo", diz a professora, autora de "Rankings and the Reshaping of Higher Education".
Glades Tereza Felix, coordenadora do grupo de estudos de avaliação de ensino superior da UFSM (Univ. Federal de Santa Maria), é mais dura na crítica, e diz que os rankings têm objetivos puramente mercadológicos.
"Estar em primeiro ou segundo lugar, principalmente para as universidades norte-americanas, significa [conseguir captar] dinheiro", diz. Grande parte das universidades no exterior sobrevivem com doações de empresas e de ex-alunos, além das mensalidades. Muito diferente do cenário das universidades públicas brasileiras.
METODOLOGIA
O peso dos diferentes indicadores usados nos rankings e como eles se encaixam no contexto de cada universidade respondem pela variação das posições nas listas.
Por exemplo, o THE (Times Higher Education World University Rankings) valoriza a internacionalização das instituições. Isso significa que universidades com mais alunos estrangeiros avançam algumas casinhas.
"Uma universidade espanhola pode ter muitos alunos de Portugal, mas isso não significa que esteja internacionalizada", explica Carlos Henrique de Brito Cruz, diretor-científico da Fapesp (Fundação de Amparo à Pesquisa do Estado de São Paulo). Para ele, no contexto brasileiro, uma universidade que tenha alunos de diferentes Estados já é um ganho.
"É preciso desmistificar esses rankings. Ensino superior não é um campeonato", diz Marco Antônio Zago, pró-reitor de pesquisa da USP.
Para a LSE (London School of Economics and Political Science), em Londres, os rankings não refletem a realidade. "A forma como são feitos, em geral, favorece as universidades maiores, com mais cursos, menos especializadas", diz Will Breare Hall, gerente do departamento de recrutamento de estudantes.
Phil Baty, editor do THE, reconhece que há limitações, mas o mais importante é que as metodologias empregadas sejam transparentes. "O mundo está menor, a demanda global por educação superior maior e as escolhas, mais complexas", justifica. Para tentar sanar alguns desses desvios, já há rankings por área de conhecimento, como o recém lançado pela QS. "É preciso acertar ainda mais", diz seu diretor, Nunzio Quacquarelli.
TERMÔMETRO
Mesmo que não reflitam a situação das universidades brasileiras, na opinião dos especialistas, os rankings servem como termômetros.
Por exemplo, o Brasil vai bem quando o indicador com maior peso é a produção científica, como no ranking de Xangai. Mas o país despenca quando o balizador é o impacto dessa produção. Isso porque os trabalhos brasileiros ainda são pouco lidos e pouco citados internacionalmente por outros cientistas.
"As classificações têm problemas, mas a universidade brasileira também", afirma Rogério Meneghini, coordenador do programa SciELO de publicações científicas.
Para ele, o nível de colaboração internacional é muito pequeno e o baixo impacto pode significar, de fato, menor qualidade dos trabalhos. "Precisamos refletir."
Publicado em: Folha de S. Paulo (Cotidiano ) em 11 de Abril de 2011
Por Sabine Righetti
Nenhum comentário:
Postar um comentário