Ранжирование ВУЗов
Ранжирование ВУЗов
Ход проекта
Материалы конф
Архив
Ранжирование в СНГ
Ранжирование в Европе
Статьи по тематике
Полезные ссылки
Описание проектного задания


Данный проект выполняется в рамках программы ТЕМПУС
Новости проекта
Новый список мировых рейтингов университетов. Новые полезные ссылки на мировые рейтинги университетов и европейские проекты по ранжированию вузов
далее...
Шанхайский рейтинг 2011
. Китайский университет Цзяотун представил свой очередной рейтинг 500 лучших университетов мира, который составляется с 2003 года
далее...
Рейтинг вузов QS World University Rankings 2011
. Кембридж признан лучшим университетом, а его конкурент Гарвард занял второе место в рейтинге QS World University Rankings.
далее...
Издание Times Higher Education опубликовало рейтинг лучших университетов мира в 2011 году
. Лучший университет Великобритании Oxford занял в этом рейтинге четвертое место, поднявшись на две позиции по сравнению с прошлым годом, Cambridge – на шестом.
далее...
Томский политехнический университет занял 2-е место в Рейтинге технических и технологических вузов Федерального агентства по образованию РФ. По данным Справочно-аналитической информационной системы "Вузы России" Томский политехнический университет занял 2-е место в Рейтинге технических и технологических российских вузов Федерального агентства по образованию РФ по итогам 2008 года.
далее...
России нужен свой рейтинг ведущих университетов. Владимир Московкин, доктор географических наук, Харьков - Белгород
опубликовано в газете «ПОИСК» №16 от 20 апреля 2008

В мире существует несколько систем рейтингового оценивания университетской деятельности. Одни из них основаны на фактических данных статистических исследований, другие ...
далее...
3 встреча международной группы экспертов по рейтингу (IREG). проходила с 28 по 31 Октября 2007 года, подробнее на странице акции Перейти
далее...

все новости
Последнее в форуме
России нужен свой рейтинг ведущих университетов [Новости, Ранжирование в СНГ, Статьи по тематике]
России нужен свой рейтинг ведущих университетов
Владимир Московкин, доктор географических наук, Харьков - Белгород

В мире существует несколько систем рейтингового оценивания университетской деятельности. Одни из них основаны на фактических данных статистических исследований, другие опираются на экспертные оценки и опросы, третьи используют смешанные процедуры. Но идеальных рейтинговых систем оценки университетской деятельности, которые бы устраивали всех, пока нет. Свидетельством этого стали бурные дебаты на интернет-форуме Будапештской инициативы “Открытый доступ” (Budapest Open Access Initiative, BOAI), поводом для которых послужила опубликованная в журнале “Nature” от 31 мая прошлого года статья Д.Батлера “Ученые наносят удар фальшивому ранжированию”. В ней отмечается, что группа американских колледжей объявила бойкот самым авторитетным процедурам ранжирования в США, так как многие эксперты уверены, что они основаны на сомнительной методологии и фальшивых данных. Более того, они убеждены, что все общеизвестные мировые процедуры такого ранжирования ущербны на фундаментальном уровне. Рейтинги U.S. News & World Report и British Times Higher Education Supplement (THES) сильно зависят от итогов опроса тысячи экспертов, что во многом приводит к спорным результатам.

Популярная китайская (шанхайская) система академического ранжирования университетов мира основана на более объективных количественных данных (цитирование, публикации в журналах “Nature” и “Science”, количество лауреатов Нобелевской премии), но и она не идеальна. В вышеуказанной статье отмечается, что база данных по цитированию Института научной информации США (Institute of Science Informa­tion, ISI) является откровенно бедной для целей ранжирования университетов, так как их названия видоизменяются от одной статье к другой, а университетские филиалы часто совершенно упущены. Например, с учетом этих факторов правильное количество статей Оксфордского университета было на 40% выше, чем дает БД “ISI”. В целях усовершенствования методологии ранжирования университетов, основанной на показателях цитирования и публикационной активности, исследователи Лейденского университета предложили “весовое” цитирование, при котором университет, работающий в высокоцитируемой области исследований, не получает искусственно завышенных оценок.

Один из идеологов международного движения по открытому доступу к научному и гуманитарному знанию, профессор Саутхемптонского университета Стивэн Харнад (Stevan Harnad), представляя на интернет-форуме BOAI вебометрическую методологию ранжирования университетов мира Киберметрической лаборатории Центра научной информации и документации Национального исследовательского совета Испании, отметил, что web-метрики должны занять достойное место среди остальных количественных индикаторов, участвующих в расчете показателя университетской активности. Он отмечает, что включение этих показателей в систему других индикаторов позволит оценить их значимость и разработать нормы и бенчмаркинговые (мониторинго-сравнительные) процедуры для надежного и широкого использования в ранжировании университетов.

На этом же интернет-форуме научный директор выше­указанной лаборатории Исидро Агулио (Isidro F. Aguillo) подчеркнул, что основная цель вебометрического ранжирования университетов состоит не в их классификации, а в стимулировании web-публикаций.

Он отмечает также, что сейчас наблюдаются большие различия в качественном уровне web-публикаций и в возможности доступа к ним. А при измерении откликов поисковых машин на URL-адреса университетов дополнительное преимущество имеют те web-страницы, которые отражают большую университетскую активность.

Важно отметить, что отставание вебометрического рейтинга от традиционного является сигналом руководству университета для пересмотра не только web-политики, но и всей университетской политики.

Наше сравнение вебометрических оценок российских университетов с данными официального рейтинга Минобрнауки РФ показал, что методология вебометрического ранжирования университетов более правдоподобно расставляет их ранги. Например, Новосибирский госуниверситет стабильно попадает в первую пятерку, хотя по официальному министерскому рейтингу классических университетов он в 2005 году занимал 21-е место. Более высокие позиции по вебометрическому рейтингу занимают Казанский и Томский госуниверситеты (стабильно в первой десятке), находясь при этом выше РУДН, а в официальном министерском рейтинге за 2005 год мы наблюдаем обратную картину. Отметим, что Новосибирский госуниверситет в разные годы входил в ТОР200 рейтинга THES, а в ТОР500 этого рейтинга регулярно включаются Томский и Казанский госуниверситеты. Ситуация, когда Башкирский, Мордовский, Белгородский и Кабардино-Балкарский госуниверситеты стоят выше Новосибирского в официальном рейтинге Минобрнауки РФ, сразу же вызывает недоверие к нему, несмотря на фундаментальный подход к его расчету. Отметим, что еще хуже ситуация с первым официальным украинским рейтингом 200 ведущих университетов, опубликованном в 2007 году в газете “Зеркало недели”.

Видимо, назрела необходимость существенной доработки российского официального рейтинга вузов. Необходимо проверить различные методы нормировки показателей, проделать численные эксперименты с варьированием весовых коэффициентов, изучить взаимную корреляцию исходных показателей и исключить соответствующие взаимнокоррелируемые индикаторы. Ни в одной из рейтинговых методик вы не найдете обоснования весовых коэффициентов, а это самый больной вопрос, который отмечают все критики этих методик. Какие эксперты их назначали и каким способом? Все это не известно широкой научной общественности. Кстати, это проблема и всех глобальных рейтингов университетов.

Если посмотреть на перечень показателей официального правительственного рейтинга, при построении которого был сделан упор на максимально возможный охват индикаторов, поддающихся прямым измерениям (их 41), то сразу же бросается в глаза отсутствие таких показателей, как количество докторантов, количество студентов, участвующих в НИРС, количество образовательных программ различных уровней, включая аспирантские, количество изобретений и патентов, количество научных монографий и статей и их цитируемость, количество наименований научных журналов и баз данных по научной информации, на которые подписаны библиотеки вузов, количество издаваемых “ваковских” журналов, количество компьютеров, имеющих выход в Интернет, количество университетских “spin-offs” и др. Отметим, что часть из этих показателей можно найти в других рейтинговых моделях.

Для построения отечественных университетских рейтингов необходимо смелее использовать такой уникальный инструмент, как “Российский индекс научного цитирования” (РИНЦ), а также вебометрическую оценку университетской активности. В последнем случае можно использовать готовые расчеты испанской киберметрической лаборатории, так как в них отмечается очень большой охват российских вузов (около 500), или модернизировать вебометрическую методологию, адаптировав ее к отечественным условиям, и, возможно, отказаться от процедуры логарифмической нормировки, перейдя к более простой, которая используется в шанхайском рейтинге.

Относительно нового глобального рейтингового проекта - “Российский рейтинг ведущих университетов мира”, который разрабатывается Институтом комплексных исследований образования МГУ совместно с независимым рейтинговым агентством “РейтОР”, следует сказать следующее. Во-первых, необходимо убедить мировое университетское сообщество в его полезности и в том, что он будет, по крайней мере, не хуже остальных, не акцентируя внимания на том, что нас не устраивают все предыдущие глобальные “табели о рангах” по причине нашего слабого представления в них. Во-вторых, процедуры сбора данных и построения рейтинга должны быть понятными, объективными и прозрачными, что, впрочем, отмечают и разработчики этого проекта. В этом случае, по-видимому, удастся убедить ведущие университеты мира в предоставлении исходной информации для расчетов.

Огромное преимущество китайского и испанского глобальных рейтингов состоит в том, что не надо ни у кого запрашивать какие-либо данные, так как есть мировые доступные он-лайновые базы данных по нобелевским лауреатам, публикационной активности и цитируемости, университетским сайтам. Поэтому, на наш взгляд, проработка идеи синтеза китайского и испанского рейтингов была бы плодотворна. Но китайский рейтинг должен быть дополнен, по крайней мере, показателем по международным патентам и изобретениям. Кстати, такой индикатор планируется учесть и в российском проекте. Из трех показателей китайского рейтинга, отвечающих за публикационную активность и цитируемость, в отечественном можно оставить “HiCi” (количество высокоцитируемых исследователей) и “SCI”(учитывает индексы цитируемости по базам данных Science Citation Index и Social Science Citation Index). Но следует иметь в виду, что в мировой базе данных по высокоцитируемым ученым практически отсутствуют представители постсоветских университетов.

Ниже приведем перечень уже одобренных разработчиками показателей: количество основных образовательных программ, количество изобретений и открытий, количество международных наград, количество SCI-публикаций, общая стоимость оборудования, приведенная к единому валютному эквиваленту, количество выпускников вуза, вошедших в элиту государства.

На мой взгляд, к уже объявленному, но еще не окончательному перечню можно добавить следующее:

количество университетских “spin-offs”, созданных за последние три года, и их торговый оборот;

количество и объемы контрактных НИОКР с промышленностью;

вебометрическая оценка университетских сайтов;

приведенная величина библиотечного фонда (используется в ряде отечественных рейтингов);

количество научных журналов, входящих в базы данных “SCI”, “SSCI” и “A&HCI” (Art & Humanities Citation Index), в библиотеке университета;

количество мировых баз данных научных публикаций, выписываемых библиотекой;

количество университетских компьютеров, имеющих выход в Интернет;

наличие большой исследовательской инфраструктуры, научных центров коллективного пользования;

наличие институциональных электронных архивов открытого доступа к результатам научных исследований, входящих в мировой регистр архивов ROAR;

наличие собственных он-лайновых научных журналов открытого доступа, входящих в мировой регистр (Directory of Open Access Journals, DOAJ);

наличие собственных бумажных научных журналов, входящих в БД ISI;

участие в сетевых проектах 6- и 7-й Рамочных программах ЕС по исследованиям и технологическому развитию;

количественные соотношения по контингенту студентов и аспирантов на различных уровнях подготовки;

количество привлеченных для преподавания и проведения исследований ученых мирового уровня;

количество собственных мультимедийных учебных материалов, доступных в интрасети университета или через сеть Интернет.

Возможно, этот список является не окончательным. При его составлении я исходил из “конвертируемых” показателей, которые понятны международному университетскому научному сообществу. При этом нельзя игнорировать те показатели, по которым наши позиции слабы, или те, которые мы пока вообще не учитываем, несмотря на их значимость. Например, уже в течение 10 лет мощными темпами набирает силу международное движение по организации открытого доступа к научному и гуманитарному знанию. В рамках этого движения все ведущие университеты мира создают открытые архивы ОА (open access) - их уже около тысячи в мировом регистре ОА-репозитариев (ROAR). Университеты также стараются создавать свои он-лайновые ОА-журналы, которых в мировом регистре сейчас более трех тысяч. Мы же находимся в хвосте этого движения - всего два ОА-репозитария (в Красноярском и Уральском госуниверситетах) и ни одного университетского ОА-журнала. (Ситуация в РАН намного лучше - 18 ОА-репозитариев на начало года). Что же удивляться тому, что у наших университетов такие плохие рейтинги и о наших исследованиях мало известно за рубежом?

В целом, я приветствую амбициозный российский проект рейтингового оценивания ведущих университетов мира и желаю, чтобы в нем были представлены все весомые “конвертируемые” показатели, даже если у нас по ним “нулевые” позиции. Этим мы добьемся уважения со стороны мирового университетского сообщества и заставим наши вузы следовать критериям высококлассных университетов мира. Такой рейтинг станет хорошим инструментом повышения глобальной конкурентоспособности российских университетов.

Перейти на главную
Форум
Внести предложение
Авторизация участника проекта

Введите логин
Введите пароль
Просмотреть
Календарь
« Октябрь »
ПНВТСРЧТПТСБВС
 12345
6789101112
13141516171819
20212223242526
2728293031 
© 2007 ranking.crimea.edu. Генерация: 0,028