Однако при сопоставлении по согласованным индикаторам с тысячами зарубежных вузов, особенно с вузами высокоразвитых стран, картинка оказалась не очень привлекательной. И самый авторитетный отечественный вуз оказался в конце второй сотни рейтингового списка мировых вузов «Times higher education world university rankings»2.
Вроде бы с этим ничего нельзя поделать, работают объективные количественные методы, проверенные, просчитанные, проанализированные лучшими специалистами по наукометрии, но не тут-то было. Оказалось, что и количественные методы обладают высокой пластичностью.
Известно, что такие крупные и густонаселенные страны, как Китай, Индия, Россия, Бразилия и Южная Африка (страны БРИКС), создали свой собственный рейтинг ведущих вузов. В этом рейтинге за 2014 г. самый крупный российский вуз – МГУ им. Ломоносова – занял 3-е место, вслед за двумя крупнейшими китайскими вузами.
И все было бы просто, если бы в других рейтингах место нашего вузовского лидера не изменило свою позицию. Так, по известному Шанхайскому рейтингу (Academic ranking of world universities), МГУ в 2014 г. занял 84 место, по версии британского рейтинга QS World university ranking МГУ занимает 114-е место, а в рейтинге University subject ranking – 151-е3.
В мою задачу не входит решать, какой из упомянутых рейтингов является объективным. Важно лишь понять, что так называемые количественные наукометрические методы оценивания качества профессорско-преподавательского состава, проводимых научных исследований, уровня востребованности выпускников и объема цитируемых публикаций сотрудников в соответствующих вузах подвержены влиянию субъективного фактора, так как набор индикаторов в каждом рейтинге и методы подсчета их числовых значений зависят от того, кто эти индикаторы выбирает, как их вычисляют, каким образом проверяют достоверность данных и т.д. Предположение о том, что чисто количественные методы избавляют нас от субъективности, не столько ошибочно, сколько наивно.
Есть, конечно, мнение, что при оценивании организаций как потенциальных реципиентов инвестиций, необходимых для проведения высококачественных научных работ, предпочтительнее пользоваться не количественными, а качественными методами, т.е. экспертными оценками. Поэтому я позволю себе привести здесь цифры одного рейтинга, составленного при помощи экспертных оценок. По версии Times Higher Education World Reputation Rankings (ТНЕ) (репутационный рейтинг), в 2015 г. в числе 100 наиболее престижных вузов, определенных по результатам опросов 10 507 авторитетных ученых из почти 150 стран, оказались два российских: МГУ им. М.В. Ломоносова и Санкт-Петербургский государственный университет (СПбГУ). Первый занял 25-е место, второй вошел в рейтинг впервые, попав в группу университетов на 71–80-м местах4.
Сравнивая результаты чисто количественных наукометрических и качественных экспертных методов рейтингования, мы видим, что все они дают разные результаты в зависимости от субъективных установок специалистов, отбиравших индикаторы для рейтингования, и исполнителей этой работы, которые, естественно, внесли свой вклад в ее конечный результат.
К тому же следует заметить, что отбор экспертов, в свою очередь, производится на основе наукометрических данных в различных индексах цитирования при помощи, например, ранжирования ученых по количеству цитат или по индексу Хирша. И при этом в различных индексационных списках показатели эти могут быть различными. Так, например, количество цитат в индексационной системе РИНЦ и Академии Гугл у одних и тех же авторов достаточно сильно различается. Я думаю, что оценка эффективности исследований, проводимых научными или вузовскими коллективами, научными институтами, лабораториями, научными школами и направлениями, можно и нужно оценивать иначе.
В сообществе ученых, как и в других профессиональных сообществах, существуют свои авторитеты, мнение которых о той или иной научной работе иногда является решающим. Но, конечно, в отличие от некоторых видов обычных юридических приговоров, эти часто подвергаются пересмотру. Наука по самому существу представляет собой принципиально критическую деятельность, которая в значительной мере состоит в пересмотре уже признанных знаний и замене их новыми. Тем не менее авторитет признанных научным сообществом ученых часто оказывается не только чрезвычайно устойчивым, но и более надежным и объективным, чем результаты наукометрических расчетов и вычислений.
Ученый А признает научный результат, содержащийся и описанный в статье ученого Б, заслуживающим внимания, в высшей степени интересным или сразу же принимает его как открытие не потому, что статья ученого Б процитирована третьими лицами, а потому, что он сам непосредственно прочитал эту статью и на основании личного (заметьте, субъективного) опыта признал, что никогда ранее с подобным результатом не встречался, считает сформулированный в статье закон или признак изучаемого объекта оригинальным, а описанный факт, установленный экспериментально, совершенно новым и крайне важным для понимания изучаемых явлений. Если рассматриваемая статья производит подобное впечатление на всех или хотя бы на большинство членов данного профессионального научного сообщества, то автор статьи, т.е. ученый Б, завоевывает высокий научный авторитет. В случае если подобная ситуация повторяется неоднократно, Б становится признанным экспертом а данном сообществе. Его авторитет не ставится в зависимость от частоты цитирования его научных публикаций и от количества этих публикаций, а также от того, в каких журналах его публикации появляются.
Наиболее правдоподобно, что, став признанным экспертом, Б будет публиковать свои статьи в журналах с наиболее высоким импакт-фактором. Такой ход событий является достаточно типичным, и я сошлюсь на пример с публикациями всего двух статей Курта Гёделя, после появления которых он стал безусловным математическим авторитетом высшего уровня.
Таким образом, оценка эффективности результатов научной деятельности определенного ученого, осуществленная экспертами высшего уровня, без использования наукометрических методов, может иметь в глазах компетентных лиц, научных менеджеров или потенциальных инвесторов, желающих поддержать тот или иной научный проект, больший вес, чем подсчеты количества цитат или индекса Хирша.
К тому же следует иметь в виду, что с того момента, когда чисто наукометрические индексы становятся решающим фактором в оценке эффективности деятельности отдельного исследователя или исследовательского коллектива, погоня за цитатами часто приводит к нарушению всех норм научной этики и крайне затрудняет получение объективных оценочных результатов.
В одном из заседаний руководимого мною науковедческого семинара участвовал проректор по учебной части весьма респектабельного и почтенного российского университета, который откровенно сказал, что по инициативе ректората было проведено собрание будущих выпускников нескольких факультетов этого университета, на котором им было предложено после окончания университета в обязательном порядке во всех своих публикациях цитировать друг друга, и особенно своих профессоров и преподавателей.
Для оправдания этого по меньшей мере странного предложения упомянутый проректор сослался на опыт, распространенный в китайских университетах, выпускники которых непрерывно цитируют в отечественных и зарубежных изданиях друг друга и своих преподавателей.
Существуют методы «накрутки» публикаций. Некоторые научные работники рассылают во множество журналов модифицированные варианты одной и той же статьи, не содержащие никаких новых фактов, теоретических положений, эффективных исследовательских программ или описания новых научных методов. В конечном счете это не только приводит к удлинению списка публикаций, но и содействует увеличению числа цитат.