В. А. Цветкова

Системы цитирования: где благо, где зло

Рассмотрены вопросы использования ведущих наукометрических систем для оценки публикационной активности разных типов структур. Показаны особенности и ограничения их применения в российской научно-образовательной среде.

Ключевые слова: системы научного цитирования, публикационная активность, Российский индекс научного цитирования.

«Нас всех гонят кнутом в одну сторону во имя великого принципа единообразия. <…> Но не все мы одинаковые. Кто-то приспосабливается к этому миру, а кто-то, и, возможно, таких найдётся немало – не может».

Р. Д. Уоллер

Состояние систем научного цитирования

Современный этап характеризуется повышенным интересом к системам научного цитирования. Эти системы позволяют в какой-то степени отследить публикационную активность в привязке к автору, организации, стране и т.д.

Первая система научного цитирования разработана в США в конце 1960-х – начале 1970-х гг. Ю. Гарфилдом и известна как Web of Science (WoS). Идея на основе публикаций учёных и пристатейных ссылок определить тенденции развития новых направлений науки, пересечений, активность авторов (и их популярность), организаций и стран, сформировать «карты науки» – вот то поле, на котором сегодня компания «Thomson Reuters» развивает свои сервисы и предлагает новые.

Однако ограниченное число журналов, их явно англоязычная направленность привели к тому, что на Европейском полигоне издательство «Elsevier» предложило систему Scopus, которая охватывает более 18 тыс. журналов, в том числе около 330 российских. Это существенно шире, чем в WoS.

Многие страны, учитывая ограниченную представительность своих научных журналов в этих системах, стали разрабатывать собственные системы научного цитирования. Среди таких стран – Китай, Япония.  Россия не осталась в стороне от этого процесса. Ограниченное число российских научных публикаций – в Web of Science индексируется не более 10% всех публикаций российских учёных из немногим более сотни журналов – привело к тому, что в России стала создаваться собственная система научного цитирования.

В 2006 г. было принято решение о создании Российского индекса научного цитирования (РИНЦ) при содействии Министерства образования и науки РФ. За достаточно короткий срок разработана и запущена в реальную эксплуатацию система, которая включает свыше 8,8 тыс. российских журналов (число публикаций – 18,8 млн, пристатейных ссылок – 144,6 млн) и позволяет следить за публикационной активностью, цитируемостью, индексом Хирша.

РИНЦ не миновала беда всех информационно-библиографических систем – ошибки! В написании фамилий, заголовков, транслитерации и т.д. Разработчиков начали активно критиковать. Как всегда, мы считаем, что у нас плохо, но и WoS, и Scopus имеют ту же проблему.

Не секрет, что процесс ввода данных в информационные системы – наиболее дорогостоящий, особенно при включении в технологический процесс операций контроля правильности ввода, в рассматриваемом случае – ещё и с содержательным аспектом. Ошибки порождаются на всех этапах работы с контентом: на стадиях опубликования статьи, пристатейного цитирования, операторского ввода и в процессе машинной обработки (сливаются поля, исчезает часть данных и пр.). К сожалению, пока этого не смогла избежать ни одна информационная система.

Таким образом, инструментов для слежения за наукой вполне достаточно. Мы можем на базе двух ведущих мировых систем – WoS и Scopus, а также собственного РИНЦ, оценить публикационную активность российских специалистов, посмотреть организации, тематическую направленность исследований и выделить регионы, сравнить их и оценить направления исследований. Мы также можем посмотреть наши достижения и сравнить с мировыми. Это, безусловно, очень важно при принятии управленческих решений на высшем уровне по развитию и финансированию приоритетных направлений.

Стремление к интеграции национальной науки в мировую привело к тому, что в основополагающих документах стали задаваться конкретные показатели доли российских публикаций в мировом информационном потоке. Это: «Стратегия инновационного развития Российской Федерации на период до 2020 г.»8, указ Президента РФ от 7 мая 2012 г. № 599 «О мерах по реализации государственной политики в области образования и науки».

Однако в России процесс оценки публикационной активности в некоторой степени принял специфическую форму. По показателям публикационной активности стали оценивать работу конкретных научных и образовательных учреждений, учёных и специалистов, стран. Оценка членов диссертационных советов, экспертных советов ВАК также ориентирована на оценку публикационной активности с акцентом на публикации, проиндексированные в WoS и Scopus. Складывается впечатление, что лица, вписывающие эти показатели в нормативные документы, не учитывают важную деталь: целые отрасли знаний не охвачены тем ограниченным числом журналов, которые представлены в этих системах.

Рассмотрим требования к участникам конкурса Российского научного фонда, приведённые в форме вопросов и ответов.

«Вопрос. Входной фильтр – 28 публикаций за 5 последних лет – слишком плотен. У добротного исследователя (ФИАН) 3–4 публикации в год бывает.

Ответ. В документах фонда нигде не написано, что требуется 28 публикаций. Написано, что нужно 11 публикаций в журналах Web of Science и Scopus и 17 – в изданиях, учитываемых РИНЦ. А РИНЦ учитывает Web of Science и Scopus.

Вопрос. Почему не написать – 17? Ответ. Потому что целый ряд русскоязычных журналов не индексируется вWeb of Science и Scopus…».

Задаётся, как в спорте, планка, которую спортсмен должен взять. Но учёный – не спортсмен. Он – творческий человек; его производительность заключается не только в написании статей, а ещё и в творческом процессе, который потом может найти отражение в публикации, а может и не найти. При этом в учёте рабочего времени учёных, особенно преподавательского состава, не планируется время на написание статей, книг. А что делать начинающим учёным, аспирантам?

Это только один из немногих примеров. Привожу стандартный запрос для рядового исполнителя по проектам Минобрнауки России: Web of Science – число публикаций, число цитирований; Scopus – число публикаций, число цитирований, индекс Хирша; РИНЦ – число публикаций, число цитирований, индекс Хирша. Кроме того, надо указать, участвуете ли вы в проектах «Карта Российской науки» (индивидуальный номер учёного); в каких конференциях, проиндексированных в Web of Science, вы участвовали, и т.д.

Возможно, учёный со стажем с помощью «кучи» сотрудников что-то из этого заполнит, а вот молодому специалисту нечего будет сказать о себе. А как быть специалистам-экспериментаторам? Они очень мало пишут о своей работе. Не усложняет ли такой подход подбор специалистов для работы в проектах?

Правомочен вопрос: способствует ли это привлечению молодёжи к научным исследованиям, не превращается ли этот процесс в отдельное направление для работы с разными типами баз данных для учёных и т.д.

Есть некоторые принципиальные ограничения при подходах к использованию баз данных научного цитирования Web of Science и Scopus, которые необходимо учитывать и которые заключаются в следующем:

Перечень можно продолжить, однако это не говорит о том, что названные выше наукометрические системы не должны использоваться для оценки публикационной активности на разных уровнях.

Вопрос состоит в этике использования, в корректности подходов и сравнений. А уж сравнение учёных на основе количественных показателей их публикаций и цитирований – вопрос крайне деликатный и дискуссионный.

Ю. Гарфилд в своих публикациях неоднократно предупреждал: анализ цитируемости может быть полезным инструментом, но цитируемостью, как и любым другим инструментом – от кувалды до атомного реактора – можно пользоваться и не по назначению.