Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
индекс хирша.docx
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
293.38 Кб
Скачать

Пути повышения индекса цитируемости и индекса хирша

Многие ученые задаются вопросом, как повысить индекс Хирша и как повысить индекс цитируемости РИНЦ. Для этого необходимо: •   Стремиться публиковать оригинальные статьи высокого научного и практического уровня, на которые охотно бы ссылались другие авторы.

•   Публиковаться в соавторстве с коллегой, имеющим высокие наукометрические показатели.

•   При направлении публикации в англоязычные издания, давать ссылки на собственные статьи, опубликованные в переводной литературе.

•   Направлять статьи в журналы, поддерживаемые экспертным советом ВАК, где публикуемые материалы проходят тщательную научную экспертизу и доступны в сети Интернет.

•   Увеличить обмен ссылками с коллегами, а также самоцитируемость.

•   Составлять качественные рефераты.

•   Для повышения импакт-фактора «своего» журнала – давать ссылки на статьи «своего журнала», а так же активно информировать коллег о статьях данного авторского коллектива, опубликованных в журнале.

•   Внимательнее относиться к правильному библиографическому оформлению своих статей и пристатейных списков литературы, к написанию фамилии и инициалов, названию организации. При составлении списков литературы необходимо соблюдать требования ГОСТ.

Как определить свой индекс Хирша

Есть такой наукометрический индекс - индекс Хирша. Индекс Хирша равен N. если есть статей N с числом цитирований больше или равное N раз.  То есть, если опубликовано 20 статей, а из них только 5 было процитирована в 5 более статьях, то индекс Хирша равен 5. Самоцитирование - учитывается.

Рассмотрим трех ученых. Если первый опубликовал  5 публикаций, одна из них процитирована 100 раз, вторая - 50 раз, третья - 2 раза, четвертая и пятая -1 раз, то индекс Хирша будет равен 2.

Второй опубликовал  тоже 5 публикаций, одна из них процитирована 1000 раз, вторая,, третья , четвертая и пятая -1 раз, то индекс Хирша будет равен 1.

Если третий опубликовал тоже  5 публикаций, одна из них процитирована 9 раз, вторая - 8 раз, третья -  7 раз, четвертая и пятая -6  раз, то индекс Хирша будет равен 5.

Индекс Хирша можно определить

1. через google scholar в ручную, найти все свои статьи и посчитать как их цитировали, это самый сложный путь.

2. Зарегистрироваться на elibrary.ru и там пройти сложный путь регистрации или просто пройти по ссылке, кстати они дают заниженное значение,  у меня он оказался 7. Об этом я уже писал.

3. Проще всего использовать программу Publish or Perrish. Она бесплатная. И может определить еще и другие индексы. Однофамильцев надо убирать с помощью выбора их соавторов. Подстановка своих инициалов не помогает. Программаберет данные из google scholar

4. После регистрации почты на gmail.com. Подробности - здесь.

5. Ждать, когда откроют карту науки России. Некоторое время она работала в тестовом режиме. Обещают открыть в конце 2013 года.

У меня индекс Хирша равен 8.

Индекс Хирша (h-index)

Индекс Хирша (h-index, критерий Хирша) – наукометрический показатель, предложенный в 2005 г. американским физиком Хорхе Хиршем (университет Сан-Диего, Калифорния) в качестве альтернативы классическому "индексу цитируемости", представляющему собой суммарное число ссылок на работы учёного. Критерий основан на учёте числа публикаций исследователя и числа цитирований этих публикаций.

Учёный имеет индекс h, если h из его N статей цитируются как минимум h раз каждая, в то время как оставшиеся (N – h) статей цитируются менее, чем h раз каждая.

Например, h-индекс равный 10, означает, что учёным было опубликовано не менее 10 работ, каждая из которых была процитирована 10 и более раз. При этом количество работ, процитированных меньшее число раз, может быть любым. Аналогичным образом может быть рассчитан h-индекс для научного журнала, организации либо страны.

Рис. 1.  Распределение цитируемости работ исследователя, опубликовавшего 230 статей и имеющего h-индекс 15 (Scopus).

Индекс Хирша является количественной характеристикой продуктивности учёного за весь период научной деятельности; он представлен в реферативных базах данныхScopus и Web of Science. h-Индекс может быть вычислен и с использованием бесплатных общедоступных баз данных в Интернете – например, с помощью Google Scholar (см. здесь; удобно пользоваться бесплатной программой Publish or Perish). Следует учитывать, что данные бесплатных сервисов могут быть неполными; кроме того, для российских исследователей из-за особенностей транскрипции фамилий и названий российских журналов величина h-индекса обычно бывает занижена. Значение h-индекса по данным Scopusчасто ниже, чем в WoS, т.к. Scopus учитывает цитирования, начиная с 1995 г.

Как и всякий формальный показатель, h-индекс имеет свои достоинства и недостатки. К достоинствам индекса относят тот факт, что он будет одинаково низким как для автора одной сверхпопулярной статьи, так и для автора множества работ, процитированных не более одного раза. Индекс Хирша позволяет отсеивать и т. н. "случайных соавторов"; этот показатель будет высоким лишь для тех, у кого достаточно публикаций, и все они (или, по крайней мере, многие из них) достаточно востребованы, т. е. часто цитируются другими исследователями.

По мнению Хирша, сколько-нибудь успешный учёный в области физики обладает h-индексом не менее 10-12. h-Индекс самого Х. Хирша в 2008 г. был равен 49 по даннымWoS. По данным Scopus, на 01.09.2011 он составлял 21, причём 208 имеющихся в базе данных статей Хирша были процитированы в 4515 других статьях 6615 раз (самая цитируемая из них – 904 раза).

h-Индекс нередко критикуется, т.к. иногда он даёт совершенно неверную оценку значимости исследователя. В частности, короткая карьера учёного приводит к недооценке его работ. Значение показателя существенно зависит от области науки и возраста исследователя. В биологии и медицине h-индекс намного выше, чем в физике или химии.

В наукометрии используются и другие показатели, сходные с h-индексом или производные от него.

g-Индекс также рассчитывается на основе распределения цитирований, полученных публикациями ученого, но по иному алгоритму:

Для данного множества статей, отсортированного в порядке убывания количества цитирований, которые получили эти статьи, g-индекс это наибольшее число, такое, что g самых цитируемых статей получили суммарно не менее g2 цитирований.

При равном h-индексе величина g-индекса будет больше у того исследователя, у которого на самые цитируемые статьи приходится больше цитирований.

i-Индекс используется для оценки публикационной активности научной организации наряду с h-индексом:

Научная организация имеет индекс i, если не менее i ученых из этой организации имеют h-индекс не менее i.

Т.о., величина i-индекса определяется количеством наиболее высокоцитируемых исследователей, работающих в данной организации; величина i-индекса будет низкой для тех организаций, высокий h-индекс которых обеспечивается одним-двумя высокоцитируемыми сотрудниками.

Сегодня в наукометрии используется три главных показателя: импакт-фактор (ИФ), индекс цитирования статей автора (ИЦ) и индекс Хирша (ИХ). Они играют немалую роль при присуждении грантов и премий. Академик Георгий Георгиев определяет их относительную ценность.

Академик Георгиев определяет ценность трёх главных показателей наукометрии: импакт-фактора, индекса Хирша и цитирований

О плюсах импакт-фактора

Импакт-фактор – показатель средней частоты цитируемости статей, опубликованных в журнале. Для серьёзных международных изданий в области молекулярной и клеточной биологии (МКБ) он колеблется в пределах от 4 до 30. За исключением журналов с самым высоким ИФ, где существенную роль играют и субъективные факторы, для журналов с ИФ от 4 до 15 имеется неплохая корреляция между величиной ИФ и качеством публикуемых статей. Чем более жёсткую экспертизу проходят статьи перед публикацией, тем, как правило, выше ИФ журнала. В разных научных дисциплинах величины ИФ довольно сильно отличаются, в связи с чем следует сравнивать ИФ одной и той же области науки.

Плюсы импакт-фактора:

– во-первых, учитывается не только и не столько число публикаций, сколько их качество; – во-вторых, фактически проводится международная экспертиза, так как каждая статья перед принятием к публикации анализируется двумя-тремя экспертами. В дальнейшей международной экспертизе для оценки коллектива или отдельного учёного, к которой призывают некоторые наши аналитики, нет никакой надобности; – в-третьих, на основании суммарного ИФ за последние годы определяется сила коллектива или отдельного учёного именно в то время, когда выдаётся грант. Конечно, следует учитывать и ранние достижения, но при распределении грантов особенно важно иметь представление о сегодняшней продуктивности, для определения которой пятилетний или несколько больший срок является оптимальным; – в-четвёртых, расчёт ИФ на одного сотрудника позволяет поддержать маленькие, но продуктивные  группы.

Следует только отметить, что при оценке по ИФ необходимо учитывать роль коллектива или учёного в выполнении данной работы.  В области МКБ на это указывает расположение учёных в списке авторов и института в списке институтов в заглавии работы. Обычно первый автор – это главный исполнитель, а последний – руководитель работы. Первый институт – это тот, где проводилась данная работа. На основании этих показателей в ИФ бывает нужно вносить изменения, что не представляет большого труда.

О значении индекса цитирования

Очень часто первое место в оценке учёного или коллектива отводится ИЦ. Конечно, большое число ссылок на работы автора говорит о востребованности его исследований и его силе. Однако проведение оценки по ИЦ имеет ряд недостатков. Оно в большей мере отражает более ранние достижения. Если работа прорывная, то часто её цитирование откладывается на более позднее время, когда появятся подтверждения. Нередко бывают случаи, когда первичная работа, где открыто явление, цитируется плохо, а ссылки идут на вторичную, подтверждающую работу или обзор. Это особенно часто происходит с открытиями наших авторов. Цитирование во многих случаях зависит от личных отношений и даже просто от случайных факторов.

Поскольку я был одним из наиболее цитируемых советских авторов в 1970–80-е годы и имел так называемые классические по цитируемости статьи, то мне вся система хорошо знакома. Приведу пару примеров. Наши с Ю. ИльинымН. ЧуриковымВ. Гвоздевым и Е. Ананьевым статьи, описывающие открытие мобильных элементов в животных клетках, цитировались мало, а подтверждающая их вторичная американская статья, вышедшая на полтора года позже, – крайне широко. Кстати, американские авторы на нас сослались, но очень невнятно. Другой пример – наша методическая статья с С. Недоспасовым была сделана одновременно с американцами, но опубликована в менее престижном журнале, да и уровень её был пониже, так что она должна была остаться незамеченной. Но мне прислал препринт своего обзора Цахау, где он цитировал, конечно, только американскую статью.  Я немедленно послал ему оттиск нашей статьи, и он включил её в обзор. После этого все авторы цитировали обе статьи вместе, и наша собрала много ссылок. Высокий ИЦ оказался делом случая.

При ИЦ также необходимо учитывать вклад коллектива или отдельного учёного в данную работу. Обычно это не делается из-за трудоёмкости.

О нелепости индекса Хирша

В последнее время приобрёл большую популярность индекс Хирша. Данный показатель равен числу статей автора (N), цитируемых N или более раз. Это крайне нелепый наукометрический показатель. Например, учёный имеет 30 статей, из которых 20 цитируется 20–30 раз, а у другого учёного при том же числе статей 10 цитируется от 10 до 2000 раз. Индекс Хирша первого будет равен 20, а второго – только 10. Чем старше учёный, тем в лучшем положении он оказывается. Совершенно не учитывается и вклад учёного в работу. В общем, ИХ рассчитан на активного середняка. Наконец, вклад учёного в выполненные в соавторстве работы вообще учесть нельзя. Можно быть рядовым исполнителем в серии совместных работ, особенно выполненных на Западе, и заработать себе этим очень высокий ИХ. Думаю, этот показатель следует полностью исключить из оценки учёных при проведении конкурсов.

О публикациях в российских журналах

Учитывая всё вышеизложенное, в программе «МКБ» мы бёрем за основу для оценки суммарный ИФ международных публикаций коллектива или отдельного учёного (в конкурсе на новые группы) за пять лет с учётом вклада коллектива или автора в работу. ИФ российских журналов, как правило, невелик (десятые балла), и поэтому учитывается только общее число публикаций в российских журналах. Вообще, в современной науке публикации почти во всех национальных журналах котируются низко.

Далее, в зависимости от вклада, определяемого позициями авторов и институтов в заглавии работы, может засчитываться полный ИФ или его доля, вплоть до ¼. Также учитывается удельный ИФ из расчёта на одного сотрудника коллектива.

В конкурсе по программе «МКБ» принимаются во внимание и более ранние публикации, но они играют меньшую роль в общей оценке, чем публикации за последние годы.  Учитывается ИЦ десяти выбранных автором заявки работ (тоже обязательно с поправкой на вклад коллектива), но и ему придаётся меньшее значение, чем ИФ. Индекс Хирша просто не учитывается.

Поскольку правила конкурса хорошо известны, учёные стремятся к сильным публикациям, которые только и создают авторитет национальной науке. В период особенного наступления на науку в 90-х годах авторитет её сильно упал, и сегодня часто приходится сталкиваться с предвзятым к ней отношением, особенно в таких «клубных» журналах, как Nature или Cell. Однако это не значит, что надо отказываться от попыток публиковаться в престижных журналах, где присутствует квинтэссенция современной международной науки. 

Замечу, что все эти соображения носят отнюдь не личный характер. У автора, даже по заниженным данным РИНЦ, один из наиболее высоких ИЦ и неплохой ИХ (41), а как раз ИФ публикаций за последние годы естественно снижается.

Осенью 2012 года по результатам мониторинга 520 высших учебных заведений, проведенного совместно с Рособрнадзором, Минобрнауки обнародовало перечень 136 российских вузов «с признаками неэффективности». Этот перечень, в который попали и некоторые уважаемые и престижные учебные заведения, вызвал недоуменную реакцию в научном, преподавательском и экспертном сообществе, справедливо усмотревшем в нем скрытую политическую подоплеку и очередной раунд борьбы бюрократических элит, связанной с перераспределением ресурсов. Больше всего сомнений вызывают критерии министерского мониторинга, уравнивающие показатели научной и преподавательской эффективности с уровнем доходов вуза в расчете на одного преподавателя и общей площадью принадлежащих вузу помещений.

Между тем единственным общепризнанным критерием эффективности того или иного вуза, помимо качества подготовки специалистов, является объем и уровень осуществляемой на его базе научно-исследовательской деятельности, что нашло отражение и в указе президента РФ от 7 мая 2012 года «О мерах по реализации государственной политики в области образования и науки», в котором предписано увеличение к 2015 году доли публикаций российских исследователей в общем количестве публикаций в мировых научных журналах, индексируемых в базе данных «Сеть науки» (Web of Science), до 2,44 процента.

Что именно означают эти проценты, что такое Web of Science, какие еще существуют инструменты, измеряющие эффективность отдельных ученых, коллективов и даже целых стран, и как именно следует их использовать для правильной организации научного процесса и формирования политики в области науки, расскажет в цикле лекций, посвященных наукометрии, один из ведущих специалистов в этой области — начальник управления научных исследований СПбГУ Ольга Москалева.

Лекция I:  Какие наукометрические показатели существуют, и как они формируются

В последнее время все большее значение при выделении финансовых и материально-технических ресурсов уделяется вопросам повышения эффективности научной деятельности, разрабатываются критерии оценки и показатели, которые должны продемонстрировать, как работают отдельные ученые, группы ученых, институты и вузы. В связи с этим постоянно используются понятия «индекс цитирования», «индекс Хирша» и другие параметры, причем далеко не все из объектов оценки (ученых), а тем более администраторов, которые осуществляют собственно оценку, знают и понимают, что они означают, откуда берутся и как считаются. Еще меньше понимания того, можно ли использовать эти показатели (а если можно, то как) для сравнения деятельности разных ученых, лабораторий или институтов.

Индекс Хирша 10 – это хорошо или плохо? Индекс цитирования – это показатель или база данных?

Теоретические знания можно, при желании, получить из имеющейся литературы по наукометрии, где есть соответствующие определения, но что делать, когда в отчетных документах просят указать количество статей и их цитирований по Web of Science и не указывают, где и как эти данные получить?

Так все-таки, можно ли сравнивать по количеству публикаций и их цитированию работу разных ученых или институтов?

Эти показатели так сильно зависят как от области знаний, так и от возраста ученого или организации, что напрямую, естественно, их применять нельзя. Использование средних показателей, таких как цитирование одной статьи, также неадекватно, особенно при сравнении «физиков» и «лириков» и даже физиков-теоретиков и физиков-экспериментаторов. Для решения этой проблемы имеется масса подходов, основанных, как правило, на использовании разнообразных весовых и нормированных показателей.

Базовые наукометрические показатели: журнальный импакт-фактор, индексы цитируемости и научной активности

Основные используемые в наукометрии (библиометрии) показатели можно условно разделить на две основные группы:

Показатели «рейтинговости» журнала:

– Импакт-фактор (JCR, Thomson Reuters, или РИНЦ) – SNIP (Source-Normalized Impact per Paper, Moed H. F. ) – SJR (SCIMago Journal Ranking)

«Нежурнальные» индексы: показатели публикационной деятельности ученого, организации, области знаний и т. д.:

– Индекс Хирша – Средняя цитируемость

JCR

Импакт-фактор журнала — широко используемый показатель, разработанный еще в 60-х годах Институтом научной информации (ISI) и представляемый ежегодно в ресурсеJournal Citation Report (JCR), входящем в науко- и библиометрическую службу Web of Knowledge (частью которой является и база данных Web of Science), созданную компанией Thomson Reuter.

Показатель рассчитывается как количество ссылок в конкретном году на опубликованные в журнале статьи за предшествующие 3 года и является в какой-то мере характеристикой авторитетности журнала. Способ расчета импакт-фактора приведен на рисунке.

Этот показатель хорош для сравнения журналов, близких по тематике, однако не дает возможности сравнивать качество журналов из разных научных областей.

Основными недостатками импакт-фактора являются существенная зависимость от области науки, произвольный временной отрезок «публикационного окна» и различие типов документов в числителе и знаменателе формулы расчета: в числителе учитываются ссылки из всех типов документов, а в знаменателе учитываются только статьи (articles) и обзоры (reviews).

Наряду с трехлетним импакт-фактором в Journal Citation Report (JCR) приводятся и другие библиометрические показатели журналов, которые весьма содержательны, но используются значительно реже. Это пятилетний импакт-фактор, Immediacy Index, время полужизни и Eigenfactor Metrics.

Пятилетний импакт-фактор лучше отражает различия между журналами в областях с традиционно низким цитированием, связанным со сравнительно короткими списками цитируемой литературы в статьях и, соответственно, недостаточно достоверной статистикой, набираемой за период, используемый для расчета традиционного импакт-фактора.

Immediacy Index отражает, насколько быстро начинают цитироваться опубликованные в журнале статьи, и рассчитывается по цитированию статей, вышедших в журнале в том же году, в котором они процитированы. По этому показателю преимущество имеют журналы, выходящие чаще. Динамику цитирования отражает также и время полужизни, показывающее, через какой период времени статьи, опубликованные в журнале, набирают максимальное количество цитирований, после чего их цитирование идет на убыль.

Последняя из упоминавшихся метрик – Eigenfactor. При расчете этого показателя учитывается не только количество цитирований (в данном случае это пятилетнее окно цитирований), но и источник цитирования, при этом самоцитирования (т. е. ссылки в конкретном журнале на статьи в этом же журнале) не учитываются. Таким образом, ссылки в статьях, опубликованных в Nature или Science, оказывают значительно большее влияние на этот показатель, чем ссылки в статьях малозначимого журнала.

Для сравнения цитируемости разных областей знаний в Web of Knowledge есть специально организованный ресурс – Essential Science Indicators, где представлены статистические данные за последние 10 лет по областям знаний, странам, организациям. Нормируя конкретные данные по цитируемости статей отдельного ученого или организации в конкретной области знаний на среднестатистические данные, приведенные в Essential Science Indicators, можно оценить уровень ученого или организации в конкретной научной области по сравнению с мировыми данными или данными по стране.

По данным Essential Scientific Indicators – одной из баз данных Thomson Reuters — среднее цитирование статей варьирует в зависимости от области знаний: для статей, опубликованных в 2001 году, среднее цитирование для всех областей составляет 20,7, в то время как для статей по молекулярной биологии и генетике этот показатель достигает 49,95, а для математики – 6,75, т. е. количественные показатели цитирования статей по этим областям знаний различаются более чем в 7 раз, поэтому сравнивать напрямую по абсолютным показателям цитирования статьи из разных областей знаний нельзя. По данным Essential Science Indicators, из которых видно, сколько раз должна быть процитирована статья в конкретной области знаний и опубликованная в конкретном году, чтобы попасть в определенный процент самых цитируемых статей (от 0,01% до 50%), если для области знаний Biology & Biochemistry статья, опубликованная в 2002 году, должна быть процитирована 1787 раз, чтобы попасть в 0,01% самых цитируемых, то для Engineering такая статья должна набрать всего 707 цитирований.

Для ранжирования журналов, аналогично ранжированию по импакт-фактору в Web of Knowledge, Scopus (библиографическая и реферативная база данных и инструмент для отслеживания цитируемости, созданная издательской корпорацией Elsevier) использует другие показатели, которые уже являются нормированными и учитывают не только количество, но и качество ссылок на конкретные статьи — SJR и SNIP.

SJR

SJR – SCImago Journal Ranking – разработанный университетом Гранады рейтинг журналов, в котором учитываются не только общее количество цитирований, но и взвешенные показатели цитирований по годам и качественные показатели, такие как авторитетность ссылок – вес ссылки в журнале Nature на статью в журнале «А» будет отличаться от веса ссылки на ту же статью в журнале «Вестник N-ского университета», на который ссылок в Scopus совсем или почти нет. В целом SJR не очень сильно отличается от привычного импакт-фактора, весьма привлекая более широким спектром журналов и полностью открытым характером — публикацией в свободном доступе в интернете.

SNIP

Еще более продвинутый показатель, используемый Scopus, SNIP, разработан в Лейденском университете профессором Х. Ф. Моэдом. Этот показатель учитывает уже и уровень цитирований в каждой научной области, так что может быть использован для сравнения публикаций в разных научных направлениях. Основные особенности расчета этого показателя заключаются в следующем.

В показателе учитываются ссылки, сделанные в текущем году, на статьи, вышедшие в течение трех предыдущих лет. Публикационное окно = 3 года, Окно цитирования = 1 год, Типы документов одинаковы для всех этапов подсчета показателя.

Вводится специальное определение «индивидуальной области науки» для журнала, или «окружения журнала»: все статьи, опубликованные в текущем году (в любом издании), которые хотя бы однажды цитировали выпуски журнала, вышедшие за последние десять лет.

Для определения потенциала цитирования (это среднее число позиций, средняя «длина» списков цитируемой литературы в статьях «окружения») подсчитывается среднее число ссылок в статьях, составляющих «окружение журнала». Но учитываются только те ссылки, которые:

а) ведут на статьи, вышедшие в течение трех предыдущих лет; б) ведут на статьи, имеющиеся в базе данных, по которой идет расчет.

Окончательный расчет показателя проводится по следующей формуле:

Индекс Хирша

Во второй группе «нежурнальных» показателей в первую очередь следует отметить индекс Хирша (H-index). Индекс Хирша (h-index) ученого, опубликовавшего N статей, равен h, если:

h его статей получили не менее h цитирований, остальные N–h его статей получили не более h цитирований.

Наконец, среднее цитирование – это общее количество ссылок на статьи ученого, деленное на общее количество статей.

Отличительной особенностью этих показателей является то, что они могут применяться к любому массиву статей (автор, лаборатория, институт, страна и т. д.; за любой период времени).

«Нежурнальные» показатели также весьма сильно зависят от множества факторов: количество цитирований, год первой учитываемой публикации (т. е. возраст ученого) и т. д.

Теперь, когда мы разобрались с тем, что означают те или иные показатели, используемые в библиометрии (или наукометрии), надо разобраться, можно ли их реально использовать для оценки научной деятельности.

В первую очередь, следует помнить, что все эти показатели являются статистическими и ни в коей мере не могут отражать качество какой-либо отдельно взятой статьи или однозначно характеризовать уровень конкретного ученого.

Большое количество цитирований может означать как очень высокий уровень представленных в статье результатов, так и наличие в статье грубейших ошибок, но что можно сказать точно – так это то, что тема, затронутая в высокоцитируемой по той или иной причине статье, является «горячей», т. е. вызывает интерес большого количества ученых.

Даже пресловутая «средняя температура по больнице» может являться значимым индикатором – если в какой-то больнице средняя температура выше, чем во всех соседних, то с большой долей вероятности можно предположить, что данная больница является инфекционной или в ней по крайней мере нет морга…. В любом случае для целей какой-либо оценки опираться только на статистические показатели нельзя, необходима и экспертная оценка, в каждом случае своего уровня.

Публикации являются очень хорошим показателем результативности научной деятельности в первую очередь для фундаментальных исследований, и то не во всех областях наук. Для Arts&Humanities, например, даже импакт-факторы журналов принципиально не рассчитываются, поскольку ценность публикаций в данных областях не определяется количеством цитирований. Примерно то же самое можно сказать и про ряд других областей: значимость научной деятельности специалистов в области программирования определяется не статьями, а написанными программами и т. д.

Даже если очень хорошо знать, что означают различные наукометрические или библиометрические показатели, и понимать, как их правильно применять, остается одна самая важная на сегодняшний день проблема – проблема получения достоверных данных о публикациях организации.

Самые крупные и авторитетные наукометрические базы данных Web of Science и Scopus являются платными ресурсами и далеко не все научные организации или вузы могут себе позволить недешевую подписку на доступ к ним. Есть бесплатный доступ к РИНЦ – Российскому индексу научного цитирования, но этот ресурс еще достаточно молодой, и накопленные базы не полностью отражают публикационную активность российских ученых, хотя можно надеяться на то, что в ближайшие 5–10 лет, при активном содействии самих ученых через открытый недавно Science Index, в РИНЦ можно будет получить достоверные данные о деятельности как отдельного ученого, так и организации.

Именно с целью сравнительной оценки эффективности научной деятельности в разных областях науки крупнейшие наукометрические базы разрабатывают специальные аналитические инструменты. В последнее время в мире все больше и больше начинают использовать такие инструменты при стратегическом планировании науки, при оценке работы отдельных организаций, для принятия решений о выделении финансирования конкретных проектов и организаций.

Что это за инструменты и как именно их можно применять в российских вузах?

Об этом пойдет речь в следующей лекции о наукометрии, посвященной системам InCitesи SciVal Spotlight — мощным и сложным инструментам, позволяющим делать сравнительную оценку эффективности научной деятельности в разных областях науки, организациях, а также различных странах.

В лекции использованы слайды из доклада В.В. Пислякова «Библиометрия: основные методы и индикаторы. Материалы Научно-практического семинара «Оценка результативности научно-исследовательской деятельности». Литература: В.В. Писляков. Библиометрия: основные методы и индикаторы. Материалы Научно-практического семинара «Оценка результативности научно-исследовательской деятельности», Казань, 20 октября 2011 г.

SCImago. (2007). SJR — SCImago Journal & Country Rank. Retrieved July 18,  2011.

Falagas, M. E., Kouranos, V. D., Arencibia-Jorge, R., Karageorgopoulos, D.  E. Comparison of SCImago journal rank indicator with journal impact factor.

FASEB J. 22, 2623–2628 (2008)

Henk F. Moed. Measuring contextual citation impact of scientific journals.  (arXiv:0911.2632)

Hirsch, J. E. (15 November 2005). «An index to quantify an individual's  scientific research output». (PNAS 102 (46): 16569–16572).