ebib 
Nr 8/2008 (99), Mierniki oceny czasopism i naukowców. Artykuł
 poprzedni artykuł następny artykuł   

 


Anna Osiewalska
Biblioteka Główna
Uniwersytetu Ekonomicznego w Krakowie

Mierniki oceny czasopism i naukowców




Ewaluacja i tworzenie rankingów czasopism, podobnie jak ewaluacja i tworzenie rankingów podmiotów nauki (ośrodków naukowych, naukowców), towarzyszy współczesnej nauce, tej wielkiej - globalnej i tej małej - narodowej, praktycznie w każdej dyscyplinie wiedzy. Zamiarem niniejszego artykułu jest podanie podstawowych informacji na temat możliwych sposobów przeprowadzania takich ocen, a następnie przedstawienie najbardziej znanych mierników opartych na cytowalności czasopism (IF, indeksy: Hirscha i Egghe dla czasopism) i cytowalności naukowców (ogólna liczba cytowań autora, liczba cytowanych prac autora, indeksy: Hirscha i Egghe dla naukowców). Cytowalność bowiem, uznawana za obiektywną miarę jakości czasopisma i jakości pracy naukowej[1], stanowi podstawę ocen bibliometrycznych, komponent ocen parametrycznych, a także punkt odniesienia przy weryfikacji ocen opartych na opiniach ekspertów.

Podstawowe typy rankingów czasopism i podmiotów nauki

Analiza istniejących rankingów czasopism skłoniła część badaczy[2] do kategoryzacji możliwych podejść jako opartych na preferencjach deklarowanych (stated preference) lub preferencjach ujawnionych (revealed preference). Terminologia ta wywodzi się z badań nad zachowaniami konsumentów. Metoda preferencji deklarowanych dotyczy hipotetycznych (deklarowanych) zachowań rynkowych konsumentów i opiera się na danych zgromadzonych a priori za pomocą wywiadów i ankiet, które służą do rejestracji intencji wyrażanych przez konsumentów w momencie badań. Preferencje ujawnione stanowią odbicie rzeczywistych decyzji rynkowych konsumentów. Podstawą tej analizy jest najczęściej materiał statystyczny zgromadzony w wyniku rejestracji danych o przeszłych wyborach rynkowych konsumentów[3]. Rankingom czasopism opartym na opinii środowisk lub zespołów naukowych (czy komisji ekspertów) przeciwstawia się zatem rankingi oparte na badaniach bibliometrycznych; pierwsze odpowiadałyby preferencjom deklarowanym, drugie ujawnionym poprzez cytowanie czasopisma. Przeprowadzone ostatnio badania na grupie czasopism ekonomicznych wykazują dość duży stopień korelacji między rankingami powstałymi w efekcie użycia obu metod[4]. Praktycznie metody te współistnieją: rankingi tworzone przez ekspertów stanowią często punkt wyjścia dla analiz bibliometrycznych, rankingi oparte na cytowalności czasopism są uważnie śledzone przez naukowców, stając się istotnym źródłem ich przyszłych opinii i ocen.

Podobnie rzecz ma się z ewaluacją podmiotów nauki. W wielu krajach europejskich: w Wielkiej Brytanii, Norwegii, we Włoszech, także i w Polsce funkcjonuje system parametrycznej oceny ośrodków naukowych, następnie ich kategoryzacji, z czym wiąże się wielkość udzielanej dotacji. Niezależnie od tego mamy rankingi oparte na cytowalności prac naukowców z tych ośrodków. Także tutaj ciekawe byłoby zbadanie zbieżności obu metod. Badania takie prowadzi się w innych krajach: w Wielkiej Brytanii (np. Oppenhaim, Mingers i Harzing), Norwegii (np. Aksnes), we Włoszech (np. Reale). Postulat wykorzystania wskaźnika cytowalności do identyfikacji i wsparcia ośrodków badawczych, zajmujących w rankingach cytowań najwyższe miejsca, przedstawił, w formie referatu, na sympozjum w Warszawie[5] prof. Andrzej Pilc z Instytutu Farmakologii PAN w Krakowie, autor pierwszego (i jak dotąd jedynego) rankingu ośrodków badawczych w Polsce, opartego na indeksie Hirscha[6]. Mamy wreszcie różne systemy ocen naukowców: wieloparametryczny system IC Scientists, odzwierciedlający różne aspekty ich aktywności zawodowej[7] oraz rankingi oparte wyłącznie na cytowalności naukowców. Zgodnie z informacjami, które na wspomnianym sympozjum przekazał M.R. Graczyński (reprezentujący firmę Index Copernicus Int. S.A.), jednym ze składników oceny parametrycznej IC Scientists jest cytowalność naukowców. Uzasadnia to zajęcie się wskaźnikami bibliometrycznymi, tym bardziej, że narosło wokół nich sporo nieporozumień, które warto wyjaśnić.

Pomiar cytowalności: źródła danych

Pomiar cytowalności stał się możliwy dopiero w roku 1963, kiedy to założony przez E. Garfielda Instytut Informacji Naukowej w Filadelfii (ISI) wprowadził na rynek wydawaną do dziś bazę Science Citation Index (SCI). Produkt nie powstał jednak w tym celu. Jak wielokrotnie wyjaśniał jego twórca, i do czego niedawno znów nawiązał w swoim wystąpieniu na wspomnianym już sympozjum w Warszawie, indeksowanie cytowań było zabiegiem technicznym, mającym zastąpić czasochłonne i zawodne indeksowanie tematyczne, usprawnić wyszukiwanie dokumentów relewantnych w bazie, zbieżnych, czy to pod względem metody, czy przedmiotu opracowania. Potencjał tej informacji dla badań naukoznawczych już w roku 1965 dostrzegł Derek J. de Solla Price, jedna z głównych postaci współczesnej bibliometrii. Na materiale z bazy SCI opublikował w "Science" swój artykuł: Networks of scientific papers. The pattern of bibliographic references indicates the nature of the scientific research front[8]. Odtąd analiza cytowań stała się ważnym i nieomal samodzielnym działem bibliometrii. Tu też obserwujemy stały postęp w zakresie stosowanych metod i technik prezentacji danych, w tym najbardziej dziś znanych map nauki. Tendencjom tym towarzyszy także coraz szerszy i łatwiejszy dostęp do informacji o cytowaniach. Kilkudziesięcioletni monopol SCI i SSCI w latach 90. XX wieku został złamany i mamy dziś kilka alternatywnych źródeł danych o cytowalności czasopism. Obok komercyjnych baz SCI i SSCI posadowionych obecnie na platformie Web of Science (WoS), pojawiły się inne komercyjne indeksy cytowań (np. Scopus), także indeksy niekomercyjne, oparte na inicjatywie otwartych archiwów (np. SiteCeer), narodowe ogólne (np. Tajwan), narodowe specjalistyczne (np. ekonomiczne, Hiszpania). Cytowania dostępne są też w internetowych portalach tzw. agregatorów czasopism elektronicznych (np. EBSCO), a także na internetowych platformach poszczególnych wydawców. Dążąc do likwidacji owej "poszczególności", wydawcy uruchomili w 2004 r. wspólną wyszukiwarkę naukową CrossRef Search, wspieraną technologią Google, przyczyniając się do powstania Google Scholar. Udostępnili wówczas w ramach umowy z firmą Google zeskanowane pełne teksty artykułów. Zarówno Google Scholar, jak i CrossRef Search odpowiadają na postawione w oknie dialogowym pytanie listą wyników, będącą w istocie bibliografią artykułów ujmujących poszukiwane zagadnienia. Jednak Google Scholar wykorzystuje ponadto bibliografię załącznikową owych artykułów budując nawigację do artykułów cytujących jakiejkolwiek proweniencji (linkuje także do darmowych wersji artykułów znajdowanych w archiwach różnych instytucji i stowarzyszeń, na stronach prywatnych czy gdziekolwiek w Internecie). Całość, zaopatrzona statystykami cytowań, jest dzisiaj jednym z najbardziej popularnych i dostępnych źródeł informacji o cytowaniach czasopism i naukowców, zwłaszcza za sprawą programu Publish or Perish[9], który właśnie z racji dostępności posłuży jako źródło przykładów w dalszej części artykułu. W tym miejscu należy jeszcze dodać, że mamy także polskie indeksy cytowań oraz bazy zawierające cytowania z artykułów z polskich czasopism. Funkcjonują już zorganizowane przez zespoły bibliotek ogólnodostępne dziedzinowe indeksy cytowań: ARTON (polska literatura humanistyczna), CYTBIN (bibliotekoznawstwo i informacja naukowa). W kierunku indeksu cytowań planowana jest reorganizacja ogólnodostępnej, opracowywanej wspólnie przez biblioteki politechnik bibliografii artykułów z dziedziny techniki BAZTECH. Reorganizację taką mają już za sobą nieudostępniane w sieci rozległej bazy Uniwersytetu Ekonomicznego w Krakowie: GOSPODARKA i NAUKI SPOŁECZNE, rejestrujące artykuły z dziedziny ekonomii. Ubocznym produktem tych inicjatyw może być zwiększenie przejrzystości metod ewaluacji nauki w Polsce. Czy działania takie zostaną podjęte przez odpowiednie organy państwa?

Mierniki wpływu czasopisma

Impact Factor (IF)

Impact factor (w polskim tłumaczeniu czynnik wpływu lub miara oddziaływania) należy do grupy miar średnich - przedstawia uśrednioną z dwóch lat cytowalność czasopisma. W obecnym kształcie wskaźnik powstał w 1960 r.[10] jako narzędzie selekcji tytułów czasopism do bazy SCI.

IF danego czasopisma w danym roku jest ilorazem łącznej liczby cytowań, które w tym roku zebrały artykuły opublikowane w tym czasopiśmie w dwóch latach poprzednich, do liczby artykułów, które te cytowania mogły zebrać, tj. liczby artykułów opublikowanych w tym czasopiśmie w tym okresie:
IF(t)= [Ct(At-1)+ Ct(At-2)]/[ At-1+ At-2]
gdzie:
Ct(At-1) - to łączna liczba cytowań, które w roku t uzyskały artykuły, opublikowane w tym czasopiśmie w poprzednim roku;
Ct(At-2) - to łączna liczba cytowań, które w roku t uzyskały artykuły, opublikowane w tym czasopiśmie dwa lata wcześniej;
At-1 - to liczba wszystkich artykułów, które ukazały się w danym czasopiśmie w roku poprzednim;
At-2 - to liczba wszystkich artykułów, które ukazały się w danym czasopiśmie dwa lata wcześniej.
Podany poniżej przykład obliczania wskaźnika pochodzi z materiałów informacyjnych wydawcy "Journal Citation Report".

osiewalska1 (30K)
Rys. 1. Przykład obliczania wskaźnika IF
Źródło: Journal Citation Reports on the Web v.4.0
http://scientific.thomsonreuters.com/media/scpdf/jcr4_sem_0305.pdf (s. 10)


Broszura zawiera uwagi metodologiczne na temat wszystkich wskaźników, jakie opracowywane są dla czasopism WoS i które publikuje "Journal Citation Report".

Uśredniający charakter wskaźnika pozwala na porównywanie czasopism o różnej liczbie publikowanych artykułów i różnym okresie wydawania. W tym sensie wskaźnik daje szansę czasopismom nowym na rynku wydawniczym i czasopismom wąskospecjalistycznym o niewielkiej liczbie publikowanych artykułów. Jednocześnie uśrednia cytowalność artykułów rocznika. Patrząc na dane z powyższego przykładu, można przypuszczać, że średnio każdy artykuł jaki ukazał się w tym czasopiśmie w ostatnich dwóch latach cytowany był w 2003 r. raz lub dwa razy (i jest to główne źródło nieporozumień). Otóż mogło się też zdarzyć, że wszystkie cytowania odnoszące się do rocznika 2002 r. czasopismo zawdzięcza jednemu artykułowi. Podobnie mogło się zdarzyć z rocznikiem poprzednim. Skrajność tego rozumowania zapewne również nie odpowiada rzeczywistości, ale jest jej bliższa, ponieważ rozkład liczby cytowań jest bardzo skośny (najwięcej jest artykułów niecytowanych, następnie cytowanych tylko raz, ale zdarzają się artykuły o bardzo dużej cytowalności). Potwierdzeniem tej tezy są przykłady wskazane w artykule[11].

Corocznie obliczany, początkowo przez Filadelfijski Instytut Informacji Naukowej (stąd zapewne wzięło się w Polsce określenie lista filadelfijska), obecnie przez Thomson Reuters, wskaźnik uśrednionej z dwóch lat cytowalności czasopism, to oparty na zasobie WoS (pamiętajmy, że zawartość zasobu decyduje o wysokości wskaźnika) monitoring rejestrowanych w tych bazach czasopism. Wynik tego monitoringu publikowany jest corocznie w "Journal Citation Report", opisanym szczegółowo w PTIN w roku 2000[12].

Poniżej przedstawiono realny przykład kształtowania się IF dla różnych czasopism w różnych latach (dane pochodzą z różnych roczników "Journal Citation Report").

osiewalska2 (43K)

  1999 2000 2001 2002 2003 2004 2005 2006
Journal of Econometrics 0,83 0,98 1,27 1,11 1,14 1,32 1,58 1,67
Journal of Finance 2,65 2,75 2,96 3,49 3,27 3,11 2,55 3,26
Econometrica 2,21 1,87 1,92 2,74 2,22 2,16 2,63 2,4
Journal of the American Statistical Association 1,75 1,76 1,57 1,67 2,12 1,98 1,71 2,17
Journal of Business and Economic Statistics 0,74 0,75 0,62 0,8 1,19 1,21 0,97 1

Rys. 2. Przykład kształtowania się IF dla różnych czasopism w różnych latach
Źródło: opracowanie własne na podstawie JCR z lat 1999-2006.



Jak widać, IF czasopisma nie jest wartością stałą.

Prawidłowe obliczenie wskaźnika leży wyłącznie w gestii jego wydawcy i powinno zakładać kompletność badań (przy obliczaniu IF dla czasopisma A w danym roku, jeżeli liczone są cytowania z czasopisma B, to czasopismo B powinno być zindeksowane w bazie bez pominięcia jakiegokolwiek artykułu z któregokolwiek numeru tego rocznika) oraz korektę cytowań.

Spór wokół wskaźnika dotyczy przede wszystkim wykorzystywania go do oceny naukowców. Bardzo mocną krytykę tej praktyki przeprowadził na łamach EBIB-u Richard Monastersky[13]. Metodologiczną nieadekwatność wskaźnika dla tych celów udowodnił Andrzej Kajetan Wróblewski[14]. Dodajmy, że w obfitej literaturze przedmiotu dotyczącej identyfikacji najważniejszych czasopism ekonomicznych wskaźnik także jest krytykowany - przede wszystkim za to, że liczy cytowania z danego czasopisma we wszystkich czasopismach (rejestrowanych najpierw przez ISI, obecnie Thompson Reuters), w tym również czasopismach spoza danej dyscypliny szczegółowej. Zwraca się też uwagę na fakt, że IF liczy te cytowania wyłącznie z okresu ostatnich dwóch lat, niezależnie od dziedziny wiedzy, którą reprezentuje czasopismo. Tymczasem obserwuje się duże zróżnicowanie czasu od ukazania się publikacji do jej cytowania dla różnych dyscyplin naukowych. Modelowy histogram cytowalności czasopism z dziedziny nauk o zarządzaniu, jaki zamieścili w swym artykule[15], dobrze ilustruje tę sytuację.

osiewalska3 (96K)
Rys. 3. Histogram cytowalności czasopism z dziedziny nauk o zarządzaniu.
Modelowy histogram cytowalności czasopism z dziedziny nauk o zarządzaniu
Źródło: [TAHAI, A., MEYER, M.J. A revealed preference study of management journals' direct influences.
Strategic Management Journal, 1999, nr 20, s. 284].


Cytowania uzyskane w danym roku przez artykuły z dwóch wcześniejszych lat (dwa poczernione słupki histogramu na osi czasu, które posłużą do wyliczenia IF) wyraźnie nie odzwierciedlają rzeczywistego wpływu czasopism z tej dziedziny. Jedną z możliwych przyczyn może być fakt, że od momentu konstrukcji IF, okres między wysłaniem artykułu do redakcji czasopisma a jego publikacją wydłużył się w naukach ekonomicznych niemal dwukrotnie[16]. Jednak przyczyna może być inna, tkwiąca w samej dyscyplinie naukowej. Podobny kształt histogramu układa się z danych dotyczących cytowalności wydawanego w Polsce od 1901 r. "Ekonomisty".

osiewalska4 (21K)
Rys. 4. Rozkład liczby cytowań artykułów z "Ekonomisty" według różnicy lat między artykułem cytującym i cytowanym
Źródło: opracowanie własne na podstawie danych z baz GOSPODARKA i NAUKI SPOŁECZNE Biblioteki Głównej Uniwersytetu Ekonomicznego w Krakowie

Indeks Hirscha dla czasopism

Wprowadzony przez amerykańskiego fizyka Jorge Hirscha w 2005 r.[17] wskaźnik wpływu autora bardzo szybko został uznany przez bibliometryków[18] za adekwatny do pomiaru wpływu czasopisma. Współczynnik h dla czasopisma równy jest liczbie publikacji z tego czasopisma, cytowanych co najmniej h razy. Jego obliczenie wymaga uszeregowania w malejącym porządku cytowań artykułów analizowanego czasopisma, a następnie sprawdzenia, czy kolejna liczba porządkowa jest mniejsza lub równa liczbie cytowań odpowiadającego jej artykułu. Ostatnia z liczb porządkowych spełniających ten warunek to wielkość h. Sposób wyliczania wskaźnika zostanie przedstawiony na realnym przykładzie ogólnodostępnego programu Publish or Perish.

osiewalska5 (230K)
Rys. 5. Przykład obliczania wskaźnika h dla czasopisma


h = 4 oznacza, że 4. z kolei publikacja z czasopisma, jeżeli uszeregowane były one w kolejności uzyskanych cytowań, cytowana była co najmniej cztery razy.

Indeks nie należy do grupy miar średnich i w tym sensie różni się całkowicie od IF. W związku z tym preferować będzie czasopisma publikujące dużą liczbę artykułów i czasopisma o długiej tradycji. Trudno odmówić tu pewnej logiki: wszak są to czasopisma wpływowe. Zakłócenia związane z okresem wydawania czasopism można wyeliminować poprzez czasowe ograniczenie analizy. W związku z tym można porównać IF z indeksem h dla czasopism dla okresu dwuletniego. Wskaźnik IF dla danych z baz Thompson Reuters oraz indeks h dla czasopism wyliczony na danych z Google Scholar (w obu przypadkach dla czasopism z dziedziny ekonomii i zarządzania) okazują się silnie skorelowane (dla czasopism z siedmiu różnych subdyscyplin szczegółowych od 72% do 89%)[19]. Biorąc pod uwagę łatwość obliczania indeksu h i jego dużą wartość informacyjną, stanowi to dużą przewagę tego wskaźnika nad IF. Brak mechanizmów uśredniających stanowi siłę wskaźnika h w zakresie "obcinania" publikacji cytowanych niewielką liczbę razy, bez konieczności arbitralnego ustawiania wartości progowych. Stanowi jednakże również jego słabość. Odwołując się do przedstawionego wyżej przykładu, wskaźnik będzie identyczny dla czasopisma, którego trzy pierwsze w kolejności cytowań artykuły cytowane były wielokrotnie częściej, czwarty zaś artykuł cytowany był właśnie cztery razy. W tym sensie wskaźnik będzie równał dwa całkiem różne w sensie wpływu czasopisma. Korektę tej wady zapewnia indeks Egghe[20].

Indeks Egghe dla czasopism

Niestety, już nie tak prosty obliczeniowo indeks Egghe czasopisma (g-index), definiowany jest jako największa liczba g prac tego czasopisma, które uzyskały łącznie g2 cytowań. Przykładowo czasopismo, którego g-index = 10, opublikowało 10 artykułów, których łączna liczba cytowań jest nie mniejsza niż 100.
Obliczenie wskaźnika, oprócz uszeregowania artykułów według ich liczby cytowań, wymaga także liczenia łącznej liczby cytowań dla kolejnych artykułów z czasopisma i stałego ich porównywania z odpowiadającym kolejności tych artykułów kwadratami liczb porządkowych. Ostatnia z liczb porządkowych, której kwadrat jest mniejszy lub równy sumie cytowań odpowiadającego jej artykułu i cytowań artykułów wcześniejszych, to wielkość g.

cytowania
art. z A
kumulowana
liczba cytowań
dla A
cytowania
art. z B
kumulowana
liczba cytowań
dla B
g g2 warunek g
dla A
warunek g
dla B
8 8 50 50 1 1 1< 8 1< 50
6 14 30 80 2 4 4<14 4< 80
5 19 15 95 3 9 9<19 9< 95
5 24 10 105 4 16 16<24 16<105
4 28 4 109 5 25 25<28 25<109
3 31 3 112 6 36 36>31 36<112
2   2 114 7 49   49<114
1   1 115 8 64   64<115
1   1 116 9 81   81<116
1   1 117 10 100   100<117
1   1 118 11 121   121>118

Rys.6. Przykład obliczania wskaźnika g dla czasopisma, opracowanie własne


W sensie współczynnika g, wpływ czasopisma B jest dwukrotnie wyższy (g dla czasopisma B = 10) od wpływu czasopisma A (g dla czasopisma A = 5). Zauważmy, że wskaźnik h dla obu czasopism jest identyczny i wynosi 4. Wysokie wartości indeksu g świadczą o dużych liczbach najczęściej cytowanych artykułów czasopisma.

Mierniki wpływu autora

Wpływ autora to pojęcie ogólne i niejednoznaczne, którego sens i treść wydają się jednak intuicyjnie zrozumiałe. Próby precyzowania znaczenia tego pojęcia prowadzą do odmiennych mierników statystycznych, ujmujących w sposób ilościowy różne aspekty wpływu autora, ale niewyczerpujących intuicyjnego zakresu tego pojęcia. Wpływ autora jawi się więc jako złożona, wieloaspektowa zmienna nieobserwowalna o cechach zarówno ilościowych, jak i jakościowych. Mierniki statystyczne są pewnymi obserwowalnymi funkcjami tych ukrytych cech.

Liczba cytowań autora

Jest to miara najprostsza i najuboższa. Daje pojęcie o skali wpływu autora, nie wyjaśniając przyczyn zjawiska. Wyjaśnienie takie warto postarać się wydobyć z danych, różnie je ograniczając, czy to poprzez okresy czasu, czy też przez tytuły czasopism. Pozwala to wyeliminować różnice między autorami, wynikające z ich różnego wieku, określić przedziały czasowe dużej cytowalności autora lub specjalizację cytowanego autora, zazwyczaj zbieżną ze specjalizacją czasopisma, w którym cytowany jest on najczęściej.

Liczba cytowanych prac autora

Charakterystyka ta jest ważnym uzupełnieniem liczby cytowań autora. Jest skorelowana z produktywnością autora, co ustalił N. Phelan[21], zaznaczając, że korelacja nie jest silna i miary nie są względem siebie substytucyjne.

Indeksy Hirscha i Egghe dla autorów

Wskaźnik h w zamierzeniu amerykańskiego fizyka Jorge Hirscha[22] pomyślany był jako wskaźnik służący do mierzenia wpływu autora. Sposób jego wyliczania pokazano wcześniej dla czasopism, podgląd rzeczywistego przykładu pochodzi z ogólnodostępnego programu Publish or Perish[23].

osiewalska7 (236K)
Rys. 7. Przykład obliczania wskaźnika h dla autora


Przykładowo, jak na powyższym zrzucie ekranu, naukowiec, dla którego h-index = 12, to osoba, która opublikowała 12 prac, z których każda cytowana była nie mniej niż 12 razy (prace cytowane mniej niż 12 razy nie są wliczane; z kilku prac o "progowej" cytowalności 12 liczy się tylko jedna praca).

Wskaźnik cieszy się na tyle dużą popularnością wśród naukowców, że bazy Thompson Scientific (SCI i SSCI), SCOPUS i Google Scholar wprowadziły funkcję jego wyliczenia na zasobie. Należy od razu wyjaśnić, że w różnych źródłach jest on odmienny, odpowiednio do różnego zasobu tych baz. SCOPUS ma większy udział prac konferencyjnych, Web of Science ma silniejszą reprezentację artykułów z czasopism. Na trudnym do zdefiniowania, ale bardzo użytecznym zasobie Google Scholar, wskaźnik jest wyliczany przez program Publish or Perish. Przykład pochodzi właśnie z tego ostatniego źródła i został dobrany tak, aby pokazać trudności związane z jakością danych w Google Scholar (pierwszy i drugi wiersz wyników to identyczne prace, które należy scalić). Trudności te są jednak możliwe do przełamania, serwis oferuje możliwość zapisu wyników w formacie ze znacznikami pól. Ułatwia to przejście do Excela, w którym łatwe do uchwycenia oboczności (lub błędy) w danych można po prostu skorygować. Na podanym przykładzie usunięcie pierwszego wiersza i scalenie cytowań z wierszem drugim nie wpłynie na wielkość indeksu h, który nadal wynosić będzie 12. Dużą wartość tego źródła podkreśla artykuł[24], wysoko oceniający algorytmy rozpoznawania cytowań stosowane przez Google Scholar.

Indeks Hirscha dla autorów bardzo szybko zwrócił uwagę naukowców. Czasopismo "Scientometrics" poświęciło mu cały numer w roku 2006, opisany też został na łamach EBIB-u[25]. Zwraca się uwagę na jego słabe strony: preferowanie naukowców o dużym stażu naukowym, cytowanie negatywne (w opozycji do tez autora) czy też utratę informacji o pracy bardzo często cytowanej. Stało się to impulsem do dookreślania okresu czasu wyliczania wskaźnika oraz powstania udoskonalonych wskaźników bądź to wspierających h-index (jak na przykład a-index, definiowany jako średnia liczba cytowań, jakie otrzymały prace, na podstawie których wyliczono h-indeks), czy też stanowiących jego przekształcenie (g-index, omówiony już dla czasopism). Indeksy te nie są jednak tak popularne jak indeks h.

Przypisy

[1]  PHELAN, T.J. A compendium of issues for citation analysis. Scitentometrics 1999, nr 45(1), s. 117-136.

[2]  Zob.: TAHAI, A., MEYER, M.J. A revealed preference study of management journals` direct influences. Strategic Management Journal, 1999, nr 20, s. 279-296; HARZING, A.-W.K., VAN DER WAL, R. Comparing the Google Scholar H-index with the ISI Journal Impact Factor. W: Prof. Anne-Wil Harzing [on-line], [dostęp 15 listopada 2008]. Dostępny w World Wide Web: http://www.harzing.com/h_indexjournals.htm

[3]  VARIAN H.R. Mikroekonomia: kurs średni. Ujęcie nowoczesne. Warszawa: Wydaw. Naukowe PWN, 2005. ISBN: 83-01-14384-3

[4]  MINGERS, J., HARZING, A.-W.K. Ranking journals in business and management: a statistical analysis of the Harzing data set. European Journal of Information Systems 2007, nr 16(4), s. 303-316.

[5]  The Past, Present and Future of the Impact Factor and other Tools of Scientometrics. Warszawa, 26 września 2008 r

[6]  PILC, A. Na tropach jakości w nauce. Forum Akademicke 2005, nr 12/2005.

[7]  TCHOREK-HELM, C. INDEX COPERNICUS - społeczność 3.0. W: Komputer w Firmie (serwis internetowy) [on-line], [dostęp 15 listopada 2008]. Dostępny w World Wide Web: http://www.komputerwfirmie.pl/itbiznes/1,54785,4939161.html#dalej.

[8]  Artykuł ten pod tytułem Siatki powiązań publikacji naukowych. Struktura ilościowa przypisów bibliograficznych świadczy o sytuacji na froncie badań stanowi dodatek do książki Mała nauka - wielka nauka, wydanej przez PWN w 1967 r. w serii Omega.

[9]  Publish or perish (software) [on-line], [dostęp 15 listopada 2008]. Dostępny w World Wide Web: http://www.harzing.com/pop.htm

[10]  GARFIELD, E. The Agony and the Ecstasy - The History and Meaning of the Journal Impact Factor, International Congress on Peer Review And Biomedical Publication, Chicago, September 16, 2005. W: Eugene Garfield, Ph.D. [on-line], [dostęp 15 listopada 2008]. Dostępny w World Wide Web: http://www.garfield.library.upenn.edu/papers/jifchicago2005.pdf.

[11]  HARZIG, A.-W.K., VAN DER WAL, R. Comparing the Google Scholar H-index with the ISI Journal Impact Factor. W: Prof. Anne-Wil Harzing [on-line], [dostęp 15 listopada 2008]. Dostępny w World Wide Web: http://www.harzing.com/h_indexjournals.htm.

[12]  WRÓBEL, J., PACHOLSKA, A. Baza Journal Citation Reports. Praktyka i Teoria Informacji Naukowej i Technicznej 2000, nr 7(1), s. 25-28.

[13]  MONASTERSKY, R. Liczba, która paraliżuje naukę. Impact factor - kiedyś prosta metoda tworzenia rankingów czasopism naukowych, dziś bezwzględne kryterium zatrudniania i przyznawania grantów. Biuletyn EBIB [on-line], 2006, nr 3(73), [dostęp 15 listopada 2008]. Dostępny w World Wide Web: http://www.ebib.info/2006/73/monastersky.php. ISSN: 1507-7187

[14] . WRÓBLEWSKI, A.K. Bibliometryczna trylogia. Zagadnienia Naukoznawstwa 2002, T. 38, z. 1-2 (151-152), s. 7-29.

[15]  TAHAI, A., MEYER, M.J., dz. cyt.

[16]  FRANDSEN, T.F. Journal Interaction: a Bibliometric Analysis of Economics Journals. Journal of Documentation 2005, 61(3), s. 385-401.

[17]  HIRSCH, J.E. An index to quantify an individual`s scientific research output. Proceedings of the National Academy of Sciences, vol. 102 (2005) nr 46, s. 16569-16572. Wersja elektroniczna tego dokumentu na stronie www Narodowej Akademii Nauk USA [on-line], [dostęp 15 listopada 2008]. Dostępny w World Wide Web: http://www.pnas.org/cgi/doi/10.1073/pnas.0507655102.

[18]  BRAUN, T., Glänzel, W., Schubert, A. A. Hirsch-type index for journals. The Scientist 2005, nr 19(22), s. 8-10.

[19]  HARZIG, A.-W.K., VAN DER WAL, dz.cyt.

[20]  EGGHE, L. An improvement of the h-index: the g-index. ISSI Newsletter 2006, 2(1), s. 8-9.

[21]  Phelan T.J., dz. cyt.

[22]  Hirsch, J.E., dz. cyt.

[23]  Publish or perish dz. cyt.

[24]  BELEW R.K. Scientific impact quantity and quality: Analysis of two sources of bibliographic data [on-line], 2005 [dostęp 15 listopada 2008]. Dostępny w World Wide Web: http://arxiv.org/abs/cs/0504036v1

[25]  REK, B. Indeks mierzący efektywność badawczą naukowca. Biuletyn EBIB [on-line]. 2008, nr 1(92) [dostęp 15 listopada 2008]. Dostępny w World Wide Web: http://www.ebib.info/2008/92/a.php?rek. ISSN 1507-7187

Literatura

AKSNES, D.W. TAXT, R.E., Peer reviews and bibliometric indicators: a comparative study at a Norwegian university. Research Evaluation, 2004, No 13(1), s. 33-41.

EGGHE, L. Theory and practice of the g-index, Scientometrics 2006, vol. 69, No 1, s. 131-152.

IndexCopernicus Evaluation Methodology 2008; [dostęp 15 listopada 2008]. Dostępny w World Wide Web:http://journals.indexcopernicus.com/info.php

Journal Citation Reports (2005) [on-line], [dostęp 15 listopada 2008]. Dostępny w World Wide Web : http://scientific.thomsonreuters.com/media/scpdf/jcr4_sem_0305.pdf

KAMIŃSKA-WŁODARCZYK, R.; SIWIEC-KURCZAB, B. (2003), Problemy oceny dorobku naukowego w Polsce. cz.1 W: Biuletyn Informacyjny Biblioteki Głównej Akademii Wychowania Fizycznego w Krakowie [on-line], nr 1, s. 7-14. [dostęp 15 listopada 2008]. Dostępny w World Wide Web: http://biblioteka.awf.krakow.pl/biul103.pdf

KAMIŃSKA-WŁODARCZYK, R.; SIWIEC-KURCZAB, B. (2003), Problemy oceny dorobku naukowego w Polsce. cz.2 W: Biuletyn Informacyjny Biblioteki Głównej Akademii Wychowania Fizycznego w Krakowie [on-line], nr 2, s. 7-19. [dostęp 15 listopada 2008]. Dostępny w World Wide Web: http://biblioteka.awf.krakow.pl/biul203.pdf

OPPENHEIM, C. The correlation between citation counts and the 1992 research assessment exercise ratings for British research in genetics, anatomy and archaeology. Journal of Documentation 1997, 53(5), s. 477-487.

PAWŁOWSKI L.: Jak klasyfikować czasopisma, Forum Akademickie , 2006, nr 12/2006

REALE E., BARBARA A., COSTANTINI A., Peer review for the evaluation of academic research: lessons from the Italian experience. Research Evaluation 2007, nr 16(3), s. 216-228.

 Początek strony



Mierniki oceny czasopism i naukowców / Anna Osiewalska// W: Biuletyn EBIB [Dokument elektroniczny] / red. naczelny Bożena Bednarek-Michalska - Nr 8/2008 (99) listopad. - Czasopismo elektroniczne. - [Warszawa] : Stowarzyszenie Bibliotekarzy Polskich KWE, 2010. - Tryb dostępu: http://www.ebib.info/2010/99/a.php?osiewalska. - Tyt. z pierwszego ekranu. - ISSN 1507-7187