0,0 Gunnar Sivertsen 1981 1982 1983 1984 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 3,0 2,5 Sweden 2,0 Denmark 1,5 1,0 Finland 0,5 Norway Innføring i bibliometri Oversikt 1. Hva er bibliometri? Historisk innledning En enkel, illustrert definisjon 2. Bibliometriske datakilder 3. Om å undersøke Forskningsaktivitet Fagprofiler Gjennomslagskraft i senere forskning Forskningssamarbeid 4. Leiden-manifestet og ansvarlig bibliometri Oversikt 1. Hva er bibliometri? Historisk innledning En enkel, illustrert definisjon 2. Bibliometriske datakilder 3. Om å undersøke Forskningsaktivitet Fagprofiler Gjennomslagskraft i senere forskning Forskningssamarbeid 4. Leiden-manifestet og ansvarlig bibliometri Pionerer innenfor bibliometri Alfred J. Lotka (1880-1949) demonstrated in 1926 that the productivity differences of authors follow a fixed ratio. Lotka’s law: 1/na Pionerer innenfor bibliometri Samuel C. Bradford (1878-1948) demonstrated in 1934 the exponentially diminishing returns of extending a search for references in science journals. Bradford’s law of scattering is the basis for the notion of core journals Pionerer innenfor bibliometri Robert K. Merton (1910-2003) demonstrated the “Matthew effect” (accumulated advantage) in (the sociology of) science by using bibliometrics Pionerer innenfor bibliometri Derek J. de Solla Price (1922-1983) demonstrated the exponential growth and the structure of modern science by partly using bibliometrics Pionerer innenfor bibliometri Eugene Garfield (b. 1925) launched the Science Citation Index in 1964 as a tool for information retrieval, not as a tool for research evaluation “Citations are the formal, explicit linkages between papers that have particular points in common. A citation index is built around these linkages.” Citation Indexing, 1979. Pionerer innenfor bibliometri Eugene Garfield (b. 1925) developed the Journal Impact Factor as a management tool for libraries (journal selection), not as a tool for research evaluation Internasjonale tidsskrifter og konferanser Tidsskrifter (viktigste) Scientometrics Journal of Informetrics Journal of the American Association of Information Science and Technology Research Policy Research Evaluation Konferanser (viktigste) ISSI (International Society for Scientometrics and Infometrics STI ENID (Science & Technology Indicators) Oversikt 1. Hva er bibliometri? Historisk innledning En enkel, illustrert definisjon 2. Bibliometriske datakilder 3. Om å undersøke Forskningsaktivitet Fagprofiler Gjennomslagskraft i senere forskning Forskningssamarbeid 4. Leiden-manifestet og ansvarlig bibliometri Bibliografiske datakilder brukes vanligvis til å søke og gjenfinne forskningslitteratur Publikasjoner Forskere som forfattere Bibliografiske datakilder Publikasjoner Forskere som lesere Kan også brukes til å studere den forskningen som ligger bak publikasjonen Publikasjoner Forskere som forfattere Bibliografiske datakilder Publikasjoner Forskere som lesere I studier av forskning er bibliometri: Kvantitative studier av forskning som benytter bibliografiske datakilder Publikasjoner Forskere som forfattere Bibliografiske datakilder Publikasjoner Forskere som lesere Forskning må publiseres. Altså kan forskning studeres der den «kommer til syne» – i publikasjonene Publikasjoner Forskere som forfattere Bibliografiske datakilder Publikasjoner Forskere som lesere Forskere må oppgi relevante referanser. Altså kan vi studere i hvilken grad forskning har nytte i videre forskning. Publikasjoner Forskere som forfattere Bibliografiske datakilder Publikasjoner Forskere som lesere Når flere forskere publiserer sammen, kan vi også studere forskningssamarbeid Publikasjoner Forskere som forfattere Publikasjoner Forskere som lesere Oversikt 1. Hva er bibliometri? Historisk innledning En enkel, illustrert definisjon 2. Bibliometriske datakilder 3. Om å undersøke Forskningsaktivitet Fagprofiler Gjennomslagskraft i senere forskning Forskningssamarbeid 4. Leiden-manifestet og ansvarlig bibliometri Page 19 Google Scholar is of great help to the scientist as reader but not to the bibliometrician: No control over data and methods Journal of Advanced Nursing Journal of Clinical Nursing Nursing Ethics Pflege Scandinavian Journal of Caring Sciences Journal of Advanced Nursing Journal of Clinical Nursing Nursing Ethics Pflege Scandinavian Journal of Caring Sciences International Journal of Nursing Studies Journal of Advanced Nursing Journal of Clinical Nursing Nursing Ethics Pflege Scandinavian Journal of Caring Sciences International Journal of Nursing Studies Vård i Norden Nordisk Sygeplejeforskning Ufullstendig dekning av internasjonale tidsskrifter. Books Veldig begrenset dekning av vitenskapelige bøker. Indexed journals Tilfeldig eller manglende dekning av vitenskapelig publisering på nasjonalspråkene. Journals and series Coverage of 70,500 scholarly publications from the higher education sector in Norway 2005-2012. 100% Scopus Web of Science 90% 80% 70% 60% 50% 40% 30% 20% 10% 0% Health Sciences Natural Sciences Engineering Social Sciences Humanities Referenser importert fra ISI Web of Science Egenrapporterte referanser Data i en siteringsindeks: 1. Vanlige metadata Data i en siteringsindeks: 2. Samtlige forfatteradresser! Data i en siteringsindeks: 3. Klassifisering av fag, språk og dokumenttype Data i en siteringsindeks: 4. Hele referanselisten! Noen referanser kan lenkes til allerede indekserte artikler Andre referanser kan ikke lenkes Data i en siteringsindeks: 5. Siteringer fra senere artikler! Oversikt 1. Hva er bibliometri? Historisk innledning En enkel, illustrert definisjon 2. Bibliometriske datakilder 3. Om å undersøke Forskningsaktivitet Fagprofiler Gjennomslagskraft i senere forskning Forskningssamarbeid 4. Leiden-manifestet og ansvarlig bibliometri Forfattere og forfatteradresser Andeler av verdens artikler (ISI Web of Science 2000-2013) Source: National Science Indicators (NSI), Thomson Reuters 40,0 % 35,0 % USA 30,0 % 25,0 % UK 20,0 % 15,0 % Germany 10,0 % 5,0 % 0,0 % China Andeler av verdens artikler (ISI Web of Science 2000-2012) Source: National Science Indicators (NSI), Thomson Reuters 2,5 % Sweden 2,0 % Denmark 1,5 % 1,0 % Finland 0,5 % Norway 0,0 % 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 Artikler pr. 1000 innbyggere (ISI Web of Science 1981-2012) Source: National Science Indicators (NSI), Thomson Reuters 3,0 Sweden 2,5 2,0 Denmark 1,5 Finland 1,0 0,5 Norway 1981 1982 1983 1984 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 0,0 1980 1981 1982 1983 1984 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 World production in Web of Science 1980-2013 1 600 000 1 400 000 1 200 000 1 000 000 800 000 600 000 400 000 200 000 0 Fordeling av forskningsaktivitet i U&H-sektoren. Publiseringspoeng 2005-2010 UiO NTNU UiB 72 prosent UiT UMB UiS UiA 8 promille UiN 9 vit høgskoler 50 høgskoler 0 5000 10000 15000 20000 25000 Fordeling av forskningsaktivitet i U&H-sektoren. Publiseringspoeng 2005-2010 UiO NTNU UiB 72 prosent UiT UMB UiS UiA 8 promille UiN 9 vit høgskoler HiOA: 2,4 prosent 50 høgskoler 0 5000 10000 15000 20000 25000 Basert på 13 630 publikasjoner fra 17 314 forskere i CRIStin 2011 – alle tre sektorer Figure 1. Age and women's share of Norway's researchers and their total scientific publication output in 2011 60% 50% 40% 30% 20% Publications 10% Researchers 0% 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 Age (years) Page 45 Oversikt 1. Hva er bibliometri? Historisk innledning En enkel, illustrert definisjon 2. Bibliometriske datakilder 3. Om å undersøke Forskningsaktivitet Fagprofiler Gjennomslagskraft i senere forskning Forskningssamarbeid 4. Leiden-manifestet og ansvarlig bibliometri Data i en siteringsindeks: 3. Klassifisering av fag, språk og dokumenttype Web of Science 1989-2012: Artikler fra Norge i internasjonale tidsskrifter i sykepleievitenskap 180 160 140 120 100 80 60 40 20 0 Universiteter og høgskoler 2005-2010: Vitenskapelig publisering i sykepleievitenskap 160 140 120 100 80 60 40 20 0 2005 2006 2007 2008 2009 2010 Universiteter og høgskoler 2005-2010: Vitenskapelig publisering i sykepleievitenskap Høgskolen i Oslo og Akershus Universitetet i Oslo Universitetet i Bergen Universitetet i Stavanger Høgskolen i Buskerud Høgskolen i Bergen Universitetet i Tromsø Høgskolen Stord/Haugesund Høgskolen i Vestfold Høgskolen i Gjøvik Lovisenberg diakonale høgskole Universitetet i Agder Høgskolen i Hedmark 0 50 100 150 200 Artikler pr. tidsskrift fra norske universiteter og høgskoler 2005-2012: Sykepleievitenskap Journal of Clinical Nursing Scandinavian Journal of Caring Sciences Journal of Advanced Nursing Vård i Norden Sykepleien Forskning Nursing Ethics Norsk tidsskrift for sykepleieforskning International Journal of Nursing Studies Klinisk Sygepleje Cancer Nursing Journal of Nursing Management Nordisk sygeplejeforskning Scandinavian Journal of Caring Sciences Nurse Education Today Nursing Inquiry Nursing and Health Sciences International Journal of Older People Nursing Nursing Philosophy Journal of Psychiatric and Mental Health Nursing Intensive & Critical Care Nursing Nurse Education in Practice 73 andre tidsskrifter 0 100 200 300 Artikler pr. tidsskrift fra norske universiteter og høgskoler 2005-2012: Sykepleievitenskap Journal of Clinical Nursing Scandinavian Journal of Caring Sciences Journal of Advanced Nursing Vård i Norden Sykepleien Forskning Nursing Ethics Norsk tidsskrift for sykepleieforskning International Journal of Nursing Studies Klinisk Sygepleje Cancer Nursing Journal of Nursing Management Nordisk sygeplejeforskning Scandinavian Journal of Caring Sciences Nurse Education Today Nursing Inquiry Nursing and Health Sciences International Journal of Older People Nursing Nursing Philosophy Journal of Psychiatric and Mental Health Nursing Intensive & Critical Care Nursing Nurse Education in Practice 73 andre tidsskrifter 0 100 200 300 Fagprofiler i forskningen ved tre norske universiteter 100 % 90 % Tekn 80 % 70 % Nat 60 % 50 % Helse 40 % 30 % Sam 20 % 10 % Hum 0% NTNU UiB UMB Oversikt 1. Hva er bibliometri? Historisk innledning En enkel, illustrert definisjon 2. Bibliometriske datakilder 3. Om å undersøke Forskningsaktivitet Fagprofiler Gjennomslagskraft i senere forskning Forskningssamarbeid 4. Leiden-manifestet og ansvarlig bibliometri Data i en siteringsindeks: 5. Siteringer fra senere artikler! Books Indexed journals Journals and series 100% Scopus ISI Web of Science 90% 80% 70% 60% 50% 40% 30% 20% 10% 0% Health Sciences Natural Sciences Engineering Social Sciences Humanities Referanseadferd og dekning i Web of Science - eksempler History Linguistics Sociology Economics Gastroenterology 41 55 64 31 57 Average age of cited work 23 years 14 years 13 years 12 years 10 years References to journals 17 % 27 % 56 % 74 % 96 % References to WoS journals 2% 20 % 50 % 68 % 93 % Average citation rate in field (5 yrs) 0,27 1,69 1,90 2,36 6,78 References Gjennomsnittlig antall siteringer varierer mellom fagfelt Nødvendig å sammenligne innen fagfelt, eller å normalisere: dividere på gjennomsnittet innen vedkommende fagfelt, eller beregne andeler på tvers CELL BIOLOGY NUCLEAR PHYSICS IMMUNOLOGY BEHAVIORAL SCIENCES GEOLOGY PSYCHOLOGY ECONOMICS POLITICAL SCIENCE MATHEMATICS LINGUISTICS PHILOSOPHY HISTORY 0 10 20 30 Fordelingen av 2193 siteringer t.o.m. 2009 mellom 393 ISI-artikler fra 2007 ved Med Fak, Universitetet i Tromsø 160 140 120 100 80 60 45 artikler (11 prosent) har mottatt halvparten av siteringene. Halvparten av artiklene er sitert null til to ganger 40 0 1 10 19 28 37 46 55 64 73 82 91 100 109 118 127 136 145 154 163 172 181 190 199 208 217 226 235 244 253 262 271 280 289 298 307 316 325 334 343 352 361 370 379 388 20 Distribution of citations among articles by one highly cited author 500 450 400 350 300 250 200 150 100 50 0 Distribution of citations among articles by one highly cited author 500 450 400 350 300 Mean = 50,7 250 200 H-index = 49 150 100 50 0 Median = 28 Distribution of citations among articles by one highly cited author 500 450 400 350 300 Mean = 50,7 250 200 H-index = 49 150 100 50 0 Median = 28 Fordelingen av 4845 siteringer mellom 405 artikler publisert siden 1992 i Science, Technology & Human Values 300 250 200 150 40 artikler (10 prosent) har mottatt halvparten av siteringene. Gjennomsnitts-impact er 10 siteringer. 100 0 405 396 387 381 369 359 354 343 338 330 317 311 301 291 279 259 268 243 252 224 233 200 209 218 181 190 151 160 169 122 131 140 90 99 108 117 62 71 80 89 9 18 27 36 45 50 Fordelingen av 4845 siteringer mellom 405 artikler publisert siden 1992 i Science, Technology & Human Values 300 250 200 150 Journal Impact Factor 100 0 405 396 387 381 369 359 354 343 338 330 317 311 301 291 279 259 268 243 252 224 233 200 209 218 181 190 151 160 169 122 131 140 90 99 108 117 62 71 80 89 9 18 27 36 45 50 Femti grupper i spiss: Eksempel NTNU Mest sitert forsker Relatert gruppe Kavli-instituttet / Senter for nevrale nettverk Edvard I. Moser Totalt antall artikler Totalt antall siteringer Siteringstall mest sitert artikkel Siteringsindeks Tema 29 3054 589 3.24 Nevrovitenskap 37 3304 589 3.10 Nevrovitenskap Femti grupper i spiss: Epidemiologi, brystkreft Forskergruppe ved UiT Norges arktiske universitet: 10 441 siteringer Femti grupper i spiss: Polarforskning, økotoksikologi Forskergruppe ved Norsk polarinstitutt: 3218 siteringer Field normalized citation rates 2008-2011. Major universities Technical Univ of Denmark Aarhus Univ Stockholm Univ Univ of Copenhagen Karolinska Institutet Univ of Southern Denmark Swedish Univ of Agricultural Sci Univ of Helsinki Univ of Gothenburg Uppsala Univ Lund Univ Univ of Oslo Chalmers Univ of Technology Norwegian Univ of Sci and Tech Aalborg Univ Linköping Univ Umeå Univ Royal Institute of Technology Univ of Bergen Aalto Univ Univ of Iceland Univ of Jyväskylä Univ of Tromsø Univ of Eastern Finland Univ of Turku Univ of Oulu 0,00 0,20 0,40 0,60 0,80 1,00 1,20 1,40 1,60 1,80 Field normalized citation rates 2008-2011. Major universities Technical Univ of Denmark Aarhus Univ Stockholm Univ Univ of Copenhagen Karolinska Institutet Univ of Southern Denmark Swedish Univ of Agricultural Sci Univ of Helsinki Univ of Gothenburg Uppsala Univ Lund Univ Univ of Oslo Chalmers Univ of Technology Norwegian Univ of Sci and Tech Aalborg Univ Linköping Univ Umeå Univ Royal Institute of Technology Univ of Bergen Aalto Univ Univ of Iceland Univ of Jyväskylä Univ of Tromsø Univ of Eastern Finland Univ of Turku Univ of Oulu 0,00 0,20 0,40 0,60 0,80 1,00 1,20 1,40 1,60 1,80 Field normalized citation rates 2008-2011. Major universities Technical Univ of Denmark Aarhus Univ Stockholm Univ Univ of Copenhagen Karolinska Institutet Univ of Southern Denmark Swedish Univ of Agricultural Sci Univ of Helsinki Univ of Gothenburg Uppsala Univ Lund Univ Univ of Oslo Chalmers Univ of Technology Norwegian Univ of Sci and Tech Aalborg Univ Linköping Univ Umeå Univ Royal Institute of Technology Univ of Bergen Aalto Univ Univ of Iceland Univ of Jyväskylä Univ of Tromsø Univ of Eastern Finland Univ of Turku Univ of Oulu 0,00 0,20 0,40 0,60 0,80 1,00 1,20 1,40 1,60 1,80 Field normalized citation rates 2008-2011. Major universities Technical Univ of Denmark Aarhus Univ Stockholm Univ Univ of Copenhagen Karolinska Institutet Univ of Southern Denmark Swedish Univ of Agricultural Sci Univ of Helsinki Univ of Gothenburg Uppsala Univ Lund Univ Univ of Oslo Chalmers Univ of Technology Norwegian Univ of Sci and Tech Aalborg Univ Linköping Univ Umeå Univ Royal Institute of Technology Univ of Bergen Aalto Univ Univ of Iceland Univ of Jyväskylä Univ of Tromsø Univ of Eastern Finland Univ of Turku Univ of Oulu 0,00 0,20 0,40 0,60 0,80 1,00 1,20 1,40 1,60 1,80 Relativ siteringsindeks, vektet etter fagprofil, 1981-2011 Source: National Science Indicators (NSI), Thomson Reuters 1,7 Danmark 1,5 Finland 1,3 Norge 1,1 Sverige Verden 0,9 0,7 0,5 1981 1982 1983 1984 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 0,3 Oversikt 1. Hva er bibliometri? Historisk innledning En enkel, illustrert definisjon 2. Bibliometriske datakilder 3. Om å undersøke Forskningsaktivitet Fagprofiler Gjennomslagskraft i senere forskning Forskningssamarbeid 4. Leiden-manifestet og ansvarlig bibliometri Data i en siteringsindeks: 2. Samtlige forfatteradresser! ”Norske” Web of Science-artikler med og uten internasjonalt samarbeid 1993-2012 12000 Med internasjonalt samarbeid Uten internasjonalt samarbeid 10000 8000 6000 4000 2000 2012 2011 2010 2009 2008 2007 2006 2005 2004 2003 2002 2001 2000 1999 1998 1997 1996 1995 1994 1993 0 Hvor er samarbeidet? 4000 EU utenom Norden 3500 Nord-Amerika 3000 Andre Norden internt 2500 2000 1500 1000 500 2012 2011 2010 2009 2008 2007 2006 2005 2004 2003 2002 2001 2000 1999 1998 1997 1996 1995 1994 1993 0 Fire ting som ofte måles og undersøkes i bibliometriske studier av forskning Forskningsaktivitet Fagprofil Publikasjoner pr. forskningsenhet Publikasjoner pr. fagfelt Gjennomslagskraft Siteringer til publikasjonene Forskningssamarbeid Adresser i publikasjoner Oversikt 1. Hva er bibliometri? Historisk innledning En enkel, illustrert definisjon 2. Bibliometriske datakilder 3. Om å undersøke Forskningsaktivitet Fagprofiler Gjennomslagskraft i senere forskning Forskningssamarbeid 4. Leiden-manifestet og ansvarlig bibliometri The “Leiden Manifesto” The 10 principles can be summarized as follows: 1. Quantitative indicators cannot replace the judgment of expert assessors, but they can be used to help support them. 2. Evaluation of research activity has to adapt to the mission and objectives of the institution, individual or group being evaluated. 3. Indicators need to be developed that reflect the impact of research activities locally and regionally, and those that are developed in languages other than English. 4. The data collection and analysis processes have to be open, transparent and simple. 5. Those evaluated have to be able to verify the analysis of the indicators being used for the evaluation and, if they disagree, request re-evaluation. 6. The differences existing in terms of impact in different fields of research have to be taken into account when producing indicators. 7. Individual evaluation of researchers has to be based on qualitative assessment of their portfolio. Indicators cannot be used without taking into account the researcher’s context. 8. False precision and misplaced concreteness must be avoided. 9. The effects of certain indicators as incentives for certain activities and disincentives for others must be taken into account. 10. The indicators have to be reviewed and updated regularly. The “Leiden Manifesto” The 10 principles can be summarized as follows: 1. Quantitative indicators cannot replace the judgment of expert assessors, but they can be used to help support them. 2. Evaluation of research activity has to adapt to the mission and objectives of the institution, individual or group being evaluated. 3. Indicators need to be developed that reflect the impact of research activities locally and regionally, and those that are developed in languages other than English. 4. The data collection and analysis processes have to be open, transparent and simple. 5. Those evaluated have to be able to verify the analysis of the indicators being used for the evaluation and, if they disagree, request re-evaluation. 6. The differences existing in terms of impact in different fields of research have to be taken into account when producing indicators. 7. Individual evaluation of researchers has to be based on qualitative assessment of their portfolio. Indicators cannot be used without taking into account the researcher’s context. 8. False precision and misplaced concreteness must be avoided. 9. The effects of certain indicators as incentives for certain activities and disincentives for others must be taken into account. 10. The indicators have to be reviewed and updated regularly. Research Evaluation and Performance Indicators Bibliometrics may inform, but not replace peer review The “Leiden Manifesto” The 10 principles can be summarized as follows: 1. Quantitative indicators cannot replace the judgment of expert assessors, but they can be used to help support them. 2. Evaluation of research activity has to adapt to the mission and objectives of the institution, individual or group being evaluated. 3. Indicators need to be developed that reflect the impact of research activities locally and regionally, and those that are developed in languages other than English. 4. The data collection and analysis processes have to be open, transparent and simple. 5. Those evaluated have to be able to verify the analysis of the indicators being used for the evaluation and, if they disagree, request re-evaluation. 6. The differences existing in terms of impact in different fields of research have to be taken into account when producing indicators. 7. Individual evaluation of researchers has to be based on qualitative assessment of their portfolio. Indicators cannot be used without taking into account the researcher’s context. 8. False precision and misplaced concreteness must be avoided. 9. The effects of certain indicators as incentives for certain activities and disincentives for others must be taken into account. 10. The indicators have to be reviewed and updated regularly. Ufullstendig dekning av internasjonale tidsskrifter. Books Veldig begrenset dekning av vitenskapelige bøker. Indexed journals Tilfeldig eller manglende dekning av vitenskapelig publisering på nasjonalspråkene. Journals and series Coverage of 70,500 scholarly publications from the higher education sector in Norway 2005-2012. 100% Scopus Web of Science 90% 80% 70% 60% 50% 40% 30% 20% 10% 0% Health Sciences Natural Sciences Engineering Social Sciences Humanities The “Leiden Manifesto” The 10 principles can be summarized as follows: 1. Quantitative indicators cannot replace the judgment of expert assessors, but they can be used to help support them. 2. Evaluation of research activity has to adapt to the mission and objectives of the institution, individual or group being evaluated. 3. Indicators need to be developed that reflect the impact of research activities locally and regionally, and those that are developed in languages other than English. 4. The data collection and analysis processes have to be open, transparent and simple. 5. Those evaluated have to be able to verify the analysis of the indicators being used for the evaluation and, if they disagree, request reevaluation. 6. The differences existing in terms of impact in different fields of research have to be taken into account when producing indicators. 7. Individual evaluation of researchers has to be based on qualitative assessment of their portfolio. Indicators cannot be used without taking into account the researcher’s context. 8. False precision and misplaced concreteness must be avoided. 9. The effects of certain indicators as incentives for certain activities and disincentives for others must be taken into account. 10. The indicators have to be reviewed and updated regularly. Forskningsrådets fagevalueringer som mønster Principles behind the use of institutional data in a shared national Current Research Information System • Completeness: All scholarly publications and other results from research are included • Transparency: Every institution can see and check all other institutions’ data. The national database is also online and open to society at large. • Multiple use of the data: CV’s, applications, evaluations, annual reports, internal administration, bibliography for Open Archives, links to full text, etc. The “Leiden Manifesto” The 10 principles can be summarized as follows: 1. Quantitative indicators cannot replace the judgment of expert assessors, but they can be used to help support them. 2. Evaluation of research activity has to adapt to the mission and objectives of the institution, individual or group being evaluated. 3. Indicators need to be developed that reflect the impact of research activities locally and regionally, and those that are developed in languages other than English. 4. The data collection and analysis processes have to be open, transparent and simple. 5. Those evaluated have to be able to verify the analysis of the indicators being used for the evaluation and, if they disagree, request re-evaluation. 6. The differences existing in terms of impact in different fields of research have to be taken into account when producing indicators. 7. Individual evaluation of researchers has to be based on qualitative assessment of their portfolio. Indicators cannot be used without taking into account the researcher’s context. 8. False precision and misplaced concreteness must be avoided. 9. The effects of certain indicators as incentives for certain activities and disincentives for others must be taken into account. 10. The indicators have to be reviewed and updated regularly. The “Leiden Manifesto” Principle 7 The older you are, the higher your h-index, even in the absence of new papers. The h-index varies by field: life scientists top out at 200; physicists at 100 and social scientists at 20–30. It is database dependent: there are researchers in computer science who have an h-index of around 10 in the Web of Science but of 20–30 in Google Scholar. Distribution of citations among articles by one highly cited author 500 450 400 350 300 Mean = 50,7 250 200 H-index = 49 150 100 50 0 Median = 28 Fordelingen av 4845 siteringer mellom 405 artikler publisert siden 1992 i Science, Technology & Human Values 300 250 200 150 Journal Impact Factor 100 0 405 396 387 381 369 359 354 343 338 330 317 311 301 291 279 259 268 243 252 224 233 200 209 218 181 190 151 160 169 122 131 140 90 99 108 117 62 71 80 89 9 18 27 36 45 50 Den nye indikatoren Publication type Level 1 Level 2 Article in ISSN-title 1 3 Article in ISBN-title 0,7 1 5 8 ISBN-title Uendret Brøkdeling av publikasjonen ved mer enn én institusjon Publication Institusjonens andel erstattes med kvadratroten av institusjonens andel Author 1 Institution A Poenget kan multipliseres med en bestemt faktor hvis det foreligger institusjonelt eller internasjonalt samarbeid Author 2 Institution B Institution C Author 3 Institution C Faktor på 1,3 i alle tre sektorer for internasjonalt samforfatterskap The “Leiden Manifesto” Principle 7 Reading and judging a researcher's work is much more appropriate than relying on one number. Even when comparing large numbers of researchers, an approach that considers more information about an individual's expertise, experience, activities and influence is best.
© Copyright 2024