• Keine Ergebnisse gefunden

Fakultät für Informations- und Kommunikationswissenschaften. Institut für Informationswissenschaft

N/A
N/A
Protected

Academic year: 2022

Aktie "Fakultät für Informations- und Kommunikationswissenschaften. Institut für Informationswissenschaft"

Copied!
107
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Fakultät für Informations- und Kommunikationswissenschaften Institut für Informationswissenschaft

Masterarbeit Dr. Dirk Tunger Prof. Dr. Simone Fühles-Ubach

Datenquellen für bibliometrische Auswertungen: Entwicklung, Einsatzszenarien und Grenzen etablierter Literaturdatenbanken und deren Alternativen

Bibliometrie

vorgelegt von: Anett Sollmann

Bibliotheks- und Informationswissenschaft MALIS 18.5

am 10.08.2021 bei Dr. Dirk Tunger.

(2)

Abstract

Die Handhabung von Publikationen im Bereich der Medizin und Pharmazie unterliegt besonderen Gegebenheiten, da sich die Forschung rasant entwickelt. Dies bedeutet auf der einen Seite, dass die Forscher*innen direkten Zugang zu den neusten Publikationen benötigen, zum anderen betrifft es die eigenen Veröffentlichungen, die so platziert werden müssen, dass sie Aufmerksamkeit in der Wissenschaftskommunikation erhalten. Diese Anforderungen werden aus Sicht einer medizinischen Spezialbibliothek betrachtet. Analysiert werden für die Literaturbereitstellung Web of Science, Scopus, Dimensions, und PubMed als etablierte Literaturdatenbanken und ein Discovery Service (Bibliothekssystem), Wikidata und die NFDI als Alternativen. Für die Sichtbarkeit und damit die Gewichtung der eigenen Publikationen werden bibliometrischen Kennzahlen wie der Impact Factor und der CiteScore verglichen. Außerdem werden die Altmetriken mit ihren Tools wie Altmetrics, PlumX Metric, OpenCitation, VosViewer und Scholia vorgestellt. Die Ergebnisse dieser Analyse sollen für die Anpassung der Bibliotheksinfrastruktur genutzt werden.

(3)

1 Inhaltsverzeichnis

1 Inhaltsverzeichnis ... 1

2 Abkürzungsverzeichnis ... 3

3 Einleitung ... 4

4 Präsentation der etablierten Literaturdatenbanken ... 6

4.1 Web of Science ... 6

4.1.1 Content ... 9

4.1.2 Bibliometrische Daten ... 15

4.2 Scopus ... 22

4.2.1 Content ... 23

4.2.2 Bibliometrische Daten ... 25

4.3 Dimensions ... 33

4.3.1 Content ... 34

4.3.2 Bibliometrische Daten ... 38

4.4 PubMed ... 42

4.4.1 Content ... 43

4.4.2 Bibliometrische Daten ... 47

4.5 Auswertung ... 47

5 Inhaltsanalyse für die medizinische Spezialbibliothek ... 54

5.1 Web of Science ... 54

5.2 Scopus ... 59

5.3 Dimensions ... 65

5.4 PubMed ... 74

5.5 Auswertung ... 74

6 Alternativen ... 76

6.1 EBSCO Discovery Service (EDS) ... 76

6.1.1 Content ... 78

6.1.2 Bibliometrische Daten ... 81

6.2 Wikipedia / Wikidata / Wikicite... 86

6.2.1 Content ... 86

6.2.2 Bibliometrische Daten ... 88

(4)

6.3 Nationale Forschungsdateninfrastruktur ... 91

6.3.1 Content ... 91

6.3.2 Bibliometrische Daten ... 93

6.4 Auswertung ... 93

7 Zusammenfassung und Ausblick ... 94

8 Abbildungsverzeichnis ... 99

9 Literaturverzeichnis ... 102

(5)

2 Abkürzungsverzeichnis

A&HCI Arts and Humanities Citation Index ALM Article-Level-Metric

ANZSRC Australische und Neuseeländische Standardklassifikation für Forschung BfArM Bundesinstitut für Arzneimittel und Medizinprodukte

BKCI Book Citation Index

BMBF Bundesministerium für Bildung und Forschung CCC Current Contents Connect

COPE Committee on Publication Ethics CPCI Conference Proceedings Citation Index

CS Citescore

DFG Deutsche Forschungsgemeinschaft DOI Digital Object Identifier

DORA San Francisco Declaration on Research Assessment DPI Derwent Patents Indicator

EDS EBSCO Discovery Service ESCI Emerging Sources Citation Index ESCI Emerging Sources Citation Index ESI Essential Science Indicator ESI Essential Science Indicators FDZ Forschungsdatenzentrum

FIZ Leibniz-Institut für Informationsinfrastruktur FWCI Field-Weighted Citation Impact

GF Garfield Factor

HCR Highly Cited Researchers

IF Impact Factor

ISI - Institute for Scientific Information JCR Journal Citation Report

JIF - Journal Impact Factor KI Künstliche Intelligenz

KIT Karlsruher Institut für Technologie MALIS Master in Library and Information Science NFDI Nationale Forschungsdateninfrastruktur NIH - United States National Institutes of Health NLM - National Library of Medicine

OA Open Access

PMC PubMed Central

RatSWD Rat der Sozial- und Wirtschaftsdaten RfII Rat für Informationsinfrastrukturen RISC Russian Index of Science Citation SCI - Science Citation Index

SJR Scimago Journal Rank SSCI Social Science Citation Index

WAME World Association of Medical Editors

WoS Web of Science

RDC-aviDa Research Data Centre for audio-visual data of qualitative social research (RDC-aviDa)

(6)

3 Einleitung

Die Bibliometrie entstand mit der Erfindung der Schrift, denn damit setzte die Verwahrung von Publikationen und deren Zitation ein. Der Begriff selbst entstand allerdings erst im 20. Jahrhundert1 und meint die Messwerte im Zusammenhang mit Publikationen. Mit der Entstehung der

unterschiedlichen Publikationsarten, besonders im Zusammenhang mit der Erfindung des Internets, bildeten sich auch in der Bibliometrie neue Teilgebiete heraus wie zum Beispiel die Webometrie, die alle Informationen im Internet betrachtet oder auch die Altmetrik, die sich mit den Alternativen zu den traditionellen Zitationsmetriken beschäftigt. Die Bibliometrie hat dementsprechend ein sehr breites Anwendungsspektrum. Die hier vorliegende Arbeit schaut aus der Sicht einer medizinischen Spezialbibliothek auf dieses Thema, deren Nutzer*innen überwiegend Mediziner, Pharmazeuten und Naturwissenschaftler sind. Die Handhabung von Publikationen in diesen Fachbereichen unterliegt besonderen Gegebenheiten, da sich die Forschung hier rasant entwickelt. Dies bedeutet auf der einen Seite, dass die Forscher*innen direkten und schnellstmöglichen Zugang zu den neusten Publikationen benötigen, was derzeit die Preprint Initiativen entstehen lässt, die wissenschaftliche Veröffentlichungen sofort bereitstellen, bevor diese noch eine Begutachtung durchlaufen haben wie zum Beispiel den Peer Review. Auf der anderen Seite müssen die eigenen Veröffentlichungen der Wissenschaftler*innen so in den entsprechenden Zeitschriften bzw. Plattformen platziert werden, dass sie Aufmerksamkeit in der Wissenschaftskommunikation erhalten.

Analysiert werden für die Literaturbereitstellung Web of Science (WoS), Scopus, Dimensions,

PubMed als etablierte Literaturdatenbanken und ein Discovery Service (Bibliothekssystem), Wikidata und die Nationale Forschungsdateninfrastruktur (NFDI) als Alternativen. Natürlich gibt es sehr viel mehr Datenbanken, vor allem in den Natur- und Lebenswissenschaften, die sich aber auf spezielle Aspekte oder einzelne Fachbereiche spezialisiert haben wie zum Beispiel der SciFinder für die Chemie oder Embase und AdisInsight für Arzneimittel usw. Die hier untersuchten Datenbanken vereinen die Literatur aus allen Fachrichtungen, können aber über die Suche so eingeschränkt werden, dass zum Beispiel auch medizinisch interessante Texte aus geisteswissenschaftlicher Literatur gefiltert werden können, die in Spezialdatenbanken keine Aufnahme gefunden hätten.

Der zweite Aspekt betrifft die eigenen Veröffentlichungen der Forscher*innen, die so platziert werden müssen, dass sie Aufmerksamkeit in der Wissenschaftskommunikation erhalten. Für diese Sichtbarkeit und damit die Gewichtung der eigenen Publikationen werden bibliometrischen Kennzahlen verwendet, wie zum Beispiel der Impact Factor und der CiteScore, aber auch die Altmetriken. Die in dieser Arbeit analysierten Werte entstehen mit den Tools, die mit den hier untersuchten Datenbanken verknüpft sind, wie Altmetrics oder PlumX Metric. Auch hier gäbe es weitere bibliometrische Tools, die aber mit anderen Datenbanken verbunden sind und deren Daten verarbeiten, deswegen ist ihnen nur ein Exkurs gewidmet.

Die Arbeit beginnt mit der Analyse der etablierten Plattformen, WoS, Scopus, Dimensions und PubMed, dabei wird auf die Entstehung und Besonderheiten der einzelnen Datenbanken eingegangen. Der Datenbank WoS gilt besondere Aufmerksamkeit, da diese aufbauend auf den Entwicklungen von Eugen Garfield, den Anfang und das Muster für Literaturdatenbanken bereitet hat. Dieses in den USA entstandene System wurde dann in Europa übernommen und mit der Datenbank Scopus kopiert. Dimensions hat eigentlich einen anderen Ansatz, unterscheidet sich jedoch nicht wesentlich. PubMed fällt aus dem Muster dieser drei Datenbanken heraus, da es sich um eine auf Medizin und deren Randgebiete spezialisierte Datenbank handelt. PubMed wurde in die

1 Der Begriff wurde von Paul Otlet 1934 geprägt. Jedoch ist die Veröffentlichung von Alan Pritchard von 1969 bekannter (vgl. R. Rousseau, Egghe, & Guns, 2018, S.1-2).

(7)

Analyse aufgenommen, um den Nutzer*innen von medizinischen Spezialbibliotheken, die PubMed sehr schätzen, die Möglichkeiten der anderen Datenbanken im Vergleich zu zeigen. Anhand einer beispielhaften Suchanfrage werden die Inhalte der Datenbanken und die Möglichkeiten der Filteroptionen und Suchmaschinen betrachtet.

Im nächsten Kapitel wird die Untersuchung konkretisiert. Die weitere Analyse der etablierten Datenbanken wird nun in Bezug auf den Nutzen für die Spezialbibliothek des Bundesinstituts für Arzneimittel und Medizinprodukte (BfArM) durchgeführt. Zuerst wird der Inhalt darauf betrachtet, wie viel auf die Natur- und Lebenswissenschaften entfällt. Danach werden die bibliometrischen Analysetools danach betrachtet, welches Bild sie für das BfArM entwickeln, hinsichtlich der Publikationen der öffentlichen Aufmerksamkeit, aber auch den Themen der Forschung, die Zusammenarbeit mit anderen Forschungseinrichtungen und den Geldgebern für die Forschung.

Das nächste Kapitel ist den Alternativen zu den etablierten Datenbanken gewidmet. Zuerst wird der derzeit als Bibliothekssystem verwendete Discovery Service betrachtet, der als Suchmaschine und Literaturverwaltungssystem nicht eine Datenbank ist, sondern die Metadaten anderer Datenbanken durchsucht. Der Discovery Service ist ein kostenpflichtiges Angebot. Die beiden anderen hier

gezeigten Alternativen sind Open Access Angebote. Wikipedia/ Wikidata ist eine Datenbank, die von allen Interessierten bearbeitet und mit Informationen angereichert wird und frei für jeden zugänglich ist. Der Inhalt ist so gut und umfangreich, wie die Wissenschaftscommunity ihn gestaltet. Die

Nationale Forschungsdateninfrastruktur (NFDI) ist der Versuch, alle Forschungsdaten Deutschlands in ein System zu bringen, die das Auffinden und die Nachnutzung von Daten für alle möglich macht.

Auch diese drei Datenbanken werden auf ihr Angebot an bibliometrischen Auswertungsmöglichkeiten hin untersucht.

Diese Arbeit soll zum einen darstellen, ob die Lizenzierung der etablierten Datenbanken für eine medizinische Spezialbibliothek notwendig ist und wenn ja, welche davon am besten geeignet wäre.

Besonders interessant ist jedoch, ob die Open Access Angebote eine Alternative für die Bibliotheken sein können und wie sie gestaltet sein müssen, um die gleichen Informationsmöglichkeiten zu bieten.

Eugen Garfield hat mit seinen Entwicklungen in der Hälfte des letzten Jahrhunderts, die Grundlagen für beide Aspekte gelegt, sowohl für die Bereitstellung von signifikanter Literatur als auch für die Berechnung von Zitationsmesswerten. Dies hat er als Bibliothekar und Naturwissenschaftler für sein Interesse an der optimalen Ausstattung von wissenschaftlichen Bibliotheken entwickelt. Diese Messwerte und Indices, die für Bibliotheken mit beschränktem Etat die Möglichkeit bieten, die wichtigste Literatur zur Verfügung zu stellen, wurde für andere Zwecke umdefiniert. Die Verlage haben aus den ursprünglichen Indices hochpreisige Literaturdatenbanken entwickelt. Die Geldgeber für die Forschung benutzen diese Messwerte zur Beurteilung der wissenschaftlichen Leistungen von Forscher*innen. Diese damals revolutionäre Entdeckung hat sich etabliert, nur nicht im

ursprünglichen Sinne. Deshalb ist es notwendig, nach Alternativen zu suchen, zum einen um die Monopolstellung des ursprünglichen Messwertes zu brechen, zum anderen um den Weg für die Open Science Bewegung freizumachen, die dafür eintritt, dass von öffentlichen Geldern bezahlte Forschungsergebnisse auch für die Öffentlichkeit ohne Einschränkung zur Verfügung stehen. Hierfür ist es notwendig, eine Infrastruktur zur Verfügung zu stellen, die es den Wissenschaftler*innen ermöglicht, unabhängig von Verlagen ihre Forschungsergebnisse schnell für die

Wissenschaftscommunity sichtbar zu machen und auf der anderen Seite selbst schnell an die neusten Ergebnisse zu gelangen.

(8)

4 Präsentation der etablierten Literaturdatenbanken

In diesem ersten Teil sollen die etablierten Datenbanken WoS, Scopus, Dimension und PubMed mit ihrem Inhalt und ihren bibliometrischen Tools vorgestellt werden. Diese Datenbanken werden mit Ausnahme von PubMed von kommerziellen Anbietern betrieben und sind dementsprechend kostenpflichtig. Die drei zuerst genannten Datenbanken sind generelle, themenübergreifende

Sammlungen von Literatur und anderen Datenquellen. PubMed ist hier als Ausnehme aufgenommen, da es sich dabei um die meist verwendete Datenbank im medizinischen Umfeld handelt. WoS ist der Ausgangspunkt, da diese Datenbank den Anfang der Entstehung von Literaturdatenbanken darstellt.

Scopus ist ein Follower in dem Sinne, dass dort die Struktur von WoS übernommen wurde.

Dimensions will sich abheben, indem es sich als Forschungsdatenbank nicht nur auf Literatur beschränkt.

4.1 Web of Science

Die Entstehung des Web of Science, der heute bekanntesten Literaturdatenbank, geht auf Eugene Garfield (1925–2017) zurück, der mit dem Journal Impact Factor (JIF), dessen Herzstück, die derzeit meist genutzte Zitationsanalyse entwickelt hat. Garfield studierte Chemie, fühlte sich aber mehr als Informationswissenschaftler berufen und begann 1951 in der Welch Medical Library an der Johns Hopkins University in Baltimore, Maryland, zu arbeiten. Berufsbegleitend erwarb Garfield 1954 den Master in Library and Information Science (MALIS). Damit vereinte er Kenntnisse in den Natur- und Bibliothekswissenschaften. Ein Jahr später hatte er das Konzept für den Science Citation Index (SCI) entwickelt und stellte es in Science (vgl. Eugene Garfield, 1955) vor. Zu Beginn fand diese Idee wenig Interesse. Obwohl Garfield das Konzept auf verschiedenen Kongressen vorstellte und an

unterschiedliche Institutionen schickte, gelang die Finanzierung und damit die Umsetzung dieser Idee erst 1957. (vgl. Wouters, 2017). Nachdem er verschiedene Indexierungssysteme betrachtet hatte, begann er zuerst ein System aufzubauen, in welchem er nur den Artikelnamen aus den

Inhaltsverzeichnissen der Zeitschriften und die Adresse der Autoren auflistet, damit Interessierte die Artikel bei den Autoren anfordern konnten. Dies wurde unter dem Namen Current Contents

veröffentlicht (vgl. Stock & Stock 2003, S.31). Der nächste Schritt der Entwicklung war dann die Umsetzung des Konzeptes zum Science Citation Index (SCI), den er in Zusammenarbeit mit Joshua Lederberg (1925-2008), der Molekularbiologe und Genetiker war, aufbaute. Der SCI indexiert in erster Linie die Zitationen in den unterschiedlichen wissenschaftlichen Journalen, die in den

Referenzen der Publikationen zu finden sind. Bereitgestellt wurde dieser Index über Garfields Firma Institute for Information (ISI) in Philadelphia in den USA.2 Mit der finanziellen Unterstützung der NIH war es Eugene Garfield 1963 möglich, den Genetics Citation Index zu veröffentlichen.3 Kurz darauf erschien die Weiterentwicklung, der Science Citation Index (SCI), der zunächst nur die

Naturwissenschaft, Technik und Medizin betrachtet und bis heute die Grundlage der Berechnung des Journal Impact Factors ist. Der SCI brachte für Garfield zu Beginn einen Verlust. Die ersten Ausgaben waren gedruckte Exemplare, zudem unhandlich, kleingedruckt und teuer und fanden so wenig

2 Mit Hilfe von Fördermitteln in Höhe von damals US$300 000 war er in der Lage, den Genetic Citations Index aufzubauen. Das Geld kam von den United States National Institutes of Health (NIH), deren Geschichte 1887 beginnt und jetzt als Teil des Gesundheitsministeriums der USA für die Unterstützung der

Gesundheitsforschung zuständig ist. Diese Art der Förderung wird bis heute beibehalten. Der Gesamtetat der NIH beläuft sich 2020 auf 41 Mrd. USD im Jahr, von denen 80% an Forschende außerhalb des

Universitätsbetriebs vergeben werden. (National Institutes of Health, 2020)

3 Die Genetik ist ein spezieller Fachbereich, der in viele andere Bereiche wie Biochemie, Statistik, Landwirtschaft und Medizin hineingreift, und eignete sich deshalb gut für einen Zitationsindex, um

fachübergreifend die Zitationen zu beobachten und nachzuweisen. (vgl. Eugene Garfield & Sher, 1984, S. 516)

(9)

Anklang.4 Der Verlust konnte aber mit den Gewinnen für den Current Contents ausgeglichen werden, das sofort gut angenommen wurde (vgl. Wouters, 2017). 1966 wurde der SCI erstmals digital, auf Magnetbändern, aufgelegt. Weiter ging die Entwicklung 1973 mit dem Aufbau eines weiteren Moduls im Muster des SCI, jetzt für die Sozialwissenschaften, also der Social Science Citation Index (SSIC). Fünf Jahre später kam dann das Modul für die Geisteswissenschaftenhinzu, der Arts and Humanities Citation Index (A&HCI). Der Conference Proceedings Citation Index entstand 1990 in zwei Teilen, für Science & Technology und für Social Science & Huminities. Hier wurde die Kongress- und Tagungsliteratur aufgenommen. (vgl. Stock & Stock 2003, S. 31)

Im Jahr 1992 übernahm die Thomson Cooperation das ISI und benannte es um in Thomson Scientific.

Garfield bleibt Ehrenvorsitzender und auch der Standort in Philadelphia blieb als Firmensitz erhalten auch wenn mit Thomson London als Standort hinzukam.5 Damit gelangte diese Art der

Literaturverwaltung von den USA nach Europa und bildete auch hier den Ausgangspunkt für die Entwicklung von Literaturdatenbanken und Zitationsübersichten.

Die größte Erneuerung, die Thomson hervorbrachte, war die Überführung der Datenbanken ins Internet. 1997 entstand das Web of Science, das den SCI, den SSCI und den A&HCI enthält. Der Current Contents wurde 1996 als eigenständiges Modul im Current Contents Connect (CCC) aufgesetzt und ist bis heute so erhalten. 1999 kam der Derwent Innovations Index dazu, der die Chemical, die Electrical & Eletronic und die Engerineering Section enthält. Heute bietet er eine Auswertung der Patente aus 50 Patentämtern der Welt und enthält die Daten von 1963 bis heute.

Weiterentwicklungen sind der Essential Science Indicator (ESI), der der Evaluation der Wissenschaft dient, indem er die Datensammlungen des WoS nutzt, um wissenschaftliche Trends und

Schlüsselfiguren unter den Forscher*innen und Forschungsinstitutionen aufzuzeigen. 2001 wurde das ISI Highly Cited aufgebaut, das jetzt als Highly Cited Researchers angeboten wird. Diese Datenbank bietet für 22 Fachbereiche eine Aufstellung der meist zitierten Forscher*innen an. Die ISI Angebote werden unter der Plattform Web of Knowledge zusammen bereitgestellt, diese wurde 2014 neugestaltet und unter dem Namen Web of Science Core Collection präsentiert. 2008 fusionierten die Unternehmen Thomson und Reuters. Auch dieses Unternehmen war mit seinem

Geschäftsbereich kein bibliotheksbezogenes Unternehmen.6 Der Name Thomson Reuters stand für die nächsten acht Jahre für das WoS.

Eine weitere Entwicklungsstufe ist die Aufnahme von nicht englischsprachigen Datenbanken in WoS.

Begonnen wurde mit der Chinese Science Citation Database, die 1989 entwickelt wurde und

überwiegend auf die Themenbereiche Naturwissenschaft, Ingenieurtechnik und Medizin konzentriert ist. Sie ist die größte Literaturdatenbank in China (vgl, Gump, 2018, S. 85). Die Zusammenarbeit mit Thomson Reuters beginnt 2007. Über diese Plattform werden mehr als 1000 chinesische Zeitschriften

4 Die zehn Jahres Übersicht kostete damals US$25 000.

5 Das Unternehmen startete 1934 mit dem Kauf der Zeitung Timmins Press in Kanada. Thomson wuchs über die Jahre durch Zukauf unterschiedlicher Presseunternehmen, aber auch Reiseunternehmen und Ölfelder. In den 1980 begann Thomson mit der Gründung und Übernahme von Informationsdiensten, (Thompson Reuter, 2010) so dass Thomson bei der Übernahme von ISI als Informationsdienstleister galt.

6 Reuters ist eine Nachrichtenagentur, die mit Börsen- und Wirtschaftsinformationen handelt. Begonnen hat das Unternehmen in 19. Jahrhundert, indem es Börsennachrichten per Brieftaube übermittelt hat (vgl.

Encyclopædia Britannica, 2020). Jedoch wechselte Paul Reuter 1851 nach London und eröffnete die

Nachrichtenagentur. Die Finanznachrichten waren auch der Hauptschwerpunkt der Reuters Group PLC, als die Unternehmen zu Thomson Reuters fusionieren.

(10)

bereitgestellt. China erhofft sich dadurch eine größere Sichtbarkeit und internationale Anerkennung der eigenen wissenschaftlichen Arbeit (Chinese Academy of Sciences, 2020).

Die Korean Journal Database wurde 2014 in WoS integriert. Diese Datenbank wurde 2008 von der National Research Foundation of Korea entwickelt und hat ihren Schwerpunkt auf den Sozial- und Geisteswissenschaften. Auch Südkorea verspricht sich über den Anschluss an WoS eine bessere internationale Sichtbarkeit der eigenen Forschung. Die Datenbank hat keine eigene Zitationsmetrik und wird deshalb über die Metriken von WoS bewertet (vgl. PR Newswire Association LLC, 2020).

Im selben Jahr 2014 wurde auch der SciELO Citation Index in WoS aufgenommen. Hier enthalten sind regionalen Zeitschriften aus Lateinamerika, Spanien, Portugal, der Karibik und Südafrika. Die

Zusammenarbeit mit WoS läuft über die Sao Paulo Research Foundation, die eine Initiative für Open Access Zeitschriften ist. Auch in dieser Datenbank gibt es keine eigene metrische Bewertung (vgl.

Clarivate Analytics, 2020).

Im Jahre 2016 stellte WoS auch den Russian Science Citation Index über WoS zur Verfügung. Dieser enthält 652 ausgewählte russische Zeitschriften und hat den Russian Index of Science Citation (RISC) implementiert, der aber weniger bekannt ist (vgl. Moskaleva, Pislyakov, Sterligov, Akoev, &

Shabanova, 2018). Alle diese nicht englischsprachigen Datenbanken werden mit ihrer Infrastruktur nicht bei WoS gehostet, sondern werden als Kooperationsprojekte von den jeweiligen Ländern gepflegt und nur über die Plattform WoS zur Verfügung gestellt und in die Suchoberfläche eingespielt.

Im Jahr 2015 wurde der Emerging Sources Citation Index (ESCI) neu herausgebracht. Im ESCI werden ca. 7 000 Zeitschriften ausgewertet, die nicht in den drei klassischen Hauptindices enthalten sind. Er bildet die Sammelstelle, aus dem die anderen Teile des SCI nach einer umfangreichen

Qualitätsprüfung aufgefüllt werden.

Im Juli 2016 verkauft Thomson Reuter den Geschäftsbereich Intellectual Property und Science Informationen und damit auch Web of Science an Onex Corp. (Toronto) und Baring Private Equity Asia, die mit diesem Inhalt ein eigenständiges Unternehmen gründen, Clarivate Analytics:

Sale of Intellectual Property & Science business Strengthening our focus on operating at the intersection of global commerce and regulation, Thomson Reuters announces the sale of our Intellectual Property & Science business unit to Onex Corporation and Baring Private Equity Asia for

$3.55 billion.(Thomson Reuters, 2019)

Onex Corporation ist ein Private-Equity-Unternehmen und damit liegt leider die Vermutung nahe, dass diese Art von Unternehmen andere Unternehmen nur mit dem Ziel kaufen, sie wieder zu verkaufen. Einige Vermutungen gehen dahin, dass Web of Science und Journal Citation Reports vom Gesamtangebot abgetrennt werden und zum Beispiel an Springer verkauft werden. (Bredemeier, 2016) Diese Annahme besteht, da Springer im Gegensetz zum Konkurrenten Elsevier noch kein Literaturverwaltungsprogramm hat.7

Auch nach der Übernahme von WoS durch Clarivate Analytics kommen neue Inhalte zur

Ausgangsplattform. Die Abbildung 1 gibt einen Gesamtüberblick über die derzeit in WoS enthaltenen

7 Jedoch gehört Springer zu Holtzbrinck. Diese hätten mit dem Kauf dann WoS und Dimensions im Portfolio.

Was diese These wieder relativiert. Siehe dazu auch Kapitel 4.3.

(11)

Inhalte. Die erste Neuerung von Clarivate Analytics ist der Kauf von Publons, einer Plattform, die es Forschern ermöglicht, ihre Peer-Reviews und redaktionellen Beiträge für akademische Zeitschriften nachzuvollziehen und vor allem sichtbar zu machen. Die Idee dahinter ist, die Tätigkeiten über die persönliche ResearchID8, zu verifizieren und das Profil in den Lebenslauf aufzunehmen und für Bewerbungen oder Leistungsbewertungen zu verwenden.

Im Jahr 2018 erwirbt Clarivate Analytics Kopernio, ein Technologieunternehmen, das mit

Schwerpunkt auf Künstlicher Intelligenz (KI) arbeitet. Damit erhält WoS ein Browser Plugin, der es ermöglicht, den Zugriff auf die Volltexte zu ermöglichen, indem die Bibliotheken ihren Linkresolver in WoS hinterlegen und damit den Content der Bibliothek über WoS zugänglich machen. Diese

Neuerung beseitigt einen alten Kritikpunkt an WoS.

Abbildung 1 - Inhaltsübersicht WoS (Clarivate Analytics, 2018, S.11)

4.1.1 Content

Eugene Garfield begann mit den Überlegungen zur Erstellung eines Index, der die Zitationen von Publikationen durch andere Wissenschaftler*innen in Fachzeitschriften betrachtet, bereits in den fünfziger Jahren des letzten Jahrhunderts. Gedacht war dieser Index als Hilfe für Bibliotheken, um ihre Bestände an wissenschaftlichen Fachzeitschriften nach ihren Bedürfnissen am besten

aufzubauen. Dabei ging er von der Annahme aus, dass wichtige Beiträge zur Forschung auch von den

8Ein System, das Thomsen Reuters 2008 implementiert hat, um Autor und Werk eindeutig zusammenführen zu können. Mittlerweile gibt es weitere Produkte, wie zum Beispiel ORCID, die nicht an eine Datenbank geknüpft sind.

(12)

Wissenschaftler*innen in ihre eigenen Arbeiten aufgenommen und weiterentwickelt werden. Diese Annahme ist umstritten und wird selbst von Eugene Garfield, dem Entwickler dieser Methode, angezweifelt.

As a confirmed citationist, I must point out that it is not my most cited work. It is my 1972 paper in Science, on using citation analysis to evaluate journals, which has attracted much more attention, although the 1955 paper is far more significant. In that sense, I am like many other authors who feel that their most-cited work is not necessarily their best. (E. Garfield, 2006, S. 1127)

Trotzdem hat sich diese Analyse für die Bewertung der wissenschaftlichen Leistung von einzelnen Autor*innen oder Institutionen durchgesetzt, denn die Wahrscheinlichkeit, dass ein hoher Output und die entsprechende Resonanz der Wissenschaftler*innen des eigenen Fachgebietes auch eine Aussage über die Qualität des Inhaltes aussagen, ist höher als die Annahme, dass bedeutende wissenschaftliche Arbeiten nicht beachtet werden. Gleichwohl handelt es sich um eine indirekte Qualitätsanalyse, die Qualität durch Masse zählt (vgl. Ball, 2014, S.25). Aus dieser Art der Bewertung der wissenschaftlichen Leistung ist der Impact Factor für Zeitschriften, Autoren und Institutionen hervorgegangen. Diese Leistungsbewertung, die jetzt auch für die Vergabe von Fördergeldern benutzt wird, lehnte Garfield ab (vgl. Ball, 2014, S. 8). Diese Kritik, dass sich die Qualität

wissenschaftlichen Outputs nicht an der Masse der Zitationen oder der Publikationen messen lässt, ist von der ersten Minute da. Außerdem gibt es das Phänomen der „sleeping beauties“,

Publikationen, die über einen längeren Zeitraum nicht beachtet werden, um dann plötzlich als wichtig erkannt zu werden. Das zeigt, dass Publikationen auch ohne Zitierung vom Inhalt und Qualität her wissenschaftlich bedeutend sein können. „Wachgeküsst“ werden diese Publikationen selten durch Selbstzitationen. Eher erwachen sie durch eine Zitierung in einer Publikation, die selbst hochzitiert ist (vgl. R. Rousseau et al., 2018, S. 145ff).

Aus Mangel anderer Maßeinheiten wird der JIF jedoch gegenwärtig noch als Kriterium für die

Bewertung von wissenschaftlicher Leistung genutzt. Das Gegenstück wäre eine inhaltliche Bewertung der Publikationen, die aber wieder subjektiv wäre, einmal abgesehen davon, dass dies bei der

erheblichen Anzahl von heutigen Publikationen nicht zu bewältigen wäre.

Mit der Übernahme des SCI durch Thomson im Jahre 1992 übernimmt ein bibliotheksfernes Unternehmen diesen Bewertungsindex, dies hat positive wie auch negative Seiten. Die

Weiterentwicklung des Systems und die Veröffentlichung im Internet zu einem so frühen Zeitpunkt ist sicher dem Hintergrund eines Informationsunternehmens zu verdanken, dass mit der

internationalen Aufstellung der Tochterunternehmen und einem breiten Zugang zu Fachkompetenz und Innovationen besser aufgestellt ist als eine Bibliothek oder auch ein Bibliotheksverband.

Außerdem ist ein Unternehmen immer auf Gewinnoptimierung orientiert und unterliegt dabei nicht den Ressortbeschränkungen einer Bibliothek. Thomson hat zudem die Monopolstellung auf dem Markt, ist also zu dem Zeitpunkt noch konkurrenzlos, so dass das Unternehmen mit seinen Innovationen frei ist von den Erwartungshaltungen der Nutzer, mit denen die Folgeunternehmen eingeschränkt werden. Thomson hat also alle Freiheiten, das System so aufzubauen, dass es nicht mehr nur das Interesse der Bibliotheken verfolgt, wie eigentlich zu Beginn gedacht, sondern ein Werkzeug geschaffen, dass an die Bedürfnisse seiner Kunden orientiert ist. Das sind natürlich auch weiterhin Forscher*innen auf der Suche nach Literatur, die auch Bibliotheksnutzer*innen sind.

Allerdings hat Thomson ein ganz neues Feld eröffnet, indem er die Möglichkeit für Sponsoren geschaffen hat, über dieses Tool, Forscher*innen in ihrer wissenschaftlichen Leistung vergleichbar zu

(13)

messen und darauf aufbauend, über die Vergabe von Fördergeldern zu entscheiden. Gleichzeitig haben sich die Verlage mit ihrer Art der Veröffentlichung an die Wirkmechanismen dieses Systems angepasst. Denn nicht nur werden Wissenschaftler*innen an ihrer Zitationsrate gemessen, sondern es steigt auch der JIF einer Zeitschrift, je öfter eine Publikation zitiert wird, was es wiederum attraktiv macht, diese Zeitschrift in einer Bibliothek zu abonnieren. Diesen Teufelskreis zu durchbrechen, ist keine einfache Aufgabe. In einer Studie an der Universität Lübeck (Paulus, Rademacher, Schäfer, Müller-Pinzler, & Krach, 2015) wurde bereits nachgewiesen, dass die Wissenschaftler*innen mit erhöhter Hirnaktivität im Nucleus Accumbens, dem Belohnungszentrum im Vorderhirn, reagieren, wenn sie ihren Namen in einer Zeitschrift mit hohen JIF sehen. Dabei wurden den Probanden ihre Veröffentlichung in Zeitschriften mit unterschiedlich hohem JIF gezeigt. Je höher der JIF der Zeitschrift, umso größer war die unbewusste Freude über diesen Erfolg. Dieses Experiment zeigt deutlich, wie abhängig die Wissenschaftler*innen bereits von diesem Messwert sind, der dazu ein künstlich erzeugter ist und keine Aussage über die Qualität der wissenschaftlichen Arbeit zulässt, jedoch als Bewertungsgrundlage für die wissenschaftliche Karriere und die Bereitstellung von Fördermitteln gilt. Gerade weil dieser Messwert durch seine präzise Zahl etwas exakt

Mathematisches fingiert und dabei keine wirkliche Aussagekraft über die Qualität des Inhaltes hat, sind die Tore offen für gezielte Anpassung an die Variablen, die einen hohen JIF auslösen, sowohl von den Wissenschaftler*innen, als auch von den Verlagen, deren Verkaufszahlen ihrer Journals ebenfalls abhängig sind von diesem Wert.

Der SCI und damit die Ausgangsdatenbank des WoS enthält derzeit über 9 200 Zeitschriften aus 178 wissenschaftlichen Disziplinen. Dieser Inhalt ergibt mehr als 53 Millionen Datensätze und 1,18 Milliarden zitierte Referenzen, die von 1900 bis heute reichen (vgl. Clarivate Analytics, 2021). Zählt man alle in der in Abbildung 2 aufgelisteten Zeitschriften in den unterschiedlichen Datenbanken zusammen, kommt man auf über 20 000 Zeitschriften, die im System hinterlegt sind. Dazu kommen mit dem Book Citation Index (BKCI) über 104 500 ausgewählte Bücher. Jedes Jahr kommen ungefähr 10 000 neue dazu. Die mehr als 53 Millionen Referenzen beziehen sich auf die Jahre 2005 bis heute.

Zusätzlich enthalten sind noch 205 000 Konferenzbeiträge.

Abbildung 2 - WoS Core Collection Inhaltsübersicht (vgl.Clarivate Analytics, 2020a)

(14)

Über die Aufnahme der Zeitschriften in die Core Collection entscheidet ein internes Fachgremium.

Die Redakteure haben nach Angaben von WoS keine Verbindungen zu Verlagen oder

Forschungseinrichtungen und sind frei von Vorurteilen und Interessenkonflikte. Sie werden nach Fachkenntnissen ausgewählt und in ihrem Gebiet eingesetzt. Es wird Wert daraufgelegt, dass bei der Auswahl keine Einflüsse von außen die Entscheidungen bestimmen. Stattdessen wird auf einen Kriterienkatalog gesetzt. Dieser beinhaltet 28 Punkte, davon betrachten 24 die Qualität und vier die Impact Kriterien (vgl. Clarivate Analytics, 2018, S.10). Der Evaluierungsprozess wird in Abbildung 3 verdeutlicht:

Abbildung 3 - Evaluierungsprozess der Zeitschriften in WoS CC (Clarivate Analytics, 2020b)

Die Zeitschriften, die in Betracht kommen, werden nach den 24 Kriterien überprüft und in den Emerging Sources Citation Index (ESCI) aufgenommen. Die Zeitschriften, die zusätzlich auch noch die vier Impact-Kriterien erfüllen, werden je nach Fachgebiet in die jeweiligen Datenbanken SCIE, SSCI oder AHCI aufgenommen. Dabei ist der Auswahlprozess ein stetig fortlaufender und bei der Evaluierung bereits eingefügter Zeitschriften greift man dann doch externe Hinweise von Nutzern auf, um Zeitschriften ggf. wieder aus dem Content zu entfernen. Dabei verbleibt der bereits

indexierte Inhalt bestehen, nur die weitere Befüllung mit den Zeitschriften unterbleibt (vgl. Clarivate Analytics, 2020a).

Bei der Auswahl der Zeitschriften wird mit den formalen Kriterien begonnen:

ISSN

Die Zeitschrift muss eine registrierte ISSN haben, die über

https://portal.issn.org/

nachprüfbar ist und auf allen

Zeitschriftenplattformen

Titel der Zeitschrift Die Zeitschrift muss einen aussagekräftigen Titel haben, der angepasst ist an: den angegebenen Fachbereich der Zeitschrift, den

Herausgeber der Zeitschrift

Der Verlagsname muss klar definiert sein. Es muss eine nachprüfbare, physische Adresse (kein Postfach) für die Geschäftsräume des

URL der Zeitschrift Wenn sowohl Online- als auch Printausgaben verfügbar sind, ist es obligatorisch, die URL der Zeitschrift und die Volltext-Zugangsdaten

(15)

(elektronisch/gedruckt) klar und konsistent angezeigt wird.

veröffentlichten Inhalt

und an die Zielgruppe. Verlags angegeben

werden. des aktuellen Inhalts

anzugeben.

Zugang zu Inhalten Das WoS muss vollen Zugang zu den

veröffentlichten Inhalten haben und über alle erforderlichen Berechtigungen verfügen, um diese Inhalte anzuzeigen.

Präsenz der Peer-Review- Policy

Die Zeitschrift muss eine leicht zugängliche, klare Aussage über die Verpflichtung zum Peer-Review durch Fachkolleg*innen und/oder zur redaktionellen Aufsicht über alle veröffentlichten Inhalte machen.

Forschungsprimärartikel müssen einem externen Peer-Review durch Fachkollegen unterzogen werden.

Kontakt-Details Die Kontaktdaten der Redaktion und der Fertigung der Zeitschrift müssen angegeben werden, um eine direkte Kommunikation zu ermöglichen.

(vgl. Clarivate Analytics, 2020c)

Im nächsten Schritt, bei der redaktionellen Sichtung, überprüfen die Redakteure von WoS die Zeitschrift, um festzustellen, ob eine vollständige redaktionelle Bewertung gerechtfertigt ist. Es gibt keine Sperrfrist für die Wiedervorlage, wenn eine Zeitschrift die redaktionelle Sichtung nicht besteht.

Aktualität/Publikationsvolumen Die Zeitschrift muss ihre

Veröffentlichungsfrequenz angeben. (Unregelmäßigen oder kontinuierlichen

Veröffentlichungsplan) Der angegebene Zeitplan muss eingehalten werden. Der Umfang der jährlich veröffentlichten wissenschaftlichen Artikel sollte für das Fachgebiet angemessenen sein.

Artikel-Titel und Artikel-Abstracts auf Englisch

Unabhängig von der Sprache des Hauptteils des publizierten Inhalts muss die Zeitschrift eine genaue, verständliche englische

Übersetzung aller Aufsatztitel liefern. Wissenschaftliche Artikel müssen Abstracts haben, und diese Abstracts müssen ins Englische übersetzt werden.

Bibliographische Informationen in römischer Schrift

Zitierte Referenzen, Namen und Affiliationen müssen in römischer Schrift veröffentlicht werden, um eine schnelle, genaue Indexierung und ein leichtes Verständnis für die weltweiten Nutzer zu ermöglichen.

Wissenschaftlicher Inhalt Die Zeitschrift muss überwiegend wissenschaftliches

Originalmaterial enthalten. Das akademische Niveau der Forschungsarbeiten, über die berichtet wird, sollte für ein graduiertes, promoviertes und/oder professionelles

Forschungspublikum angemessen sein. Publikationen, deren Inhalt mehrheitlich aus

Konferenzberichten besteht, werden bevorzugt für den CPIC ausgewertet.

Ethikerklärungen

Die Zeitschrift muss hinsichtlich ihrer ethischen Anforderungen an Autoren und der

Veröffentlichungen transparent sein. Wenn die Zeitschrift die Grundsätze einer oder mehrerer Drittorganisationen (WAME, COPE, Deklaration von Helsinki usw.) unterstützt und anwendet, sollte entweder der vollständige Text der Richtlinien vorliegen oder es sollte ein funktionierender Link zum vollständigen Text der Richtlinie angegeben werden.

Website-Funktionalität Die Informationen auf der Website müssen korrekt sein. Die Webseite muss einfachen Zugang zu den veröffentlichten Inhalten und allen anderen Merkmalen, wie Editorial Board, Anweisungen für Autoren, Peer Review, Zugangsmodell usw.

gewährleisten. Die Website der Zeitschrift muss einen klaren Link zur Website des Verlags enthalten und umgekehrt.

Klarheit der Sprache

Bei den Titeln, den Abstracts und allen anderen veröffentlichten Texten, die in englischer Sprache präsentiert werden, muss die Sprache klar und für ein

weltweites Publikum verständlich sein.

Details zur redaktionellen Zugehörigkeit

Namen und institutionelle Zugehörigkeit - einschließlich dem Land - aller Mitglieder des

Redaktionsteams sind erforderlich

Details zur Autorenzugehörigkeit Namen und institutionelle Zugehörigkeiten - einschließlich dem Land - und Adressen aller beitragenden Autoren sind erforderlich.

(vgl. Clarivate Analytics, 2020c)

Im letzten Schritt wird die redaktionelle Arbeit qualitativ überprüft, dabei werden z.B. der Titel der Zeitschrift, der angegebene Bereich, die Zusammensetzung des Redaktionskomitees, Autoren und

(16)

der veröffentlichte Inhalt überprüft. Geschaut wird auch auf die redaktionelle Gründlichkeit und die Einhaltung von Gemeinschaftsstandards. Bei Nichterfüllung der Ansprüche kann eine zwei-jährige Sperrfrist ausgesprochen werden. Die Kriterien für die redaktionelle Qualitätsbewertung sind die folgenden:

Zusammensetzung des Redaktionsausschusses Die Affiliation der Redakteure und der

Mitglieder des Redaktionsausschusses, die geografische Vielfalt und die Publikationsliste müssen mit dem angegebenen Fachbereich und dem veröffentlichten Inhalt der Zeitschrift übereinstimmen. Die Größe und

Zusammensetzung des Herausgebergremiums muss mit dem Umfang und der Breite des Publikationsoutputs im Einklang stehen. Ein hauptberufliches/ professionelles

Redakteursteam wird bevorzugt

Einhaltung von Gemeinschaftsstandards Die redaktionellen Richtlinien stehen im Einklang mit anerkannten Best Practices wie den COPE Core Practices9/ von nat. und internat. Organisationen oder von wiss.

Gesellschaften, die die Grundsätze für die Integrität der Forschung in ihren

Gemeinschaften fördern. Die Artikel in der Zeitschrift richten sich nach anerkannten Praktiken in ihrem Fachgebiet z.B.

Nomenklaturen.

Verteilung der Autoren

Die Autoren müssen über eine Affiliation, eine geografische Vielfalt und eine Publikationsliste verfügen, die ihre Teilnahme an der wiss.

Gemeinschaft im Zusammenhang mit dem angegebenen Fachbereich der Zeitschrift entspricht. Die demografische

Zusammensetzung der beitragenden Autoren sollte mit den thematischen und geografischen Merkmalen des Herausgebergremiums

übereinstimmen.

Gültigkeit von Aussagen

Es ist nicht die Absicht unserer Überprüfung, die Anwendbarkeit und Durchsetzung aller

ethischen und Plagiatsnormen zu

gewährleisten. Je nach Bedarf werden wir jedoch Untersuchungen zu fragwürdigen Inhalten oder falschen Behauptungen durchführen.

Peer Review Die Artikel müssen über die Peer-Review- Erklärung hinaus Nachweise für die Begutachtung durch Fachkollegen enthalten.

Inhaltliche Relevanz Der veröffentlichte Inhalt muss mit dem Titel und dem angegebenen Fachbereich der Zeitschrift übereinstimmen.

Fördermittel In Fachbereichen, in denen Fördermittel üblich oder

erforderlich sind, wird eine angemessene Angabe der

Finanzierungsquelle empfohlen.

Zitate zur Literatur Es wird erwartet, dass in den Artikeln die Fachliteratur zum Thema angemessen beachtet wird.

(vgl. Clarivate Analytics, 2020c)

Die 24 vorhergehenden Kriterien haben die Qualität der Zeitschrift betrachtet. Die nun folgenden vier Kriterien prüfen Kriterien, die den Impact betreffen, also die Zitierhäufigkeit. Darüber will Clarivate die einflussreichsten Zeitschriften in ihrem jeweiligen Forschungsgebiet filtern. Entspricht eine Zeitschrift diesen Vorgaben nicht, wird eine Sperrfrist von zwei Jahren angesetzt, bevor eine Reevaluation stattfindet:

Vergleichende Zitationsanalyse

Dier selektiven Indizes (SCIE, SSCI und AHCI) enthalten die einflussreichsten Zeitschriften

Autoren Zitationsanalyse Die meisten Autoren sollten über eine erkennbare

Publikationsgeschichte im WoS verfügen. Die

Redaktionsausschuss Zitationsanalyse

Die meisten Mitglieder des Redaktionsausschusses sollten über eine erkennbare

9 COPE Core Practices - vgl. https://publicationethics.org/news/core-practices.

(17)

in ihrem Fachgebiet. Bei der vergleichenden

Zitationsanalyse werden sowohl die Anzahl als auch die Quellen der Zitate in der Zeitschrift berücksichtigt.

Zitationsvernetzung der Autoren sollten der Kategorie der Zeitschriften und dem Fachbereich entsprechen.

Publikationsgeschichte im WoS verfügen. Die

Zitationsvernetzung der Mitglieder sollten der

Kategorie der Zeitschriften und dem Fachbereich entsprechen.

Inhalt

Der Inhalt der Zeitschrift sollte für die vorgesehene Leserschaft und die Abonnenten von WoS von Interesse, Bedeutung und Wert sein. Die Bedeutung des Inhalts kann sich in Form einer

einzigartigen Spezialisierung, einer neuartigen Perspektive, eines regionalen Schwerpunkts, eines ungewöhnlichen Inhalts oder eines Inhalts, der die Breite der Berichterstattung im WoS bereichert, äußern. Diese Attribute spiegeln sich nicht ausschließlich in der Zitationstätigkeit auf

Zeitschriftenebene wider.

(vgl. Clarivate Analytics, 2020c)

Für die Aufnahme von Zeitschriften in WoS legt Clarivate hier ein sehr strukturiertes und detailliertes Konzept vor. Dazu gehört auch die Angabe, dass die Entscheidung über die Aufnahme einer

Zeitschrift eine rein interne Angelegenheit ist, die von außen nicht beeinflusst werden kann. Selbst die Vorgabe, dass Externe Vorschläge unterbreiten können, wie man es bei anderen Datenbanken gewohnt ist, wird hier nicht angeboten. Nur bei der Beurteilung von bereits bestehenden Inhalten wird auf Kritik von Nutzern reagiert. Auffällig ist hier auch die zweijährige Sperre bis zur

Neubewertung einer Zeitschrift, wenn diese die qualitativen Bewertungskriterien an einer Stelle nicht erfüllt und dieses in kurzer Zeit abstellen bzw. sich anpassen könnten bzw. die Ansprüche an den Impact nicht erfüllen.

4.1.2 Bibliometrische Daten

Clarivate Analytics hat mit der Übernahme der Datenbank WoS an der Darstellung und dem Aufbau der Metriken nichts verändert. Auf der Homepage zum Thema erklärt das Unternehmen die

Wichtigkeit und den richtigen Umgang mit diesen Kennzahlen und bekennt sich zum Leiden Manifest10. Dazu gehört auch der Hinweis, sich nicht nur auf quantitative Angaben zu verlassen, sondern auch qualitative Beurteilungen einzuholen (vgl. Clarivate Analytics, 2020d).

Die Metriken in WoS haben drei unterschiedliche Ausrichtungen: Die älteste Bewertung der

Zitationen im WoS beruht auf dem Impact Factor (IF) oder besser Journal Impact Factor (JIF), der eine Entwicklung von Eugen Garfield ist, dessen Bestreben es ursprünglich war, über die Zitationsanalyse die wichtigsten Zeitschriften zu bestimmen und damit den Bestand einer Bibliothek bestmöglich aufzubauen. Der JIF hat verschiedene Namen, er wird zum Beispiel auch nach dem Erfinder Garfield Factor (GF) benannt. Der Name two-year impact factor, ebenfalls ein Synonym für JIF, sagt etwas über die Berechnung aus, denn um den JIF zu berechnen, nimmt man die Werte der letzten zwei Jahre, nämlich die Anzahl der veröffentlichten Publikation einer Zeitschrift und die entsprechenden Zitationen dieser Publikation.

10 Das Leiden Manifest wurde 2015 von Diana Hicks, Paul Wouters, Ludo Waltman, Sarah de Rijcke & Ismael Rafols erstellt und stellt 10 Prinzipien für den richtigen Umgang mit Bibliometriken auf.

(http://www.leidenmanifesto.org/)

(18)

Der JIF wird nach Garfield so berechnet:

𝐽𝐽𝐽𝐽𝐽𝐽2(𝑌𝑌) =𝐶𝐶𝐽𝐽𝐶𝐶(𝑌𝑌,𝑌𝑌 −1) +𝐶𝐶𝐽𝐽𝐶𝐶(𝑌𝑌,𝑌𝑌 −2) 𝑃𝑃𝑃𝑃𝑃𝑃(𝑌𝑌 −1) +𝑃𝑃𝑃𝑃𝑃𝑃(𝑌𝑌 −2)

CIT ≙ Zitationen PUB ≙ Publikationen Y ≙ Jahr

(vgl. R. Rousseau et al., 2018, S. 158)

Das bedeutet, dass man für das Jahr Y den Zwei-Jahres-JIF erhält, indem man die Summe der

Zitationen aus den beiden vorangegangenen Jahren durch die Summe der Publikation aus den beiden vorangegangenen Jahren teilt. Wenn man hier von der Summe der Publikation spricht, muss man jedoch die Einschränkung machen, dass nicht alle erschienenen Publikationen gezählt werden. Man macht hier die Unterscheidung zwischen „zitierbaren“ und „nicht zitierbaren“ Publikationen. Für den JIF werden nur die „zitierbaren“ Publikationen gewertet, also nur wissenschaftliche Publikationen und Reviews. Zu den „nicht zitierbaren“ Publikationen zählen alle anderen Beiträge wie Leitartikel, Buchbesprechungen oder Leserbriefe. Werden diese aber häufig zitiert, wird der Wert dann doch gerne mit in den JIF aufgenommen. Hier findet sich ein großer Spielraum für die Lenkung der Werte in die gewollte Richtung (vgl. R. Rousseau et al., 2018, S. 182-184). Die Berechnung mit einer Formel drückt zwar Objektivität aus, diese besteht jedoch bei der variablen Festlegung der Ausgangswerte bei diesem Wert nicht. Der JIF wird für die Core Collection im InCites Journal Citation Reports

bereitgestellt.11 Dort zu finden ist, wie in Abbildung 4 zu sehen, eine Auflistung der Zeitschriften nach dem höchsten JIF abfallend. Dabei fällt auf, dass der größte Wert dertotalen Zitationen einer

Zeitschrift nicht gleich auch den höchsten JIF ergibt, ansonsten müsste das New England Journal of Medicine an erster Stelle stehen.

Abbildung 4 – Rankingliste Journals im InCite Journal Citation Reports (Clarivate Analytics, 2020e)

11 Im Gegensatz zum CiteScore (CS), dem vergleichbaren Wert bei Scopus, ist der JIF nicht ohne Lizenzierung zugänglich. Vgl. Kapitel 4.2.

(19)

Dies ist auf die Berechnung des JIF zurückzuführen, der zum einen nicht alle Publikationen einer Zeitschrift einfließen lässt, zum anderen aber auch, dass die außergewöhnlich hohe Zitation einer Publikation in der Zeitschrift mehr zählt als die gleichmäßige Verteilung von Zitationen über alle Publikationen einer Zeitschrift. Dies sieht man hier am WHO Technical Report Series in Abbildung 5, der mit einer einzigen Publikation Platz 6 im Ranking einnehmen kann.

Abbildung 5 - JIF 2019 für WHO Technical Report Series (Clarivate Analytics, 2020e)

Ausgewertet wird hier nur die Zitation einer Publikation in den Jahren 2017 und 2018. Der WHO Technical Report Series enthält nur eine zitierbare Publikation, so dass nach der Formel oben die Aufstellung in Abbildung 5 entsteht, d.h. 118 Zitationen geteilt durch zwei Jahre ergibt einen JIF von 59.

Die zweite Aufstellung im InCites Journal Citation Reports zeigt das Ranking der Zeitschriften nach Fachgebieten. Diese Listung überzeugt nicht, da die Zuordnung zu den Fachgebieten willkürlich ist.

Hier sollten die meisten Zeitschriften medizinische sein, jedoch wird die Medizin auf Platz 26 gelistet, was der nicht nachzuvollziehenden Systematik in WoS geschuldet ist. Die Ökonomie steht hier auf Platz eins. Ihr zugeordnet sind:

Economics covers resources on all aspects, both theoretical and applied, of the production, distribution, and consumption of goods and services. These include generalist as well as specialist resources, such as political economy, agricultural economics, macroeconomics, microeconomics, econometrics, trade, and planning.(Clarivate Analytics, 2020f)

Dagegen wird die Medizin in verschiedene Fachgebiete unterteilt, die dann einzeln gewertet werden.

Wie in Abbildung 6 zu sehen, stehen die Neurowissenschaften und die Onkologie einzeln, auch wird die Chirurgie, klinische Neurowissenschaften, die Genetik, Immunologie, Psychiatrie, Endokrinologie und viele weitere medizinische Bereiche einzeln bewertet. Außerdem gibt es den Bereich, der sich Medizin allgemein und intern bezeichnet:

Medicine, General & Internal covers resources on medical specialties such as general medicine, internal medicine, clinical physiology, pain management, military and hospital medicine. Resources focusing on family medicine and primary health care services are placed in the Primary Health Care category. (Clarivate Analytics, 2020n)

Dieser Bereich erreicht im Ranking Platz 26, der eigentlich die Medizin zusammenfassen könnte und sie eindeutig auf Platz 1 heben würde.

(20)

Abbildung 6 – Rankingliste Fachgebiet im InCite Journal Citation Reports (Clarivate Analytics, 2020e)

Neben dem JIF in der Core Collection existieren ähnliche Berechnungen für die Regional hosted Collection, wie zum Beispiel der JIF, der auf den Daten basiert, die in China gesammelt werden. Für die Berechnung werden die Chinese Science Citation Database, die China Scientific and Technical Papers & Citations und die China National Knowledge Infrastructure herangezogen. Auch dieser JIF bezieht sich auf einen zwei Jahres Betrachtung, geht aber von ganz anderen Zeitschriften aus (vgl. R.

Rousseau et al., 2018, S. 159).

Im InCites Essential Science Indicators (ESI) wird als Startseite eine Weltkarte präsentiert (siehe Abbildung 7), die einen Überblick über die meist zitierten Publikationen zeigt. Hier ist Deutschland neben den USA, England und China an erster Stelle.

Abbildung 7 – Startseite InCites ESI: Kartenansicht hoch zitierte Papiere (Clarivate Analytics, 2020g)

(21)

Leider lässt die Karte nicht zu, die Übersicht nach Fachgebieten zu unterscheiden. Außerdem ist nicht ersichtlich, ob hier die Herkunft der Publikationen dargestellt wird, wovon auszugehen ist, oder die Zitationshäufigkeit in den Ländern.

Eine weitere Maßeinheit dieser Seite ist die Zitationsschwelle. Eine Zitationsschwelle ist die Mindestzahl der Zitate, die man erhält, wenn man die Arbeiten in einem Forschungsgebiet in absteigender Reihenfolge nach der Anzahl der Zitate ordnet und dann den höchsten Prozentsatz der Arbeiten auswählt. Die sogenannte ESI-Schwelle gibt die Anzahl der Zitationen an, die die Top 1% der Autoren und Institutionen und die Top 50% der Länder und Zeitschriften in einem Zeitraum von 10 Jahren erhalten haben. (vgl.Clarivate Analytics, 2020g).

Die Datenbank InCites bietet eine weitere Möglichkeit der Analyse auf Autoren- bzw.

Institutionsebene, diese machen jedoch nur Sinn, wenn die Institution WoS lizenziert hat, da die Institution sonst nicht mit Ergebnissen angezeigt wird, auch wenn die Institutionen in WoS mit ihren Publikationen bekannt sind. Abbildung 8 zeigt eine Auswahl an den Analysemöglichkeiten, die Forschungseinrichtungen bei Berichten und Anträgen sehr nützlich sein können, wohl auch, da die eigene Forschungsarbeit automatisch in Graphiken gezeigt wird. Jedoch werden natürlich nur die Publikationen ausgewertet, die in WoS aufgenommen wurden.

Abbildung 8 – Überblick Analysemöglichkeiten in InCites (Clarivate Analytics, 2020j)

Eine weitere Art der Darstellung von Metriken befindet sich unter dem Menüpunkt WoS, hier ist die Suche nach Themen, Autoren oder Institutionen möglich. Außerdem gibt es die Möglichkeit zwischen den einzelnen Datenbanken der Core Collection auszuwählen. Die Abbildung 9 gibt einen Überblick über die in der Datenbank unter der Rubrik Create Citation Report erzeugten Metriken unter dem beispielhaft ausgewählten Suchbegriff: Spontaneous healing. Ausgegeben wird die Anzahl aller Publikationen zum Thema. Der h-Index wird ebenfalls erstellt, auch wenn dieser eigentlich eine Autorenmetrik ist.12 Dazu wird die Summe der Zitationen und die Summe Artikel, in dem zitiert wurde, angezeigt. Darunter befindet sich noch eine Graphik mit der Summe der Zitationen je Jahr.

12 2005 zwar wurde erkannt, dass der h-Index auch für Zeitschriften erstellt werden kann (vgl. R. Rousseau et al., 2018, S. 168), jedoch handelt es sich hier um ein Topic. .

(22)

Abbildung 9 - Analysebeispiel in WoS unter Create Citation Report (Clarivate Analytics, 2020h)

Es gibt noch eine weitere Möglichkeit der Analyse der Publikationen, bzw. Autoren oder Institutionen unter der Rubrik Analyse Results. Hier werden Graphiken zu unterschiedlichen Aspekten erzeugt, wie sie in Abbildung 10 zu sehen sind. Diese zeigt die Auswertung, in welchen Fachgebieten die

Publikationen zum Suchbegriff veröffentlicht worden.

Abbildung 10 - Analysebeispiel in WoS unter Create Citation Report Fachgebiete (Clarivate Analytics, 2020h)

Weitere Möglichkeiten unter diesem Punkt sind unter anderem die Aufstellung nach Publikationsart, nach veröffentlichenden Institution, nach Autoren oder auch danach, in welchen Zeitschriften veröffentlicht wurde.

Der dritte Aspekt der Metriken wird mit Hilfe von Publons realisiert, wie bereits in Kapitel 4.1 erläutert, ist dies eine Plattform, die es Forschern ermöglicht, ihre Peer-Review und redaktionellen

(23)

Beiträge für akademische Zeitschriften nachzuvollziehen und vor allem sichtbar zu machen. Dafür werden WoS, ORCID und die akademischen Zeitschriften ausgewertet und alle eigenen

Publikationen, Zitiermetriken, Peer-Reviews aufgelistet. Diese können dann mit Hilfe des Systems ausgewertet und so aufbereitet werden, dass die Übersicht einer Bewerbung oder einem

Förderantrag beigefügt werden kann. Wenn der Autor mit seiner Aktivität innerhalb von WoS bleibt und sich mit allen Systemen verbindet und identifiziert, ist die Darstellung jederzeit aktuell und ohne zusätzliche Arbeit nutzbar. Diese Art der Metrik bleibt auf der Autorenebene. Sie ist frei ohne

Lizenzierung von WoS zugänglich, zielt jedoch darauf ab, dass die Autoren ausschließlich die Software von Clarivate Analytics nutzt, um Publons sinnvoll zu machen.

Abbildung 11 – Auswahlmenü des Publons Dashboard (Clarivate Analytics, 2020i)

Abbildung 11 zeigt die Möglichkeiten des Portals auf einem Blick. Dabei setzt WoS auf die Mitarbeit der Autoren. Hier wird nur angezeigt, was die Nutzer*in aktiv eingefügt oder als eigene Publikation gekennzeichnet hat.

(24)

4.2 Scopus

Die Literaturdatenbank Scopus gehört dem Verlagshaus Elsevier, das als niederländische

Buchhandlung bereits 1580 begonnen hat, jetzt aber im Zusammenschluss mit Reed Elsevier bzw. der RLEX Group ein international breit aufgestelltes Unternehmen ist. Die Entwicklungsgeschichte von Scopus und auch der Entscheidungsprozess von Elsevier zur Entwicklung der Datenbank liegen verborgen. Deutlich zu sehen ist jedoch, dass Scopus ein Folgeprodukt zu WoS ist, denn die

Ähnlichkeiten sind klar zu sehen, auch wenn Scopus aus lizenzrechtlichen Gründen nicht alles genau imitieren kann. Elsevier schreibt auf der Startseite von Scopus: Scopus ist die größte Abstrakt- und Zitationsdatenbank für peer-reviewte Literatur. (Elsevier, 2020a) Die Datenbank wurde 2004 von Elsevier gleich als online Version auf den Markt gebracht und hat die Papierentwicklung im

Gegensatz zu WoS übersprungen. Scopus ist wie WoS eine kostenpflichtige Datenbank, die aber im Gegensatz zu WoS die Metriken zu den Zitationsrankings der Zeitschriften kostenlos anbietet. Die Konkurrenz zwischen beiden Anbietern ist deutlich zu sehen.

Scopus ist in erster Linie eine Abstract- und Zitationsdatenbank, die nicht darauf abzielt, die Volltexte zur Verfügung zu stellen. Die Datenbank liefert Informationen zu 16 Millionen Autoren, zu 70 000 Institutionen und den 53 000 enthaltenen Zeitschriften. Auch Forschungsdaten und Open Access Publikationen sind in Scopus aufgenommen worden. Alle Inhalte sind verlinkt mit den

Ursprungsquellen, über den der Zugriff auf die Volltexte bei entsprechender Lizenzierung möglich ist.

Scopus wird derzeit von 4 000 Universitäten und von 150 führenden Forschungsinstituten lizenziert.

Außerdem wird Scopus bereits für die Bewertung und Evaluierung von Forschungsarbeit von verschiedenen Einrichtungen verwendet. Darunter sind das World University Ranking und die Europäische Kommission. Weitere Forschungseinrichtungen werden in Abbildung 12 aufgelistet.

Dabei ist zu sehen, dass Deutschland fehlt.

Abbildung 12 – Einrichtungen die Evaluierung auf Grundlage von Scopus vornehmen (Podgoršek, 2020)

Scopus bietet über die API Schnittstelle die Möglichkeit, Daten in größeren Mengen abzurufen und eigene Repositorien auch mit den Metadaten zu befüllen.

In Scopus können Übersichten zu den Autoren und der eigenen Einrichtungen erstellt werde, sowohl auf Autor*innen- als auch auf Institutsebenen. Die Profile in Scopus basieren auf einem dreifachen Datenmodel, hier werden Autoren mit ihren Publikationen und ihrer Institution verknüpft. Dabei werden die Profile mit Daten angereichert, um Zweideutigkeiten zu eliminieren. Durch diese Profile ist sichtbar, welcher Autor, in welcher Institution, welches Thema gerade erforscht. Scopus erstellt zudem ein Ranking, das je nach Forschungsgebiet, bei Scopus Topic genannt, die aktivsten Autoren und Institutionen mit dem entsprechenden Output auflistet. Diese Profile werden automatisch durch

(25)

Algorithmen mit jeder neuen Dateneingabe aktualisiert. Dazu werden zum Beispiel auch die Mails, Zugehörigkeit, Fachgebiete, Zitate und Koautoren sowie weiteren Metadaten ausgewertet.

(Podgoršek, 2020) 4.2.1 Content

Elsevier hat mit Scopus ein Folgeprodukt zu WoS geschaffen und versucht mit der Darstellung, dem Content und dem Auswertungstool eine Datenbank anzubieten, die Konkurrenz dazu anstrebt. Dabei ist deutlich zu merken, dass bei Scopus, obwohl Elsevier mittlerweile ein globales Unternehmen ist, der Fokus auf Europa liegt. Scopus bietet mit den eigenen bibliometrischen Kennzahlen ein

Gegengewicht zum JIF.

Wie in Abbildung 13 zu sehen ist, enthält Scopus 75 Millionen Einträge, davon sind 68 Millionen nach 1970 und 6,5 Millionen vor 1970 veröffentlicht worden. Die Daten stammen aus 53 000 aktiven peer- reviewten Zeitschriften, darin enthalten sind 4 000 Gold Open Access Zeitschriften. Außerdem wurden 8,5 Millionen Open Access Publikation, 9 Millionen Konferenzbeiträge und 194 000 Bücher aufgenommen. Die Inhalte teilen sich wie folgt in die Themenbereiche: 32% und damit den größten Bereich nehmen die sozialen Wissenschaften ein, danach mit 25% folgen die

Gesundheitswissenschaften, 27% nehmen die Naturwissenschaften ein und 16% machen Beiträge zu den Lebenswissenschaften aus.13

Abbildung 13 - Inhalt Scopus Vortragsfolie (Podgoršek, 2020)

Die Einträge in Scopus stammen von über 5 000 Verlagen. Die Verteilung auf die Verlagshäuser setzt sich, siehe Abbildung 14, wie folgt zusammen: Mit 10% und damit dem größten Teil der

Veröffentlichungen steht der Elsevier Verlag an erster Stelle, gefolgt von Springer mit 8% und jeweils 5% von Wiley-Blackwell und Taylor & Francis. Der große Anteil von Elsevier Eigenveröffentlichungen entsteht nach Angaben von Elsevier dadurch, dass Elsevier in Hinsicht auf die Veröffentlichungen der

13 Für die medizinische Spezialbibliothek sind Gesundheitswesen, Naturwissenschaften und die

Lebenswissenschaften interessant, so dass man diese drei Bereiche zusammenzählen und als einen großen Bereich mit 68% angeben kann.

(26)

größte Verlag ist. Auch global ist Scopus mit 105 Ländern gut aufgestellt, dabei sind 22% der Inhalte in den unterschiedlichen Landessprachen, also nicht Englisch, aufgenommen worden. In Scopus werden 950 deutsche Zeitschriften gelistet (vgl. Podgoršek, 2020a).

Abbildung 14 - Übersicht Verlage in Scopus Vortragsfolie (Podgoršek, 2020)

Seit 2015 entwickelt Elsevier das Thema Open Access in Scopus. Die Open Access Publikationen sind mit der Quelle verlinkt und können direkt heruntergeladen werden. Der Zugriffshinweis ist dabei sowohl auf Zeitschriftenebene bei Golden Open Access Zeitschriften, als auch auf Artikelebene bei Hybriden Zeitschriften zu finden. Der Zugang zu den Forschungsdaten erfolgt mit Hilfe von Mendeley Data14, die als Suchmaschine auf 40 themenübergreifende Repositorien zugreift, darunter Dataverse, Dryad, Pangea und Zenada. Darüber sind über 10 Millionen Datensätze verfügbar. Außerdem werden Forschungsdaten, die in eingereichten Publikationen angehängt werden, über das data-literature interlinking von Scholix15 aufgezeigt.

Neue Entwicklungsziele liegen im Bereich der Preprint Veröffentlichungen, die vor allem in Zeiten einer Pandemie wie jetzt besonders wichtig sind, da die Zeitdauer bis zur Veröffentlichung damit erheblich verkürzt wird. Der zweite Bereich, der noch nicht in Scopus enthalten ist, ist der Research use Bereich, der zum Beispiel Policies und Richtlinien umfasst. Bei diesen beiden Gebieten soll eine Unterscheidung zwischen den peer-reviewten und nicht peer-reviewten Inhalten möglich sein.

Letzteres wird hier aufgenommen, da sie für die Forschung durchaus relevant sind. Des Weiteren werden dieses Jahr noch mehrere Tausend neue Zeitschriften, Bücher und Konferenzbeiträge dazukommen, wobei der Fokus auf landesspezifischer Fachliteratur liegt.

14 Mendeley ist ein Literaturverwaltungsprogramm, dass seit 2013 Elsevier gehört.

15 Scholix ist eine Initiative von unterschiedlichen Organisationen, Verlagen und Dienstleistern, die Links zwischen Forschungsdaten und Literatur sammeln und austauschen. Mehr unter http://www.scholix.org/home

(27)

Das bereits bestehende Modul zur Ausweisung von Fördermitteln bzw. Fördermittelgebern wird weiter ausgebaut, besonders in Bezug auf die deutschen Quellen wie zum Beispiel die Deutsche Forschungsgemeinschaft (DFG). Dazu gibt es auch die Möglichkeit, gezielt danach zu suchen.

Scopus bietet Topics an, darunter versteht man eine Sammlung von Dokumenten mit einem gemeinsamen intellektuellen Interesse. Dazu werden die nach 1996 eingespeisten Daten über Algorithmen nach 96 000 globalen, einzigartigen Forschungsthemen sortiert, die aufgrund von Zitatzählungen, Seitenaufrufe und Suchanfragen zusammengestellt werden (vgl. Podgoršek, 2020a).

Die Zeitschriften und Datensätze, die in Scopus aufgenommen werden, werden nicht von Elsevier ausgewählt, sondern durch ein externes Expertengremium, dem sogenannten Content Selection &

Advisory Board. Dieses Board setzt sich aus einer internationale Gruppe von Wissenschaftler*innen, Forscher*innen und Bibliothekar*innen zusammen, die 17 unterschiedliche Fachbereiche abdecken.

Diese Gruppe sichtet die Vorschläge, die von den Verlagen, von Forscher*innen oder auch von Bibliothekar*innen zur Aufnahme in Scopus gemacht werden und gibt daraufhin seine

Empfehlungen. Diese werden mit den Vorstellungen, die Elsevier von Scopus hat, abgeglichen, so dass sowohl der Aspekt der wissenschaftlichen Aktualität von Experten als auch die Philosophie von Scopus berücksichtigt werden. Darüber hinaus wird mit lokalen Gremien zusammengearbeitet, die die lokalen Zeitschriften, besonders die nicht englischsprachigen Inhalte, überprüfen, vor allem in China, Thailand, Russland und Südkorea. Die Qualitätsprüfung der Zeitschriften erfolgt sowohl qualitativ als auch quantitativ. Quantitativ meint hier, dass nur kontinuierlich erscheinende Zeitschriften, Buchreihen und Konferenzreihen berücksichtigt werden. Für die Qualitätsprüfung müssen die folgenden Mindestkriterien erfüllt sein: Peer Review, englischer Abstract, regelmäßiges Erscheinen, Referenzen in lateinischen Schriftzeichen für Internationalität, internationale

Standardseriennummer und eine Erklärung zu ethischen Standards der Publikationen. Danach werden die Vorschläge durch das Board nochmals überprüft, nach der Zeitschriften Policy, dem Inhalt, der Zitationsrate in Scopus und der Online Verfügbarkeit. Zusätzlich wird jährlich eine

Neubewertung der bereits in Scopus enthaltenen Medien vorgenommen. Diese wird sowohl anhand von Metriken als auch an Benchmarks vorgenommen. Medien, die den Qualitätsanforderungen nicht mehr entsprechen, werden aus dem Content entfernt. Jedoch bleiben alle bis dahin aufgenommenen Inhalte, die bereits in Scopus enthalten sind, bestehen (vgl. Podgoršek, 2020a).

4.2.2 Bibliometrische Daten

Scopus hat zwei goldene Regeln, um Ungenauigkeiten und Verzerrungen bei der Bewertung von Metriken zu verhindern. Die erste Regel lautet, beide Komponenten, sowohl quantitative als auch qualitative, zu berücksichtigen. Es wird empfohlen nicht nur metrische Daten, wie den Hirsch-Index zu nutzen, sondern auch auf das Netzwerk oder die Auszeichnungen, die die Forscher*in bereits erhalten haben, zu schauen. Die zweite Regel lautet, immer mehr als eine quantitative Metrik zu verwenden (vgl. Podgoršek, 2020a).

Scopus hat bei den traditionellen Metriken drei Ebenen, die Zeitschriftenmetrik, die Artikelmetrik und die Autorenmetrik. Auf der Zeitschriftenebene werden der CiteScore (CS), der Scimago Journal Rank (SJR) und der Source Normaliezed Impact per paper (SNIP) angeboten. Für Scopus ist der Citescore die wichtigste Metric. Diese Metric ist frei zugänglich und ermöglicht es, in Scopus Zeitschriften nach Fachgebiet sortiert zu vergleichen, um damit die besten Zeitschriften für die Bibliothek zu finden. Da aber eine Metrik nie ein umfassendes Bild einer Zeitschrift gibt, bietet

Referenzen

ÄHNLICHE DOKUMENTE

Bemerkung Bei Fragen wenden Sie sich an bibliothek@fhgr.ch... Titel Schweizerische Nationalbibliothek –

Zusammenfassend ist die radialsymmetrische Auswertung nach Kriterium III mit der Methode der Kleinsten Fehlerquadrate die optimale Lösung zur serienmäßigen Analyse von

(1) Studienpunkte werden nach Maßgabe des quantitati- ven zeitlichen Arbeitsaufwands vergeben, der für eine er- folgreiche Absolvierung der jeweiligen Lehrveranstaltung oder

(1) Hat der Prüfling bei einer der Prüfungen getäuscht und wird dieser Sachverhalt nach der Aushändigung des Zeugnisses bekannt, kann der Prüfungsausschuss nach- träglich die Noten

(1) Hat der Prüfling bei einer der Prüfungen getäuscht und wird dieser Sachverhalt nach der Aushändigung des Zeugnisses bekannt, kann der Prüfungsausschuss nach- träglich die Noten

Obwohl Open Access häufig als ein Teil von Open Science betrachtet wird, sollten auch zwischen den beiden Bereichen die Aufgaben klar abgegrenzt werden (I1, I2, I4),

Immer wichtiger – und nach mei- nem Eindruck im Konzept der DDB lei- der vernachlässigt – wird jedoch auch das, was Millionen von Bürger*innen in ihrer privaten digitalen

Während in den internationalen Seekarten des BSH die Flachwasserbereiche bis 5 m minimale Informationen bieten, sind in den nationalen Seekarten die Küstenge- wässer detailliert