Als ich vor ein paar Tagen wieder einmal bei Technorati gestöbert habe, habe ich auch darüber nachgedacht, wie man den Erfolg eines Blogs messen kann. Dieses Thema wurde in der Blogwelt ja schon ausgiebig diskutiert – ohne eine endgültige Antwort zu finden. Meistens wird die sg. “Technorati-Authority” benutzt: also die Anzahl der Links die von anderen Blogs auf ein bestimmtes Blog gesetzt werden.
Das ist sicherlich ein gutes Meßinstrument – einflußreichere (und damit wohl auch erfolgreichere) Blogs werden öfter verlinkt. Aber Links sind natürlich nicht alles. Ein Blog, dass sich z.B. nur mit der Welt der Blogs beschäftigt, kann leicht eine hohe authority bekommen, denn dann ist es nicht verwunderlich, wenn viele Blogs darauf verweisen. Aber außerhalb der (eigentlich doch relativ kleinen) Blogwelt werden solche Beiträge kaum Interesse hervorrufen. Andererseits kann es Blogs geben, die kaum oder keine Verlinkungen aufweisen – aber doch von sehr vielen Leuten gelesen werden.
Es ist also leicht zu sehen, wie schwer es ist, den Erfolg eines Blogs zu bewerten – und auch ich kenne keine vernünftige Lösung für dieses Problem. Aber diese Situation hat mich an ein anderes Bewertungsproblem erinnert: Wie bewertet man den Erfolg von Wissenschaftlern?
Was macht einen Wissenschaftler zu einem guten Wissenschaftler? Individuell lässt sich diese Frage meistens beantworten: setzt man sich lang genug mit der Arbeit eines konkreten Forschers auseinander (und hat man Ahnung vom Forschungsthema), dann kann man recht gut einschätzen, ob hier gute oder schlechte Arbeit geleistet wird. Aber was macht man, wenn man z.B. 50 Bewerbungen für eine PostDoc-Stelle vorliegen hat, und entscheiden soll, wer den Job bekommt? Da braucht es dann irgendeine andere Möglichkeit, die Entscheidung zu treffen.
Und genau wie für den Erfolg von Blogs meistens eine einzelne Zahl (die Technorat-authority) verwendet wird, gibt es auch bei der Bewertung von Wissenschaftlern (zumindest in den Naturwissenschaften) eine entsprechende “Meßgröße”: die Publikationsliste.
Publikationen sind das für alle sichtbare Endprodukt eines wissenschaftlichen Projekts: nach Abschluß einer Forschungsarbeit werden die Ergebnisse mitsamt der Methode zusammengefasst und aufgeschrieben. Fachgutachter prüfen die Arbeit und (bei bestandender Prüfung) sie wird in einer passenden Zeitschrift veröffentlicht und so dem Rest der wissenschaftlichen Gemeinschaft zugängig gemacht.
Die Publikationsliste ist quasi eine erweiterte Visitenkarte eines Forschers, die dessen bisherige Karriere kurz wiedergibt. Aber auch hier ergeben sich einige Probleme: um tatsächlich zu bewerten, ob die publizierten Arbeiten gut oder weniger gut (schlechte Arbeiten sollten es ja eigentlich gar nicht bis zu einer Veröffentlichung schaffen) sind, sollte man sie lesen. In der Praxis ist dafür selten Zeit – oft reicht es nur dazu, die Artikel kurz zu überfliegen und meistens nichtmal dazu. Deshalb wird darauf geachtet, in welchen Zeitschriften, die Artikel erschienen sind. Es gibt nämlich “gute” und “schlechte” Journale – und genau wie die authority bei den Blogs bestimmen auch hier gegenseitigen “Verlinkungen” über die Güte einer Zeitschrift.
Die entsprechende Zahl heisst “Impact Factor” und bestimmt sich daraus, wie oft Atrikel aus der Zeitschrift in anderen Artikel zitiert werden. Je mehr Zitate, desto höher der Impact Factor und desto “besser” die Zeitschrift. Und je mehr Artikel man selbst in Zeitschriften mit einem hohen Impact Factor veröffentlicht hat, desto höher wird die Qualität der Publikationsliste (und damit der eigenen Forschungsarbeit) eingeschätzt.
Natürlich ist diese Methode nicht ganz unproblematisch. Da Veröffentlichungen in Zeitschriften mit hohem Impact Factor mehr zählen, versucht man natürlich meistens, seine Artikel auch dort unterzubringen. Journale, die sich auf bestimmte Bereiche stark spezialisiert haben, gehen da leicht ein bisschen unter. Ein Beispiel aus meinem Arbeitsbereich, der Himmelsmechanik: Da gibt es die Zeitschrift “Celestial Mechanics and Dynamical Astronomy” (CMDA) die sich speziell mit Himmelsmechanik, störungs- bzw. chaostheoretischen Anwendungen und Astrodynamik beschäftigt. Im Editorial Board sitzen führende Himmelsmechaniker, die Qualitätsstandards sind hoch und trotzdem ist der Impact Factor von CMDA vergleichsweise niedrig. Ich habe deswegen schon öfter Artikel, die thematisch eigentlich genau zu CMDA gepasst hätten, lieber in Astronomy & Astrophysics (A&A) veröffentlicht (einer Zeitschrift, die sich mit allen Themen der Astronomie beschäftigt und einen vergleichsweise hohen Impact Factor hat). Das führt dann natürlich wieder dazu, dass der Impact Factor von A&A die Chance hat, größer zu werden während der von CMDA kleiner wird (und eine Publikation dort noch unattraktiver – es wird aber trotzdem bald ein neuer Artikel von mir dort erscheinen).
Kommentare (19)