• Keine Ergebnisse gefunden

Vor der Evaluation ist nach der Evaluation: Die Sichtweise der Institute

Im Dokument Gut besser exzellent? (Seite 92-95)

Im Evaluationsverfahren der WGL sind die interaktiven Elemente (zwischen Evaluator(inn)en und Evaluierten) durch die Begehungen sowie die Orientie-rung auf die Zukunft wesentliche Merkmale, die dieses Verfahren vom RAE unterscheiden. Während bei der Leibniz-Gemeinschaft die Begehung, das heißt die Gespräche der Gutachter(innen) mit den Wissenschaftler(inne)n der zu evaluierenden Einrichtung sowie die schriftliche Stellungnahme zur Bewertung der Leistungen und zur Weiterentwicklung des Instituts konsti-tutive Elemente darstellen, wird beim RAE im Wesent lichen nur die Beno-tung entkontextualisiert den Fakultäten und Instituten in schriftlicher Form rückvermittelt, die allerdings essenziell für die zukünftige Ressourcenzu-weisung ist. Die Unterschiede in den Verfahren zeigen sich auch darin, in welcher Weise Wissenschaftler(innen) „gute“ Wissenschaft präsentieren:

Während es bei der Leibniz-Gemeinschaft auch um Schwerpunktsetzung der Forschung, Kohärenz und Synergien geht, wird im RAE-Verfahren hautsächlich auf die Justierung der Quote der zu berücksichtigenden (for-schungsaktiven) Wissenschaftler(innen) abgehoben.

Die Institute der Leibniz-Gemeinschaft nutzen die Vorbereitung der Evaluation für institutionelle Selbstverständigungsprozesse: zum Teil durch intensive Diskussionen des Selbstdarstellungsberichts im Institut – der (kri-tische) Blick auf die Gesamtorganisation beherrscht die Diskussion. Es ist ein „Vorteil von Evaluierungen, dass aufs ganze Haus geschaut wird, dies hat die Institutsleitung bislang versäumt, eine gewisse Betriebsblindheit herrschte vor“ (Interview Jürgens).

Trotz der bekannten Kritik am Peer Review (Neidhardt 2010), die auch immer wieder von den Peers selbst bestätigt wird – beispielsweise die Tatsache, dass spezialisierte Forschungsgebiete oft nicht adäquat be-urteilt werden können oder die standardisierten Bewertungskriterien und -indikatoren, wie sie in Peer Review-Verfahren zum Einsatz kommen, nicht für die besonderen Leistungen der jeweiligen Einrichtung passen – wird die Begehung doch mehr als ein Beratungsgespräch unter Kolleg(inn)en als ein inquisitorischer Test wahrgenommen. Dies lässt keinerlei Rückschlüsse

auf ein naives Verständnis der Bewertungssituation zu; der Tragweite und Bedeutung sind sich die Evaluierten durchaus bewusst und Anpassungs-strategien an dominante Bewertungskriterien finden statt. Mittlerweile sind die Verfahren jedoch etabliert, es handelt sich für die meisten Institute um die zweite oder dritte Runde, und eine höhere Akzeptanz als bei den ersten Runden ist erkennbar. Auffällig ist zudem, dass die Institute mittlerweile mit mehr Selbstbewusstsein eine Evaluation vorbereiten und von den Re-sultaten auch mehr Impulse für den Weiterentwicklungsprozess erwarten – im Gegensatz zu der ersten Bewertungsrunde Mitte der 90er-Jahre (Röb-becke/Simon 2001).

Die Gutachter(innen) werden in den Begutachtungsverfahren als eine Art Instanz wahrgenommen, denen es gelingt, „sowohl Stärken als auch Schwachstellen zu identifizieren und […] auf Bereiche (einzugehen), die mit Blick auf klassische Evaluierungen nicht im Grunde genommene Re-flektion von Zahlen widerspiegeln, d. h. wo es nicht einfach nur um Publika-tionszahlen oder eingeworbene Drittmittel geht“ (Interview Dagendorf). Der Tenor der Institutsakteure deutet insgesamt darauf hin, dass die Einrich-tungen von der Evaluation profitieren: als Anstoß für die Entwicklung eines (institutionellen) Problembewusstseins und als Anregungen für einen in-haltlichen und strukturellen Weiterentwicklungsprozess. Die Empfehlungen der Peers werden für die Institutsperspektiven ernst genommen und auch umgesetzt, jedoch nicht eins zu eins. Auch hier ist ein struktureller Unter-schied zu den früheren Evaluationen zu beobachten: Empfehlungen waren in den ersten Runden quasi sakrosankt: Nachdem es Anfang der 2000er-Jahre Mode wurde, überall mehr interdisziplinäre Forschung zu fordern, wurden beispielsweise reihenweise Matrixstrukturen in der Forschungsor-ganisation eingeführt. Jahre später sind diese Strukturen zum Teil wieder zurück geführt worden, da sie sich für die Aufgaben des Instituts als nicht zielführend erwiesen haben (Röbbecke/Simon 2001; Simon 2007).

Eine wichtige Rolle spielen die zum Teil ausführlichen Rückmeldun-gen der Gutachter(innen) in den Bewertungsberichten mit strategischer Ausrichtung – quasi als Motor, der die interne Veränderungsbereitschaft stärkt. „(Also) auf dem Research Day, da wurde das noch mal angespro-chen, also jetzt könnt ihr euch nicht zufrieden zurücklehnen, sondern es wird sofort genutzt, um mit sozusagen neuem Schwung eine neue Etappe anzugehen“ (Interview Neumann). Auch wenn der Bericht keine wesent-lichen neuen Erkenntnisse hervorbringt, so dient er doch als eine Art Validierungs instanz der eingeschlagenen Richtung der Entwicklungspro-zesse und hat somit auch legitimierende Wirkung. Diese Bedeutung wurde

bislang ist den Debatten über das Für und Wider von Evaluationen im Wis-senschaftssystem vernachlässigt.

Die Empfehlungen der Gutachter(innen) konzentrieren sich in aller Regel auf Fragen der inhaltlichen Orientierung, der Art und Weise der Be-arbeitung, des innovativen Gehalts von Forschungsthemen etc. Hinweise zur Forschungsstruktur und Forschungsorganisation sind dagegen noch eher die Ausnahme und fokussieren beispielsweise auf Fragen der Nach-wuchsförderung oder der Kooperation innerhalb einzelner Institute. Dabei scheint man allerdings oftmals mehr dem Diktum aktueller wissenschafts-politischer Präferenzen als den tatsächlichen Erfordernissen der jeweili-gen Einrichtung zu foljeweili-gen. Dennoch: Selbst wenn die Empfehlunjeweili-gen zur inhaltlichen und organisatorischen Weiterentwicklung der Forschungsein-richtung – wie schon ausgeführt – oftmals kaum neue Erkenntnisse brin-gen, tragen sie doch häufig zu institutionellen Selbstverständigungen über Themen bei, die im normalen Institutsalltag überhaupt nicht oder nur am Rande diskutiert werden (Simon 2008; Röbbecke 2008).

Anders dagegen das RAE in Großbritannien. Hier stehen die indi-viduellen Leistungen der Wissenschaftler(innen) der zu evaluierenden For-schungseinheit im Vordergrund und nicht das Institut bzw. seine institu-tionellen und organisatorischen Rahmenbedingungen. Die Kritik am RAE konzentriert sich vor allem auf seine intransparente Bewertungspraxis: „It’s almost perverse, which means that there’s something else out there that they base the decision on that’s not written down […]. It isn’t quite as transparent as we thought in this case […].“ Auch sind die Bedeutung und Rangfolge von Kriterien für die evaluierte Einheit nicht immer nachvollziehbar: „(When) we discuss it among ourselves we thought well actually it’s more important to get people to go for research than it is to go and sit on committees […] Yeah, the judgement was, it was in the opposite to all the quantitative indicators“

(Interview Gomati). Die Effekte des RAE zielen primär auf den Wettbewerb der Wissenschaftler(innen) und das Verfahren stärkt in erster Linie ein Ran-king-Verhalten im Vergleich mit anderen Instituten oder Fakultäten. Den-noch finden in der Folge des RAE durchaus auch Umstrukturierungen von Instituten statt, die stärker von impliziten Annahmen (der Einschätzungen der Peers) als von ausgesprochenen Empfehlungen ausgehen können. „So I think that for Faculty A the RAE has been a bad thing […] but it’s given us the incentive to rebalance research and teaching“ (Interview Jäger). Darü-ber hinaus hat sich beispielsweise die Rolle der wissenschaftlichen Leitungs-personen durch die Evaluation in den Fakultäten verändert, die vom Pri-mus inter pares mehr zum Manager bzw. zur Managerin wurden (Musselin

2008: 51). Selbst wenn Gutachter(innen) mit ihren Empfehlungen zur Weiter-entwicklung des Instituts beitragen wollen, ist eine solche Rückmeldung an die Wissenschaftler(innen) nicht vorgesehen. Einige Gutachter(innen) setzen sich darüber hinweg und kommunizieren „regelwidrig“ ihre Eindrücke den begutachteten Wissenschaftler(inne)n. Die Dekontextualisierung der Bewer-tungen – indem letztendlich nur Noten vergeben werden, die wenig nach-vollziehbar sind – ist zweifellos eine Schwäche des Verfahrens, wenn man es unter dem Gesichtspunkt betrachtet, nachvollziehbare Qualitätskontrollen und -empfehlungen für die interne Organisationsentwicklung zu produzie-ren. Dennoch verändern Institute vor und nach dem RAE ihre Strategien, ihr Leistungsportfolio und ihre Organisationsstrukturen. Als Anstoß hierzu nimmt das RAE eine Initiativfunktion ein (Gülker/Simon 2011).

Unter der Voraussetzung, dass Evaluationen nicht „freiwillig“ von den Forschungseinrichtungen initiiert werden und für Institute zunächst eine Art Krisensituation darstellen, kann dennoch festgehalten werden, dass Evaluationen – mit ihren unterschiedlichen Zielsetzungen und Verfah-ren – grundsätzlich auf Akzeptanz stoßen – bei aller Kritik an bestimmten Verfahrenselementen. Dass die Peers die Evaluationen mit ihren jeweiligen professionellen Standards bestimmen, schafft ein generelles Vertrauen auf Seiten der evaluierten Institutionen – trotz weiterhin bestehender Kritik beispielsweise in Deutschland, die die Notwendigkeit solcher Prozesse ins-gesamt in Frage stellen (Kieser 2010).

Im Dokument Gut besser exzellent? (Seite 92-95)