Die Zielsetzung der Arbeit ist eine Bewertung der Demokratien in vier Ländern: Deutschland, Frankreich, Spanien und Portugal. Innerhalb der Demokratieforschung gab es in den letzten Jahren eine Entwicklung weg von der Einstufung der politischen Systeme in Demokratie-Autokratie zu unterschiedlichen Abstufungen von Demokratie bzw. der Qualität von Demokratie (Pickel/Pickel 2006:152; Fuchs/Roller 2008:77; Schmidt 2000, 2002, Lauth 2004; Berg-Schlosser 1999). Anhand von Indikatoren und Messindizes wird versucht, die Demokratiegrade von vier unterschiedlichen Ländern in vergleichender Weise herauszufinden. Der Vergleich zwischen bereits etablierten Demokratien stellt dabei eine besondere Herausforderung dar. Anhand der Darstellung der verschiedenen theoretischen Konzepte innerhalb des Forschungsstandes der Demokratieforschung, wie z. B. von R. A. Dahl (1989, 1998), David Beetham (1993, 1994, 2003), Merkel et al. (2003) und Leonardo Morlino (2004) wird gezeigt, dass alle Konzepte von einem Mindeststandard ausgehen, um von Demokratie sprechen zu können. Der Ansatz von Merkel et al. (2003) der "Defekten Demokratie" liegt unterhalb des Schwellenwertes. Die Ansätze von Beetham (1993, 1994, 2004), der "Democratic Audit" sowie der von Morlino (2004), ",Good' and ,Bad' Democracies: How to Conduct Research into the Quality of Democracy", erfassen die Qualität von Demokratien, womit sie oberhalb des genannten Schwellenwertes liegen. In der vorliegenden Forschungsarbeit wird das Konzept der "Defekten Demokratie" von Merkel et al. (2003) herangezogen, da nicht ausgeschlossen werden kann, dass in den ausgewählten Ländern Defekte vorliegen. Morlinos Konzept (2004) wurde aus zwei Gründen ausgewählt: Erstens zielt es im Unterschied zu dem Ansatz der "Defekten Demokratie" auf die Ermittlung der Qualität von Demokratien ab, d. h. also von politischen Systemen, die zweifelsfrei eine Demokratie sind, und zweitens handelt es sich um ein sehr systematisch entwickeltes Konzept. Anhand der Ansätze von Merkel et al. (2003), Morlino (2004) und deren Fallstudien, die im Rahmen dieser Forschungsarbeit analysiert werden, müssen geeignete Indikatoren gefunden werden, um die Defekte und die Qualität der Demokratien der Länder Deutschland, Frankreich, Spanien und Portugal messen zu können. Hinsichtlich der Indikatoren ergab sich ein etwas überraschendes Problem: Obwohl Merkels Ansatz (2003) Defekte und Morlinos Ansatz (2004) die Qualität von Demokratien bestimmt, gibt es viele inhaltliche Überschneidungen zwischen den Ansätzen, d. h. dass zum Teil gleiche Indikatoren innerhalb der beiden Konzepte verwendet werden. Dieser Sachverhalt nötigte zu einer genauen Festlegung, welcher Indikator welches theoretische Konstrukt messen soll. Bei einigen dieser Indikatoren mussten Ergänzungen als auch inhaltliche Modifikationen, sowie bei einigen wenigen ein Ausschluss vorgenommen werden. Bezüglich der Messung der Demokratien haben beide Konzepte Vorschläge unterbreitet, die in vorliegender Forschungsarbeit zuerst aufgeführt und anschließend diskutiert werden. Da aber beide Konzepte zu keiner vollkommen zufriedenstellenden Lösung führen, wurde ein kombiniertes Messinstrument entwickelt. Dieses beruht auf einer dichotomen Bewertung bezüglich jedes Indikators beider Konzepte, d. h. die Indikatoren bei Merkel et al. (2003) werden als "defekt" oder als "nicht defekt" sowie die Indikatoren bei Morlino (2004) als "Qualitätsmerkmal" oder als "kein Qualitätsmerkmal" bewertet. Dabei werden alle Indikatoren als gleichwertig behandelt, um mögliche Probleme bezüglich der Gewichtung zwischen den Teilregimen bzw. den Dimensionen, die z. B. bei Morlino (2004) auftraten, auszuschließen. Anhand der Summe der Defekte und der Qualitätsmerkmale der jeweiligen Länder kann hinsichtlich deren Qualität der Demokratie eine Abstufung erfolgen. Die empirischen Ergebnisse zeigen, dass in allen vier Ländern sowohl Defekte vorliegen, aber auch Merkmale, die für die Qualität der Demokratien der jeweiligen Länder sprechen. Unter Verwendung des kombinierten Messinstruments ergab sich, dass Deutschland am besten abschnitt. Danach kann mit einem signifikanten Abstand Portugal, anschließend Frankreich und zuletzt Spanien positioniert werden. Positiv bewertet werden kann in allen vier Ländern das Wahlregime, die Assoziationsfreiheit, der politische Pluralismus sowie die effektive Regierungsgewalt bezüglich des Verhältnisses Politik und Militär. Weitere besondere Stärken liegen bei der Bundesrepublik Deutschland hinsichtlich der Unabhängigkeit der Justiz und des Bundesverfassungsgerichts, der Souveränität des Rechtstaates sowie der Souveränität der Verfassung vor. Positiv konnte für Spanien und Portugal die Einhaltung internationaler und europäischer Vorgaben bewertet werden sowie die Durchsetzung von Antikorruptionsmaßnahmen. Frankreich fiel insbesondere durch einige demokratische Qualitätsverluste auf, die sich vor allem in der Verletzung von Bürger- und Menschenrechten mit einhergehenden Defiziten innerhalb des Justizapparates und bei den Polizei- und Sicherheitskräften ausdrückt. Trotz dieser Ergebnisse muss festgehalten werden, dass alle vier Länder Defekte vorweisen, zum Teil mit steigender Tendenz. Besonders hervorzuheben ist, dass in allen vier Ländern sowohl Einschränkungen der Meinungs-, Presse- und Informationsfreiheit, der Menschenrechtsverletzungen, Einschränkungen in den Justizrechten und Korruption vorzufinden sind. Die Unterschiedlichkeit der Eingriffe und Intensität spiegelt sich in den Endergebnissen der Bewertungen der Demokratien wider. Nicht zuletzt erleiden insbesondere Portugal und Spanien aufgrund der aktuellen Wirtschaftskrise tiefgreifende Einschränkungen in ihrer Souveränität. ; The aim of this dissertation is to assess the democracies of four countries: Germany, France, Spain and Portugal. In recent years there has been a development in democracy research away from categorizing political systems along the lines of the democracy-autocracy model towards classifying them according to their different degrees of democracy or rather their quality of democracy (see Pickel/Pickel 2006:152; Fuchs/Roller 2008:77; Schmidt 2000, 2002, Lauth 2004; Berg-Schlosser 1999). Basing itself on specific indicators and measuring indices this study paper aims at identifying the degrees of democracy of four different countries by way of comparison. In this process, comparing democracies which are well-established has proved to be particularly challenging. This paper introduces the different theoretical conceptions currently prevailing in democracy research, such as the conceptions of R. A. Dahl (1989, 1998), David Beetham (1993, 1994, 2003), Merkel et al. (2003) as well as of Leonardo Morlino (2004), and shows that all conceptions base themselves on a minimum standard in order to classify a political system as a democracy. The approach of "defective democracy" put forward by Merkel et al. (2003) refers to a level below the minimum democratic threshold. The "democratic audit" approach of Beetham (1993, 1994, 2004) and the approach of Morlino (2004), elaborated in his article ",Good' and ,Bad' Democracies: How to Conduct Research into the Quality of Democracy", both deal with the quality of democracies, therefore referring to a level above the minimum democratic threshold. The conception of "defective democracy" developed by Merkel et al. (2003) has been included in this research paper as it cannot be precluded that defects in the selected countries do in fact exist. Morlino's conception (2004) has been chosen for the following two reasons: Firstly, and in contrast to the "defective democracy" approach, it aims at identifying the quality of democracies, i.e. of political systems which are democracies beyond doubt. Secondly, it represents a conception which has been developed very systematically. Based on the approaches of Merkel et al. (2003) and Morlino (2004) it was necessary to find appropriate indicators for measuring the defects and the quality of the democracies in Germany, France, Spain and Portugal. In this process, a somewhat unexpected problem arouse with regard to the use of indicators: Although Merkel's approach (2003) is geared towards determining the defects and Morlino's approach (2004) towards determining the quality of democracies, there turned out to be many content overlaps between both approaches. It meant that to some extent both conceptions make use of identical indicators. It therefore became necessary to exactly define the specific theoretical construct that would be assessed by each of the indicators. Some indicators had to be either complemented or modified with regard to their content, and a few of them had even to be excluded. This research paper takes into account the proposals on how to assess democracies put forward by both conceptions. These proposals are first introduced and then discussed. However, as no completely satisfying result can be reached using either of these two conceptions, a combined measuring instrument has been developed. This instrument is based on a dichotomous assessment with regard to every indicator of both conceptions, i.e. the indicators of Merkel et al. (2003) are assessed as "defective" or "non-defective" and the indicators of Morlino (2004) are assessed as "with quality feature" or "without quality feature". All indicators are thereby considered equal so as to avoid problems which could arise in the weighting process between the regime elements or the dimensions which were e.g. introduced by Morlino (2004). Based on the number of defects and quality features of the respective countries a scale can be worked out with regard to their quality of democracy. According to the empirical findings, all the four countries show both defects and, at the same time, features which stand for the quality of the democracies in the respective countries. Using this combined measuring instrument Germany showed the highest performance. Significantly lower were the results for Portugal, then France and finally Spain. In all four countries the electoral regime, right to association, political pluralism and effective governance with regard to the relationship between political bodies and military can be given a positive rating. Apart from this, the Federal Republic of Germany shows further special strengths with regard to the independence of the judiciary and Federal Constitutional Court, the sovereignty of the constitutional state as well as the sovereignty of the constitution. Spain and Portugal proved eligible to be given a positive rating for complying with international and European requirements as well as for implementing anti-corruption measures. France notably stood out for quality deterioration in several democratic aspects, which manifested themselves above all in the violation of civil and human rights and included deficits within the judicial apparatus and among the police and security forces. Notwithstanding these results it must be noted that defects have been identified in all four countries, partly indicating a growing tendency. Especially to be emphasized is the fact that in all four countries restrictions of the freedom of opinion, press and information, violation of human rights, restrictions of judicial rights and corruption have been identified. Differences in the type of interventions and intensity are reflected in the final results of the assessments on democracy. Last but not least, as a result of the current economic crisis it is especially Portugal and Spain which are subject to drastic restrictions of sovereignty.
Die vorliegende Arbeit beschäftigt sich mit Edelmetallarbeiten, die aus skythischen Bestattungen des nördlichen Schwarzmeergebiets stammen. Ausgangspunkt für die Untersuchungen bilden die Funde aus dem Solocha-Kurgan, der in den Jahren 1912/13 von dem russischen Archäologen N.I. Veselovskij ausgegraben wurde. Nach einem einleitenden Kapitel zur allgemeinen Forschungsgeschichte der sogenannten graeco-skythischen Toreutik wird im zweiten Kapitel der Solocha-Kurgan vorgestellt. Von den beiden Katakombengräbern, die Veselovskij öffnete, datiert die zentrale Bestattung in die Zeit um 400 v. Chr., das Seitengrab um 370 v. Chr. Aufgrund der Beraubung der zentralen Bestattung steht vor allem die reiche Beigabenausstattung der ungestörten seitlichen Katakombe im Vordergrund der Betrachtung. In Einzeluntersuchungen werden die Edelmetallarbeiten – der berühmte Kamm, Gefäße und Prunkwaffen - zunächst im Kontext ihrer jeweiligen Gattung betrachtet. Hierfür werden die Stücke jeder Gattung vorgestellt und das jeweilige Objekt aus dem Solocha-Kurgan vor diesem Hintergrund diskutiert. Zur Veranschaulichung dienen tabellarische Zusammenstellungen von Gefäßausstattungen und Prunkwaffen in skythischen Bestattungen des 5. – 4. Jhs. v. Chr. Die Gesamtbetrachtung zeigt, dass sich einige der Edelmetallfunde aus dem Solocha-Kurgan gut in die allgemeine Entwicklung der Edelmetallbeigaben in skythischen Bestattungen einfügen. Dazu gehören die importierten Silbergefäße, die mit Appliken versehenen Holzschalen sowie das Trinkhorn aus der seitlichen Katakombe. Auch der dort gefundene Prunkakinakes besitzt Vorgänger im skythischen Material. Ein Novum hinsichtlich Form und Dekor stellen dagegen der berühmte Goldkamm, die kugeligen Silberflaschen, die Silberschalen mit den segmentförmigen Griffen sowie der großformatige Silberbeschlag des Goryts aus der Seitenbestattung dar. Obwohl sie teilweise an frühere Formen anknüpfen, stellen sie eigenständige Gestaltungen dar. Aufgrund figürlicher Darstellungen im Stil des sogenannten ethnographischen Realismus können einige Stücke enger zusammengeschlossen werden und sind wohl als Erzeugnisse einer einzelnen Auftragsarbeit zu deuten. Aufgrund der fehlenden Vorläufer ist es eher unwahrscheinlich, dass diese Arbeiten von einem Skythen in Auftrag gegeben werden konnten. Die anfangs noch geringe Anzahl derartiger Objekte spricht darüber hinaus auch gegen eine Interpretation als Handelsware. Da analog zur Verbreitung der späteren Erzeugnisse graeco-skythischer Toreutik von einer Fertigung im Bosporanischen Reich - am ehesten in Pantikapaion - ausgegangen werden kann, scheint folgende Erklärung am plausibelsten: Die Prunkobjekte aus dem Solocha-Kurgan stellen "politische" Geschenke dar, die der bosporanische Herrscher Leukon I. (389/88-349/48 v. Chr.) in Auftrag gab und an einen skythischen Verbündeten übermittelte. Dementsprechend wären die in den Darstellungen gegeneinander kämpfenden Skythen als Verbündete und Gegner des Bosporanischen Reiches zu erklären. Als Grundlage für die Bearbeitung der einzelnen toreutischen Werke dient ein ausführlich kommentierter Katalog der Fundkomplexe, aus denen die Objekte stammen. Hierbei gibt der Bestattungszeitraum einen ersten Anhaltspunkt für die Datierung der Edelmetallarbeiten, weiter können aus ihrer Lage innerhalb der Bestattung und der Vergesellschaftung mit anderen Fundstücken Rückschlüsse auf ihre Funktion gezogen werden. Daneben wurde für die einzelnen Gegenstände ein Objektkatalog getrennt nach Gattungen angelegt, in dem der Aufbewahrungsort sowie Maße, Datierung, Beschreibung und Literatur angegeben sind. ; Scythian Gold in greek style : Studies on northpontic toreutics based on the vessels and armament from the Solokha-Kurgan The thesis deals with gold and silver objects which were found in Scythian kurgans of the northern Black Sea region. In the focus stand the finds from the Solokha Kurgan which was excavated in 1912/13 by the Russian archaeologist N.I. Veselovskij. An introductory chapter deals with the history of research on the so called Graeco-Scythian toreutics, the Solokha Kurgan is presented in the second chapter. Under the burial mound Veselovskij opened two catacomb graves; the central burial is dated to the end of the 5 th century BC, the second grave in the south west part of the kurgan to about 370 BC. Because the central tomb was almost entirely robbed, the attention is directed particularly on the rich grave goods from the undisturbed lateral catacomb. In individual studies the different objects - the different vessels, the well known comb and the decorative weapons – are first seen in the context of their respective genres (chap. 2-4). For this purpose, the pieces for each genre are described in chronological order and the particular object from the Solokha Kurgan is discussed against this background. Tabular compilations illustrate the equipment of Scythian burials of the 5th and 4th century BC with vessels and weapons made of precious metals. The overall analysis shows that some of the finds from the Solokha Kurgan fit well into the general development of precious grave goods in Scythian burials. This refers to the imported silver vessels, the wooden bowls with gold appliques and the drinking horn from the side catacomb. Also the akinakes which was found there has predecessors in Scythian finds. However, a novelty in form and decoration represent the gold comb, the spherical silver bottles, the silver bowls with the segment-shaped handles and the large-sized silver overlay of the gorytos from the side funeral. Although these things are linked in part to earlier scythian forms, they represent new created designs. Some of the pieces can be grouped together because of their figural representations in the style of the so-called ethnographic realism; probably they have to be interpreted as the products of a single commission. Due to the lack of precursors, it is unlikely that these pieces were ordered by a Scythian noble. The initially small number of such objects also speaks against an interpretation as normal trade goods. By analogy with the spread of the somewhat later objects of Graeco-Scythian toreutics a production in the Bosporan kingdom - most likely in Pantikapaion - can be expected. So the following explanation seems to be most plausible: The precious metal objects from the Solokha-Kurgan probably were "political" gifts which Leukon I., the ruler of the Bosporan kingdom from 389/88 to 349/48 BC commissioned and gave to a Scythian ally. Accordingly, the fighting Scythians of the battle scenes of the comb and the gorytos overlay are to be interpreted as allies and opponents of the Bosporan Kingdom. As basis for the study serves a detailed annotated catalogue of scythian burial mounds from which the objects originated. The funeral date gives a first hint at the dating of the objects of precious metals; their position within the burials and the combination with other finds provide clues to their function. In a second catalogue the gold and silver objects are described with measurements, dating, and literature. (Translation: A. Wieland/G. Wahl) ; Or scythe dans un style grec : Recherches sur la toreutique des régions du Pont-Euxin septentrional: les offrandes funéraires du kourgane de Solokha Cette étude aborde les oeuvres en métal précieux provenant des sépultures scythes du littoral nord de la Mer Noire. Les trouvailles du kourgane de Solokha, qui fut fouillé en 1912-13 par l'archéologue russe N.I. Veselovskij, en constituent le point de départ. L'introduction dresse l'état de la recherche dans le domaine de la toreutique « gréco-scythe ». Elle est suivie d'un chapitre présentant le kourgane de Solokha dont deux tombes furent mises au jour par Veselovskij : la sépulture principale, située au milieu du kourgane et datée des environs de 400 av. J.- C., et la sépulture latérale, datée vers 370 av. J.-C. C'est le riche mobilier métallique de la seconde sépulture - trouvée intacte, contrairement à la première qui était violée- qui est ici présenté en détail. Les objets en métal précieux du kourgane de Solokha – le fameux peigne, la vaisselle et les armes d'apparat – sont étudiés au sein de leurs catégories typologiques. Confrontée aux pièces du même genre qui sont également discutées, chaque oeuvre est ainsi placée dans son contexte typologique. La présentation est complétée par des tableaux synthétiques regroupant les vases et les armes d'apparat accompagnant des sépultures scythes des Ve et IVe siècles av. J.-C. Cette vue d'ensemble montre que certains parmi les objets en métal précieux du kourgane de Solokha s'insèrent bien dans l'évolution générale des offrandes funéraires luxueuses trouvées dans des sépultures scythes : la vaisselle d'argent importée, les vases à boire en bois décorés d'appliques ainsi que le rhyton de la tombe latérale en font partie tout comme l'akinakès précieux de la même sépulture, qui a des antécédents au sein du matériel scythe. En revanche, le célèbre peigne d'or et les objets en argent, tels les vases à panse sphérique, les coupes à anses arrondies et le grand revêtement de goryte de la tombe latérale sont nouveaux autant pour leur forme que pour leur décor. Tout en restant en partie rattachées à des formes antérieures, ces oeuvres témoignent d'un caractère original. En raison de leurs compositions figurées dans un style connu sous le nom de « réalisme ethnographique », certaines oeuvres peuvent être regroupées dans un ensemble restreint et doivent être issues d'une seule commande. Cependant, l'absence d'antécédents rend leur association avec un commanditaire scythe peu probable. Par ailleurs, le nombre à l'origine limité de ce type d'objets empêche de les interpréter comme des produits de commerce. Au contraire, la large diffusion des plus récentes créations de la toreutique « gréco-scythe » laisse présumer une fabrication locale, dans le royaume du Bosphore – plus probablement à Pantikapaion. Ainsi, l'hypothèse suivante semble la plus plausible pour expliquer ce phénomène : les oeuvres luxueuses du kourgane de Solokha représenteraient des cadeaux diplomatiques que le roi du Bosphore Leukon Ier (389/88-349/48 av. J.-C.) aurait commandités afin de les offrir à un de ses alliés scythes. A cet égard, les Scythes en combat figurant dans les scènes représentées devraient être interprétés comme des alliés et des ennemis du royaume du Bosphore. Le recensement des sépultures et des ensembles funéraires sous forme de catalogue commenté est fourni à l'appui des arguments avancés au sujet du mobilier toreutique. Ainsi, les datations proposées pour une sépulture livrent un premier indice pour la datation des objets en métal précieux qui l'accompagnaient, tandis que leur emplacement à l'intérieur de la tombe tout comme leur relation aux autres offrandes permettent de mieux cerner leur fonction. Un second catalogue regroupe les objets classés par genre avec les informations sur le lieu de leur conservation, leurs dimensions, la datation, la description et la bibliographie. (Traduction : K. Charatzopoulou)
Computer- und Videospiele sind heute ein selbstverständlicher Bestandteil der Lebenswelt vieler Kinder und Jugendlicher, aber auch von (jüngeren) Erwachsenen, die mit diesen neuen Medien aufgewachsen sind. Lange Zeit haben elektronische Bildschirmspiele allenfalls sporadische Beachtung gefunden. Weder in der Medienforschung oder Medienpädagogik noch in der breiteren Öffentlichkeit waren sie ein Gegenstand von breiterem Interesse.* In den letzten knapp zehn Jahren sind Video- und Computerspiele allerdings zunehmend in den Fokus der Aufmerksamkeit gerückt. Dabei sind in der massenmedial vermittelten Öffentlichkeit vor allem Amokläufe in Schulen in einen direkten Zusammenhang mit den Vorlieben (der Täter) für bestimmte Computerspiele gebracht worden. Die auch von prominenten Politikern aufgegriffene These lautete, dass gewalthaltige Spiele wie der First Person Shooter «Counterstrike» ein virtuelles Trainingsprogramm für das Töten und daher als wesentliche Ursache solcher Schulmassaker anzusehen seien. Auf der Basis dieser kausalen Wirkungsannahmen bzw. der unterstellten negativen Lern- und Trainingseffekte werden seither immer wieder Forderungen nach einem Verbot solcher «Killerspiele» oder gar nach der Verbannung aller Bildschirmmedien aus den Kinderzimmern abgeleitet. Neben solcher skandalisierter Thematisierung ist aber zunehmend auch eine nüchterne wissenschaftliche Auseinandersetzung zu konstatieren. So haben sich seit Beginn des neuen Jahrtausends die «digital game studies» als interdisziplinäres Forschungsfeld etabliert. Im Jahr 2000 wurde innerhalb der Gesellschaft für Medienwissenschaft z.B. die AG Games gebildet, die sich zu einem wichtigen deutschsprachigen Forum für die wissenschaftliche Beschäftigung mit Computerspielen entwickelt hat, und im Jahr 2002 entstand die internationale Digital Games Research Association (DiGRA), die im September 2009 ihre vierte grosse Konferenz nach 2003, 2005 und 2007 durchgeführt hat (vgl. www.digra.org). Seit 2001 gibt es mit der «Game Studies» eine primär kulturwissenschaftlich ausgerichtete Online-Zeitschrift (vgl. gamestudies.org), und daneben sind zahlreiche Publikationen zu verzeichnen, die zur Strukturierung und Systematisierung des Forschungsfeldes beigetragen haben, etwa die transdisziplinär angelegten Sammel- und Tagungsbände von Wolf & Perron (2003); Fritz & Fehr (2003), Copier & Raessens (2003), Neitzel, Bopp & Nohr (2004), Raessens & Goldstein (2005), Kaminski & Lorber (2006), Vorderer & Bryant (2006), de Castell & Jenson (2007), Kafai et al. (2008), Quandt, Wimmer & Wolling (2008). Ausserdem liegen Monografien vor, die sich um Orientierung sowie empirische oder theoretische Klärungen bemühen (etwa Fromme, Meder & Vollmer 2000, Newman 2004, Juul 2005, Klimmt 2005, Mäyrä 2008, Pearce & Artemesia 2009). Diese wissenschaftlichen Entwicklungen und Arbeiten zeigen, dass die Phase der blossen Skandalisierung oder akademischen Ignorierung der Computerspiele zu Ende geht. Stattdessen kann von einer zunehmenden Normalisierung und Ausdifferenzierung der akademischen Auseinandersetzung mit diesen neuen Medien und ihren Verwendungsweisen ausgegangen werden, wie sie bei anderen, etablierteren Gegenstandsbereichen (etwa der Film- oder Fernsehforschung) schon länger selbstverständlich ist. Zur Normalisierung und Differenzierung der Debatte soll auch dieses Themenheft der Online-Zeitschrift «MedienPädagogik» auf www.medienpaed.com beitragen, das sich mit den digitalen Spielen und Spielkulturen aus einer primär medienpädagogischen Perspektive befasst und nach den Chancen und Potentialen für informelle wie auch formelle Lern- und Bildungsprozesse fragt. Die Beiträge fokussieren in diesem Spannungsfeld von Spielen und Lernen, von Unterhaltung und Bildung unterschiedliche Aspekte. Die Mehrzahl greift dabei aktuelle Diskussionen über Einsatzmöglichkeiten digitaler Spiele im Bereich des Lernens und der Ausbildung auf, die unter dem Label «Serious Games» oder auch «Game-based Learning» geführt werden (Petko; Bopp; Berger/Marbach; Lampert/Schwinge/Tolks; Malo/Neudorf/Wist; Pfannstiel/Sänger/Schmidt). Daneben widmen sich Beiträge der Frage, wie die Lern- und Bildungsrelevanz der medial-kulturellen Praxen, die sich weitgehend unabhängig von pädagogischer Intervention entfalten, untersucht und verstanden, aber auch pädagogisch unterstützt werden können (Fromme/Jörissen/Unger; Schrammel/Mitgutsch). In einem Beitrag geht es schliesslich darum, Computerspiele selbst zum Gegenstand der pädagogischen Reflexion machen (Biermann). Diese Verteilung spiegelt das Gewicht der Schwerpunkte innerhalb des aktuellen Diskurses über den Zusammenhang von Computerspielen und Lernen/Bildung durchaus angemessen wider. Dominik Petko fokussiert auf formelle Lern- und Bildungskontexte und behandelt die Frage, welche didaktischen Potenziale Computerspiele für den gezielten Einsatz in Schule und Ausbildung aufweisen. Ausgangspunkt ist die Überlegung, dass es für den schulischen Bereich nicht ausreicht, die allgemeinen Lernpotenziale der Spiele auszuweisen und die Muster des spielimmanenten Lernens nachzuzeichnen, wie dies in einigen Publikationen der letzten Jahre geschehe. Um einen Schritt weiterzukommen und zu erreichen, dass digitale Spiele tatsächlich vermehrt in den Unterricht integriert werden, komme es darauf an, den Lehrpersonen zu zeigen, dass der Einsatz solcher Spiele einerseits mit einem vertretbaren Aufwand möglich ist und andererseits zu einem erkenn- und begründbaren Mehrwert führt. Dazu sei im ersten Schritt eine genauere Analyse und Typisierung der Spiele und anschliessend eine Konkretisierung der didaktischen Strategien und Arrangements für die sinnvolle Einbettung in den Unterricht erforderlich. Der Beitrag vermittelt einen ersten systematischen Überblick über entsprechende mediendidaktische Ziele und Ansätze für den Einsatz von Computerspielen in Schule und Unterricht. Matthias Bopp geht aus von der Überlegung, dass Computerspiele die Spielenden generell mit Aufgaben und Herausforderungen konfrontieren, die nur im Rahmen von spielbezogenen Lernprozessen bewältigt werden können. Zudem unterstützen aktuelle Spiele die Spielenden in der Regel systematisch beim Erwerb der erforderlichen Kenntnisse und Fähigkeiten, weisen also ein (zumindest implizites) didaktisches Design auf. Wenn man in Rechnung stellt, dass Video- und Computerspiele für Kinder, Jugendliche und zunehmend auch Erwachsene trotz – oder gerade wegen – der hohen Anforderungen, die sie stellen, höchst faszinierend und motivierend sind, dann bietet es sich an, die Lehr-Lern-Designs digitaler Spiele genauer zu untersuchen, um ihre erfolgreichen Prinzipien auf Lernspiele zu übertragen. Der Beitrag konzentriert sich in diesem Kontext auf die Frage, welche Bedeutung zum einen Rahmengeschichten (Storytelling) und zum anderen parasoziale Interaktionen zwischen Spielenden und virtuellen Spielfiguren für die Spielmotivation haben und welche Rolle ihre gezielte Verwendung beim Design von Lernspielen zur Steigerung oder Aufrechterhaltung der Lernmotivation spielen kann. Daraus werden Empfehlungen für die Gestaltung motivierender Lernspiele abgeleitet und abschliessend an Hand zweier Beispiele veranschaulicht. Johannes Fromme, Benjamin Jörissen und Alexander Unger plädieren dafür, die Bildungspotenziale von Computerspielen – und der neuen, computerbasierten Medien überhaupt – nicht nur in ihrer Verwendung bzw. Verwendbarkeit als didaktische und motivationssteigernde Hilfsmittel für die Vermittlung dieser oder jener Lehrinhalte zu sehen, sondern die Perspektive in verschiedenen Hinsichten zu erweitern. Eine prinzipielle Erweiterung bestehe darin, bei der Frage nach Bildungspotenzialen in der Tradition der humanistischen Bildungstheorie nicht primär den Wissenserwerb, sondern die Steigerung von Reflexivität im Selbst- und Weltverhältnis in den Blick zu nehmen und somit zu fragen, in welcher Weise der Umgang mit Medien hierzu beitragen kann. Und weil Bildung in dieser Tradition grundsätzlich als Selbstbildung verstanden werde, liege es nahe, neben der formellen, institutionalisierten Bildung dem Bereich der informellen Bildung eine entsprechende Beachtung zu schenken. Der Artikel fragt daher nach dem Beitrag, den Computerspiele – und vor allem community-basierte Praxen – für eine Flexibilisierung von Selbst- und Weltsichten sowie für den Aufbau von Orientierungswissen leisten können, und diskutiert abschliessend, inwiefern solche informellen Bildungspotenziale pädagogisch aufgegriffen und unterstützt werden können. Florian Berger und Alexander Marbach gehen davon aus, dass es angesichts der Popularität und hohen Motivationskraft der Computerspiele zwar nahe liege, ihre pädagogische Verwertbarkeit zu prüfen, dass für den pädagogischen Einsatz der digitalen Spiele aber bisher weder theoretisch fundierte Konzepte noch eine hinreichende Forschung existiere. Insbesondere würden Fragen der technischen Machbarkeit zu wenig beachtet, wobei die Schwierigkeit darin bestehe, dass der jeweilige «State of the Art» für Lernspiele als Massstab schon wegen der begrenzten (finanziellen) Ressourcen ausscheide, andererseits aber ein Mindeststandard erreicht werden müsse, um die notwendige Akzeptanz beim Anwender zu finden. Vor diesem Hintergrund geht der Beitrag zunächst der Frage nach, was die technische, die kulturelle und die pädagogische Qualität eines digitalen Spiels ausmacht, um dann – aus einer primär ingenieurwissenschaftlichen Perspektive – zu diskutieren, wie bei der Gestaltung von Lernspielen eine gute Balance erreicht werden kann. Ralf Biermann betrachtet Computerspiele in seinem Beitrag nicht aus mediendidaktischer, sondern aus medienpädagogischer Perspektive und stellt ein Konzept vor, mit dem die digitalen Spiele selbst zum Gegenstand einer lernorientierten Auseinandersetzung werden. Die leitende Idee ist es, Wege aufzuzeigen und zu erproben, wie Computerspiele in den Bereich der aktiven, projektorientierten Medienarbeit eingebunden werden können, die sich dieser neuen Medien – im Unterschied zu Radio, Presse oder Film – bisher kaum angenommen hat. Das Konzept des Video Game Essays knüpft an der Film- und Videoarbeit an, erweitert es aber um einige neue Elemente, die mit den technischen Besonderheiten der Spiele zu tun haben. Der Ansatz kann als innovative Form der Medienanalyse angesehen werden, bleibt aber bei der Analyse nicht stehen, sondern eröffnet auch weitergehende Handlungs- und Lernpotenziale. Als Einsatzgebiete des Video Game Essays werden die ausserschulische Medienarbeit, die Schul- und die Hochschulausbildung genauer betrachtet. Claudia Lampert, Christiane Schwinge und Daniel Tolks zeichnen in ihrem Beitrag die bisherigen Entwicklungen im Bereich der Serious Games nach, die von anderen Ansätzen des mediengestützten Lernens wie E-Learning, Edutainment und Game-Based Learning abgegrenzt werden, und arbeiten den aktuellen Diskussions- und Forschungsstand auf. Die Potenziale und Grenzen werden am Beispiel zweier Spiele aus dem Gesundheitsbereich (Games for Health) detaillierter diskutiert, für die auch erste empirische Befunde vorliegen. Serious Games gewinnen zwar – nach Ansicht der Autoren/innen vor allem aus Marketinggründen – zunehmend an Bedeutung, allerdings bestehe noch ein erheblicher Forschungs- und Evaluationsbedarf. Sabrina Schrammel und Konstantin Mitgutsch kritisieren, dass im medienpädagogischen Diskurs über Computerspiele der Umstand vernachlässigt werde, dass Spielen eine kulturell geprägte, aktive Auseinandersetzung mit einem Spielgegenstand sei. Ihnen geht es im vorliegenden Beitrag daher darum, die spezifische medial- kulturelle Praktik des Computerspielens zu erfassen bzw. dafür einen geeigneten methodischen und theoretischen Zugang zu entwickeln und vorzustellen. Das Spielen von Computerspielen wird in Anlehnung an den internationalen Diskurs als Transformation und Produktion kultureller Erfahrungen interpretiert, auch um aus den Engführungen der im deutschsprachigen Raum noch dominierenden Mediennutzungs- und Medienwirkungsforschung herauszugelangen. Für die pädagogische Auseinandersetzung wird daraus abgeleitet, dass nicht die didaktische Nützlichkeit, sondern die bildungstheoretische Bedeutung von Computerspielen zu fokussieren sei. Den bisher vorherrschenden teleologischen Lernkonzepten wird hier ein genealogischer Ansatz gegenübergestellt, bei dem die Erfahrungen und Lernprozesse im Zuge der Spielhandlungen selbst thematisiert werden. An einem Beispiel wird abschliessend verdeutlicht, wie das theoretisch-methodische Vorgehen einer hierauf ausgerichteten Analyse ausgestaltet und wie bei einer solchen Analyse die medial-kulturelle Praktik des Computerspielens pädagogisch rekonstruiert werden kann. Steffen Malo, Maik Neudorf und Thorben Wist ordnen ihren Beitrag in den Kontext des Game-based Training (GBT) ein und berichten über das Projekt Alphabit, bei dem es darum geht, computerbasierte Lern- bzw. Trainingsspiele als ergänzendes methodisches Mittel für Alphabetisierungs- bzw. Grundbildungsprogramme einzusetzen. Vorgestellt werden die im Projekt entwickelten konzeptionellen Überlegungen zu den Rahmenbedingungen, zur Auswahl der Inhalte, zu unterstützenden instruktionalen Hilfen, zu den Entwicklungsprozessen und zu methodischen Aspekten des spielerischen Lernens in virtuellen Umgebungen. Ausserdem werden erste Ansätze für die Umsetzung präsentiert und offene Forschungsfragen aufgezeigt. Auch Jochen Pfannstiel, Volker Sänger und Claudia Schmitz berichten über ein Projekt, das für die Bildungspraxis konzipiert wurde und auch bereits erprobt wird. Hier geht es um Game- based Learning im Hochschulbereich, genauer: um ein Lernspiel, das ergänzend zu einer Pflichtvorlesung in der Informatik eingesetzt wird, um Studierende dazu zu motivieren, sich während des Studiums intensiver und vertiefend mit der Vorlesungsthematik zu befassen. Ziel ist also ein verbessertes und vor allem nachhaltigeres Verständnis der Vorlesungsinhalte durch spielerische Mittel zu erreichen. Der Beitrag beschreibt das dazu entwickelte Lernspiel und berichtet über die bisherigen Erfahrungen und erste Evaluationsergebnisse. * Eine Ausnahme erscheint allerdings erwähnenswert: In der ersten Hälfte der 1980er Jahre gab es in der Bundesrepublik Deutschland eine Debatte (und einige Forschungsarbeiten) zum Videospiel in Spielhallen mit dem Ergebnis, dass 1985 ein geändertes Jugendschutzgesetz in Kraft trat, das den Zugang zu Glücks- und Videospielautomaten in der Öffentlichkeit neu regulierte und unter 18-Jährigen nicht mehr gestattete. Diese Regelung ist – anders als die 2003 obligatorisch gewordenen Altersfreigaben der USK für Computerspiele auf Datenträgern – unabhängig vom Inhalt der Spiele, und sie ist bis heute in Kraft. Literatur Copier, Marinka/Raessens, Joost (Eds.) (2003): Level Up. Digital Games Research Conference, 4–6 November 2003, Utrecht University, Conference Proceedings. De Castell, Suzanne/Jenson, Jennifer (Eds.) (2007): Worlds in Play. International Perspectives on Digital Games Research. New York et al.: Peter Lang. Fritz, Jürgen/Fehr, Wolfgang (Hrsg.) (2003): Computerspiele. Virtuelle Spiel- und Lernwelten. Bonn: Bundeszentrale für politische Bildung. Fromme, Johannes, Meder, Norbert; Vollmer, Nikolaus (2000). Computerspiele in der Kinderkultur. Opladen: Leske + Budrich. Juul, Jesper (2005). Half-real. Video games between real rules and fictional worlds. Cambridge, Mass.: MIT Press. Kafai, Yasmin B./Heeter, Carrie/Denner, Jill/Sun, Jennifer Y. (Eds.) (2008): Beyond Barbie and Mortal Kombat. New Perspectives on Gender and Gaming. Cambridge, Mass./London: MIT Press. Kaminski, Winfred/Lorber, Martin (Hrsg.) (2006): Clash of Realities. Computerspiele und soziale Wirklichkeit. München: Kopäd. Klimmt, Christoph (2005): Computerspielen als Handlung. Dimensionen und Determinanten des Erlebens interaktiver Unterhaltungssoftware. Köln: Herbert von Halem. Mäyrä, Frans (2008): An Introduction to Game Studies. Games in Culture. Los Angeleos u.a.: SAGE. Neitzel, Britta/Bopp, Matthias/Nohr, Rolf F. (Hrsg.) (2004): «See? I'm real …» Multidisziplinäre Zugänge zum Computerspiel am Beispiel von ‹Silent Hill›. Münster: Lit. Newman, James (2003): Videogames. London/New York: Routledge. Pearce, Celia/Artemesia (2009): Communities of Play. Emergent Cultures in Multiplayer Games and Virtual Worlds. Cambridge, Mass./London: MIT Press. Quandt, Thorsten/Wimmer, Jeffrey/Wolling, Jens (Hrsg.) (2008): Die Computerspieler. Studien zur Nutzung von Computergames. Wiesbaden: VS Verlag. Raessens, Joost; Goldstein, Jeffrey (2005) (Ed). Handbook of Computer Game Studies. Cambridge, Mass.: MIT Press. Vorderer, Peter; Bryant, Jennings (2006) (Ed). Playing Video Games. Motives, Responses, and Consequences. Mahwah, NJ: Lawrence Erlbaum. Wolf, Mark J./Perron, Bernard (Eds.) (2003): The Video Game Theory Reader. New York/London: Routledge.
In der vorliegenden Arbeit wurde retrospektiv auf Grundlage der Sektionsprotokolle der Jahrgänge 1975 und 2015 aus dem Institut für Rechtsmedizin Hamburg bezüglich Sektionsdatum, Geschlecht, Alter, Größe, Gewicht, Todesursache und Todesart geprüft, wie sich das Sektionswesen in den vergangenen 40 Jahren entwickelt hat und ob aufgrund von gesellschaftlichen, wissenschaftlichen und demografischen Veränderungen in Deutschland im Laufe der letzten 40 Jahre ein Panoramawandel stattgefunden hat. Zudem wurden besondere Identifikationsmerkmale der Leichen und der Einsatz des CT im Jahr 2015 erfasst. Die Obduktionsrate ist in den letzten 40 Jahren um 17 % zurückgegangen. So wurden n = 1512 Sektionen im Jahr 1975 durchgeführt, während es 2015 nur n = 1267 waren. Im Hinblick auf die Geschlechterverteilung sind sowohl 1975 als auch 2015 doppelt so viele männliche wie weibliche Fälle im Gegensatz zu der offiziellen Todesursachenstatistik, in der ein ausgeglichenes Verhältnis vorliegt, zu verzeichnen. Hinsichtlich der Altersverteilung ist festzustellen, dass aufgrund der demografischen Verschiebung und der sich stetig verbessernden Lebensqualität durch ständige wissenschaftliche und medizinische Erkenntnisse das Durchschnittsalter in den letzten Jahrzehnten in Deutschland angestiegen ist. Diese Erkenntnis deckt sich mit dem ermittelten Durchschnittsalter des untersuchten Sektionsguts der Jahre 1975 und 2015. So ist das Durchschnittsalter des Sektionsguts von 51,6 Jahren im Jahr 1975 in mehr als 10 Jahren auf 62,57 Jahre im Jahr 2015 angestiegen. Gleichzeitig wurden im Jahr 2015 viermal mehr Fälle von über 90-Jährigen als 1975 erfasst. Im Hinblick auf die jahreszeitliche Verteilung ist sowohl 1975 als auch 2015 keine Auffälligkeit zu erkennen. Mithilfe der erhobenen Daten wird ersichtlich, dass sich das Verhältnis der Sektionsart in den letzten 40 Jahren gewandelt hat. Während es sich im Jahr 1975 um 70 % Verwaltungssektionen, 28 % gerichtliche Sektionen und 2 % berufsgenossenschaftliche Sektionen handelte, waren es 2015 nur noch 19 % Verwaltungssektionen, 74 % gerichtliche Sektionen und 7 % berufsgenossenschaftliche Sektionen. Diese Veränderung des Sektionstyps liegt vor allem an dem sich ändernden Aufgabenspektrum eines rechtsmedizinischen Instituts in den letzten Jahrzehnten. Dies zeigt sich insbesondere an dem Anstieg der Sektionen im Auftrag von Berufsgenossenschaften um fast das Dreifache in den vergangenen 40 Jahren aufgrund der Erkenntnis über den gesundheitsschädigenden Einfluss von Asbest bei Berufen, die direkt bzw. indirekt einer Asbestbelastung ausgesetzt waren. Die Veränderung des rechtsmedizinischen Aufgabenspektrums spiegelt sich auch im Verhältnis der festgestellten Todesart wider. . So wurden 1975 43 % (n = 654) natürliche, 47 % (n = 717) nicht natürliche, 5 % (n = 64) Verdachtsfälle und 5 % (n = 77) unklare Todesfälle erfasst, während es sich 2015 154 um 59 % (n = 752) natürliche, 34 % (n = 433) nicht natürliche, 3 % (n = 26) Verdachtsfälle und 4 % (n = 56) unklare Todesfälle handelte. Im Hinblick auf die natürlichen Todesfälle ist festzustellen, dass sowohl 1975 als auch 2015 der Tod aufgrund einer Herz-Kreislauf-Erkrankung mit Abstand die größte Gruppe von natürlichen Todesursachen darstellt. Dazu zählen z. B. Todesursachen wie die koronare Herzkrankheit, der Herzinfarkt, eine Kombination aus verschiedenen Faktoren oder Herzrhythmusstörungen. Es folgen sowohl 1975 als auch 2015 die respiratorischen Todesursachen, zu denen z. B. die Pneumonie, eine Lungenembolie oder die Folgen eines Bronchialkarzinoms zählen. Zudem wurde mithilfe der Berechnung des Body-Maß-Indexes geprüft und bestätigt, dass Menschen mit Übergewicht einem erhöhten Risiko ausgesetzt sind, plötzlich aufgrund ihrer Lebensweise zu versterben. Einen Sonderfall der erfassten natürlichen Todesfälle stellen die plötzlichen Todesfälle von Kleinkindern dar, dessen Ursachen bis heute unter Wissenschaftlern diskutiert wird. Es ist ein Rückgang der plötzlichen Kindstodesfälle von n = 43 Fällen im Jahr 1975 auf n = 27 im Jahr 2015 zu verzeichnen. Dies entspricht einem Rückgang von 37 %. Bei Betrachtung der erfassten nicht natürlichen Todesfälle im Jahr 1975 im Vergleich zu 2015 ist ein erheblicher Wandel in den letzten 40 Jahren festzustellen. 1975 stellen die Suizide die größte Gruppe der nicht natürlichen Todesfälle mit 39,3 % (n = 280) dar, gefolgt von Verkehrsunfällen (n = 199, 27,9 %), Unfällen (n = 128, 17,9 %), Tötungsdelikten (n = 78, 10,9 %) und ärztlichem Fehlverhalten (n = 2, 0,3 %), während 2015 das ärztliche Fehlverhalten mit 33,6 % (n = 142) die größte Gruppe der nicht natürlichen Todesumstände darstellt, gefolgt von Unfällen (n = 101, 23,7 %), Suiziden (n = 61, 14,3 %), Verkehrsunfällen (n = 58, 13,6 %) und Tötungsdelikten (n = 28, 6,6 %). Insbesondere der Rückgang der tödlichen Verkehrsunfälle um 70,8 % zeigt, dass durch Fortschritte in der Fahrsicherheit wie die Einführung des Sicherheitsgurts und des Airbags eine erhebliche Reduzierung der Verkehrsunfälle möglich ist. Gleichzeitig zeigt der enorme Anstieg der Sektionen mit Verdacht auf ärztliches Fehlverhalten von nur n = 2 Fällen im Jahr 1975 auf n = 142 im Jahr 2015, dass sich durch das steigende Gesundheitsbewusstsein bei Patienten und Angehörigen und die stetig fortschreitenden wissenschaftlichen Entwicklungen im Bereich der Medizin und den Anspruch der Patienten auf eine erhöhte Heilungschance, aber gleichzeitig mit zunehmenden Problemen im Hinblick auf Krankenhaushygiene durch die Zunahme der Resistenzen bei Antibiotika durch multiresistente Keime wie MRSA, ein erheblicher Wandel im Aufgabenspektrum der rechtsmedizinischen Institute vollzogen hat. Die Ergebnisse dieser Arbeit zeigen einen erheblichen Wandel des Sektionswesens im Institut für Rechtsmedizin Hamburg in den letzten 40 Jahren, was weitgehend mit anderen Arbeiten, die sich mit einer ähnlichen Thematik befasst haben, übereinstimmen. Jedoch wird durch den Rückgang der Obduktionsrate und den Wandel des rechtsmedizinischen Aufgabenbereiches deutlich, dass es von grundlegender Bedeutung ist, auf politischer Ebene Gesetzesänderungen vorzunehmen, um die Obduktionsrate zu steigern und so die Dunkelziffer der potenziell nicht natürlichen Todesfälle, die ärztliches Fehlverhalten, Unfälle, Suizide, und Tötungsdelikte darstellen, reduzieren zu können. ; This dissertation has been performed retrospectively on the basis of autopsy protocols dated 1975 and 2015 from the Department of Forensic Medicine Hamburg, whereby the autopsy date, sex, age, height, weight, cause of death and type of death and behavior of the deceased over the past 40 years are all factors that have been examined. Furthermore, this dissertation has taken into account the social, scientific and demographic developments in Germany over the last 40 years, in order to assess any contributory impact. In addition, special identifying features of the bodies, and the introduction of CT scanning in 2015 have been considered. The autopsy rate has dropped by 17% over the last 40 years. So n=1512 autopsies were performed in 1975, while in 2015 only n=1267 were recorded. In terms of gender distribution, both in 1975 and 2015, it is evident that there are twice as many male cases as there are female. This is in antithesis to the official cause of death statistics, where a more uniform correlation of gender can be observed. With regard to age distribution, it can be concluded, that due to a shift in the demographic situation as well as a steadily improving quality of life, which can be attributed to the fast-paced developmental nature of science and medicine, the average life expectancy in Germany has risen in recent decades. This finding is corroborated by the mean age of the deceased examined during the years 1975 and 2015. For example, the average age of the deceased examined in 1975 increased from 51.6 years of age by more than 10 years to 62 years in 2015. At the same time, more cases involving individuals over the age of 90 were recorded in 2015 than in 1975. Regarding the seasonal distribution in both 1975 and 2015, no discrepancies can be observed. The data collected show that the types of autopsies have transformed in the last 40 years. Whilst 70% of the cases examined in 1975 were scientific autopsies, 28% were forensic autopsies and 2% occupational-related autopsies, in 2015 there were only 19% scientific autopsies, 74% forensic autopsies and 7% occupational-related autopsies documented. This variation in the type of autopsy can arguably be ascribed to the altering range and nature of tasks of a forensic institute in recent decades. This is particularly evident in the rise of autopsies conducted on behalf of professional associations, which have almost tripled over the past 40 years, due to the recognition of the harmful effects of asbestos on occupations directly or indirectly exposed. The change in forensic landscape is also reflected in the relationship between the types of death observed. For example, in 1975, 43% (n=654) natural deaths, 47% (n=717) unnatural deaths, 5% (n = 64) suspected cases and 5% (n = 77) unclear deaths were recorded. In contrast, 2015 noted 59% (n=752) natural deaths, 34% (n=433) unnatural deaths, 3% (n=26) suspected cases and 4% (n=56) unclear deaths. 156 In terms of natural deaths, both in 1975 and 2015, death due to cardiovascular disease is by far the largest observed group of natural death causes. This includes coronary heart disease, myocardial infarction or a combination of various factors or cardiac arrhythmias. Both 1975 and 2015 marked prevalence in respiratory causes of death, such as pneumonia, pulmonary embolism or the consequences of bronchial carcinoma. In addition to this, the introduction of the Body Measurement Index (BMI), enabled a substantiation of the hypothesis that lifestyle choices can play a pivotal role and confirmed that obesity can lead to an increased risk of death. It is also relevant to note the special category of recorded natural deaths, namely that of Sudden Infant Death Syndrome (SIDS), which still is a heatedly debated topic amongst scientists. Statistics show that there is a decrease in sudden death in childhood cases from n=43 cases in 1975 to n=27 in 2015, namely a 37% observed decrease. When examining recorded unnatural deaths in 1975 compared to 2015, there has been a significant all-encompassing change over the last 40 years. In 1975, suicides represent the largest group of unnatural deaths, with 39.3% (n=280), followed by traffic incidents (n=199, 27.9%), accidents (n=128, 17.9%), negligence (n=78, 10.9%) and medical negligence (n=2, 0.3%). Interestingly in 2015 medical negligence constitutes the largest contributor to unnatural deaths at 33.6% (n=142), followed by accidents (n=101, 23.7%), suicides (n = 61, 14.3%), traffic accidents (n = 58, 13.6%) and homicides (n=28, 6.6%). In particular, the 70.8% drop in fatal traffic accidents demonstrates that advances in driving safety have been made, such as the introduction of the seatbelt and the airbag. These have been crucial in ensuring the reduction of traffic-related incidents. Concurrently, the considerable increase in suspected medical negligence, from only n=2 cases in 1975 to n=142 in 2015, shows that there has been a significant change in the range of tasks of forensic institutes due to increased health awareness among patients and relatives, and the ever-advancing scientific developments in the field of medicine. This inevitably leads to an increased possibility of recovery, however it simultaneously incorporates the growing concern of hospital hygiene, as well as the increase in resistance to antibiotics by multiresistent germs as by MRSA. The conclusion of this dissertation is, that the Department of Legal Medicine Hamburg has undergone a multitude of structural changes in the last 40 years. This upholds, to a large extent, the findings of other academic findings, touching upon a similar issue. However, the decline in the rate of autopsies, and the transformation that the field of forensic medicine has undergone, make clear that it is instead essential to make policy changes at the political level, and to increase the number of autopsies. It is only in this manner that the unreported death toll, medical malpractice, accidents, suicides, and homicides can be combated and we will be able to witness a decline in such statistics.
Aus der Einleitung: Die Rekrutierung und Freistellung von Mitarbeitern in traditionell organisierten Unternehmen sind bereits umfassend erforscht und in der allgemeinen Personalmanagement-Literatur beschrieben. Im Vergleich dazu existiert für projektorientierte Unternehmen kaum Forschung, obwohl Personal auch in projektorientierten Unternehmen ein zentraler Erfolgsfaktor ist und die Personalmanagement-Prozesse Rekrutierung und Freistellung somit eine hohe Bedeutung aufweisen. Ziel dieser Untersuchung ist es, die spezifischen Herausforderungen eines projektorientierten Unternehmens an die Prozesse Rekrutierung und Freistellung von Projektmanagern zu beleuchten, Anlassfälle herauszuarbeiten, die Prozesse darzustellen und zu beschreiben und konkrete Methoden aufzuzeigen. Dazu werden in einem ersten Schritt die Literaturgrundlagen zu projektorientierten Unternehmen, zu Geschäftsprozess-Management, Rekrutierung und Freistellung aufgearbeitet und zusammengefasst. Danach werden Interviews mit Human Resources Managern in projektorientierten Unternehmen, Freelance Projektmanagern und PMO-Managern bzw. Expert Pool Managern geführt, um die Praxisperspektive in diese Arbeit zu integrieren. Abschließend werden die Spezifika für Rekrutierung und Freistellung in projektorientierten Unternehmen kurz zusammengefasst und Ansatzpunkte für weiterführende Forschung identifiziert. Die Arbeit beruht auf folgenden Thesen: Rekrutierung und Freistellung sind zentrale Personalmanagement-Prozesse in projektorientierten Unternehmen; Thesen zur Rekrutierung von Projektmanagern in projektorientierten Unternehmen; Es gibt spezifische Anlassfälle für die Rekrutierung von Projektmanagern in projektorientierten Unternehmen. Der Rekrutierungsprozess von Projektmanagern für ein spezifisches Projekt unterscheidet sich vom Rekrutierungsprozess für das projektorientierte Unternehmen; In projektorientierten Unternehmen bestehen spezifische Herausforderungen für die Rekrutierung; Die Rekrutierung von Projektmanagern erfolgt anhand eines Prozesses, der beschrieben werden kann durch: Ziele und Organisation, Prozessschritte, Methoden, Hilfsmittel; Für die Rekrutierung von Projektmanagern in projektorientierten Unternehmen bestehen spezifische Methoden, wie z.B. der Aufbau und das Aufrechterhalten eines Netzwerkes an Freelance Projektmanagern. Bei der Rekrutierung von Projektmanagern werden bestimmte Hilfsmittel wie bspw. Anforderungsprofile verwendet. Thesen zur Freistellung von Projektmanagern in projektorientierten Unternehmen. Es gibt spezifische Anlassfälle für die Freistellung von Projektmanagern in projektorientierten Unternehmen. Der Freistellungsprozess von Projektmanagern für ein spezifisches Projekt unterscheidet sich vom Freistellungsprozess für das projektorientierte Unternehmen. In projektorientierten Unternehmen bestehen spezifische Herausforderungen für die Freistellung. Die Freistellung von Projektmanagern erfolgt anhand eines Prozesses, der beschrieben werden kann durch: Ziele und Organisation, Prozessschritte, Methoden, Hilfsmittel. Für die Freistellung von Projektmanagern in projektorientierten Unternehmen bestehen spezifische Methoden; Bei der Freistellung von Projektmanagern werden bestimmte Hilfsmittel verwendet;Inhaltsverzeichnis:Inhaltsverzeichnis: 1.Einleitung4 1.1Problemstellung der Arbeit4 1.2Ziele der Arbeit und grundlegende Thesen4 1.3Forschungsansatz6 1.3.1Erkenntnistheoretisches Paradigma: Radikaler Konstruktivismus6 1.3.2Organisationstheoretisches Paradigma: Sozialwissenschaftliche Systemtheorie9 1.3.3Forschungsmethodologisches Paradigma: Qualitative Sozialforschung11 1.3.4Methoden qualitativer Sozialforschung13 1.4Umsetzung des Forschungsansatzes in dieser Arbeit14 1.4.1Erstellung der Diplomarbeit in projektähnlicher Form15 1.4.2Beschreibung der Forschungsmethodik der vorliegenden Diplomarbeit16 2.projektorientierte Unternehmen18 2.1Projektbegriff18 2.2Management-by-Projects als Organisationsstrategie19 2.3Rolle des Projektmanagers21 2.4Spezifische Herausforderungen für das Personalmanagement in projektorientierten Unternehmen24 3.Geschäftsprozessmanagement31 3.1Prozess31 3.2Geschäftsprozessmanagement32 3.3Ziele und Aufgaben von Geschäftsprozessmanagement34 3.4Beschreibung und Darstellung von Geschäftsprozessen35 3.5Geschäftsprozesse in projektorientierten Unternehmen40 3.5.1Überblick über Geschäftsprozesse in projektorientierten Unternehmen40 3.5.2Rollen und Organisation zur Umsetzung der Prozessorientierung42 3.5.3Kompetenzen43 4.Rekrutierung45 4.1Ziele und Organisation von Rekrutierung45 4.1.1Ziele von Rekrutierung45 4.1.2Organisation von Rekrutierung48 4.2Beschreibung des Rekrutierungsprozesses51 4.3Herausforderungen bei der Rekrutierung54 4.4Methoden der Rekrutierung56 4.4.1Methoden der Personalbeschaffung56 4.4.2Methoden der Personalauswahl60 5.Freistellung64 5.1Ziele und Organisation der Freistellung64 5.2Beschreibung des Personalfreistellungsprozesses66 5.3Herausforderungen bei der Personalfreistellung72 5.4Methoden der Personalfreistellung75 5.4.1Methoden der Personalfreistellung ohne Reduktion des Personalbestandes75 5.4.2Methoden der Personalfreistellung mit Reduktion des Personalbestandes76 6.Rekrutierungsprozess von Projektmanagern in projektorientierten Unternehmen79 6.1Bedeutung des Prozesses Rekrutierung von Projektmanagern79 6.2Anlassfälle für die Rekrutierung von Projektmanagern83 6.3Spezifische Herausforderungen bei der Rekrutierung von Projektmanagern84 6.4Ziele und Organisation der Rekrutierung von Projektmanagern91 6.5Beschreibung des Prozesses Rekrutierung von Projektmanagern93 6.6Methoden für die Rekrutierung von Projektmanagern98 6.7Hilfsmittel für die Rekrutierung von Projektmanagern103 7.Freistellungsprozess von Projektmanagern in projektorientierten Unternehmen106 7.1Bedeutung des Prozesses Freistellung von Projektmanagern106 7.2Anlassfälle für die Freistellung von Projektmanagern106 7.3Spezifische Herausforderungen bei der Freistellung von Projektmanagern109 7.4Ziele und Organisation der Freistellung von Projektmanagern111 7.5Beschreibung des Prozesses Freistellung von Projektmanagern112 7.6Methoden für die Freistellung von Projektmanagern114 7.7Hilfsmittel für die Freistellung von Projektmanagern115 8.Reflexion in der Praxis117 8.1Ziele117 8.2Interviewpartner117 8.3Interviewdurchführung118 8.4Interviewerkenntnisse: Rekrutierung von Projektmanagern in projektorientierten Unternehmen122 8.4.1Anlassfälle für die Rekrutierung von Projektmanagern122 8.4.2Spezifische Herausforderungen bei der Rekrutierung von Projektmanagern125 8.4.3Ziele und Organisation der Rekrutierung von Projektmanagern128 8.4.4Beschreibung des Prozesses: Rekrutierung von Projektmanagern129 8.4.5Methoden für die Rekrutierung von Projektmanagern131 8.4.6Hilfsmittel für die Rekrutierung von Projektmanagern133 8.5Interviewerkenntnisse: Freistellung von Projektmanagern in projektorientierten Unternehmen135 8.5.1Anlassfälle für die Freistellung von Projektmanagern136 8.5.2Spezifische Herausforderungen bei der Freistellung von Projektmanagern138 8.5.3Ziele und Organisation der Freistellung von Projektmanagern138 8.5.4Beschreibung des Prozesses: Freistellung von Projektmanagern141 8.5.5Methoden für die Freistellung von Projektmanagern142 8.5.6Hilfsmittel für die Freistellung von Projektmanagern143 9.Zusammenfassung und Ausblick144 9.1Spezifische Anlässe und Herausforderungen für die Rekrutierung und Freistellung von Projektmanagern in projektorientierten Unternehmen144 9.2Spezifika des Rekrutierungs- und Freistellungsprozesses von Projektmanagern in projektorientierten Unternehmen145 9.3Ansatzpunkte für weiterführende Forschung146 Anhang 1: Gesprächsleitfaden Rekrutierung von Projektmanagern in projektorientierten Unternehmen147 Anhang 2: Gesprächsleitfaden Freistellung von Projektmanagern in projektorientierten Unternehmen150 Darstellungsverzeichnis153 Literaturverzeichnis155Textprobe:Textprobe: Kapitel 4.1, Herausforderungen bei der Rekrutierung: Im Bereich der Rekrutierung gibt es unzählige Herausforderungen auf verschiedenen strategischen und operativen Ebenen mit geographischen Spezifika, die im Rahmen dieser Arbeit nicht vollständig abgedeckt und behandelt werden können. Aus Platzgründen kann an dieser Stelle nur auf aktuelle Kernherausforderungen der Rekrutierung eingegangen werden. The Boston Consulting Group hat in Zusammenarbeit mit der World Federation of Personnel Management Association die Zukunft von Personalmanagement und die Kernherausforderungen in Europa bis zum Jahr 2015 beleuchtet. Dazu wurde eine Umfrage in 83 Ländern durchgeführt, bei der 4.700 Führungskräfte zu 17 Themen aus dem Bereich Personalmanagement befragt wurden, darunter auch zum Thema Rekrutierung. Die Kernherausforderungen in diesem Bereich stehen in engem Zusammenhang mit dem Engpass an qualifizierten Mitarbeitern und sind demnach: Global recruiting: Um einen Engpass an qualifizierten Mitarbeitern zu verhindern, müssen europäische Unternehmen schon jetzt damit beginnen, in neue geographische Regionen vorzustoßen um dort Zugang zu qualifiziertem Personal zu bekommen. Assessment of quantitative and qualitative needs for talent in light of strategic and business requirements: Die Planung des Personalbedarfs, sowohl quantitativ als auch qualitativ, muss unter dem Aspekt der strategischen und unternehmerischen Anforderungen erfolgen. Wenn ein Unternehmen bspw. in neue geographische Regionen expandiert oder sich in einer Phase starken Wachstums befindet, müssen dafür auch die entsprechenden personellen Ressourcen vorhanden sein. Zur Vorausplanung ist es daher notwendig, die entsprechenden Arbeitsmärkte genau zu kennen. Ist absehbar, dass das benötigte Personal nicht in der erforderlichen Quantität, Qualität, Zeit und sinnvollem Aufwand zu beschaffen ist, muss eine unverzügliche Rückkoppelung mit der Unternehmensplanung erfolgen. Identification of best avenues for reaching required employees: Um die für ein Unternehmen spezifisch benötigte Expertise zu erhalten, müssen Unternehmen die entsprechenden Gruppen von Mitarbeitern identifizieren und Wege finden, diese bestmöglich zu erreichen. Ein Unternehmen, das bspw. Mitarbeiter mit Expertise in Informatik sucht, kann an entsprechenden Universitäten rekrutieren und Verbindungen zu professionellen Netzwerken in diesem Bereich aufbauen. Close alignment of value proposition for employees with their desires and the company's brand: Um für die besten Bewerber am Arbeitsmarkt und bestehende Mitarbeiter attraktiv zu sein, muss das Wertversprechen des Arbeitgebers einerseits mit den Anforderungen potentieller und bestehender Mitarbeiter, und andererseits mit der Marke des Unternehmens gut abgestimmt sein. Meet the needs and goals unique to different ethnic groups and nationalities, women, and older workers: Um das verfügbare Angebot von Arbeitskräften bestmöglich auszunützen und aus einem möglichst breiten Pool an qualifizierten Mitarbeitern schöpfen zu können, müssen Unternehmen verstärkt auf verschiedene Gruppen von Mitarbeitern Acht nehmen, wie bspw. verschiedene ethnische Gruppen und Nationalitäten, weibliche Arbeitskräfte und ältere Arbeitnehmer. Um diese Gruppen von Mitarbeitern anzusprechen, müssen entsprechende zielgruppenspezifische Angebote entwickelt und kommuniziert werden. Kapitel 4.2, Methoden der Rekrutierung: Entsprechend der Unterteilung des Rekrutierungsprozesses in Personalbeschaffung und Personalauswahl werden im Folgenden auch die Methoden nach dieser Differenzierung dargestellt. Kapitel 4.2.1, Methoden der Personalbeschaffung: Die Methoden der Personalbeschaffung lassen sich in interne und externe Methoden unterscheiden. Die Beschaffung von Personal innerhalb des Unternehmens gewinnt insgesamt an Bedeutung, da sich diese Methode einerseits positiv auf Karrierewünsche und Mitbestimmungseinflüsse der Mitarbeiter auswirkt, und andererseits der externe Arbeitsmarkt häufig nicht die entsprechenden Mitarbeiter bereithält. In vielen Fällen ist es jedoch notwendig, auf den externen Arbeitsmarkt zurückzugreifen, wenn z.B. die gesuchten Qualifikationen unternehmensintern nicht vorhanden sind oder nicht die benötigte Anzahl an verfügbaren Mitarbeitern vorhanden ist. Für die Auswahl der einzusetzenden Methode sind noch zwei weitere Kriterien von Bedeutung: Einerseits muss ein Zugang zur Zielgruppe gewährleistet sein, und andererseits ist auch die Effektivität der Maßnahmen zu bewerten. Um diese beiden Kriterien in die Auswahl von Methoden der Personalbeschaffung miteinbeziehen zu können ist eine Analyse des relevanten Arbeitsmarktes notwendig, in der geklärt wird, wo potentielle Mitarbeiter anzutreffen sind und wie diese möglichst gezielt angesprochen werden können. Nachfolgend werden die internen und externen Methoden zur Personalbeschaffung im Überblick dargestellt. Interne Methoden: Bei der internen Personalbeschaffung kann zwischen Methoden ohne Personalbewegung und mit Personalbewegung unterschieden werden. Die Personalbeschaffung ohne Personalbewegung umfasst folgende Methoden: Mehrarbeit, Überstunden, Verlängerung der betriebsüblichen Arbeitszeit und Urlaubsverschiebung: Diese Methoden dienen häufig zur Abdeckung eines kurzfristig erhöhten Arbeitsbedarfes, der grundsätzlich mit den vorhandenen Mitarbeitern abgedeckt werden kann. Wird diese Lösung über einen längeren Zeitraum aufrechterhalten, kann sich dadurch eine Überbeanspruchung von Mitarbeitern mit entsprechenden negativen gesundheitlichen und sozialen Folgen ergeben. Qualifizierung der Mitarbeiter: Die Qualifizierung von Mitarbeitern kann als präventive Maßnahme gesehen werden, um die Effektivität und/oder die Effizienz zu erhöhen. Mitarbeiter können dadurch flexibler eingesetzt werden, und es kann mit quantitativ und qualitativ besseren Arbeitsergebnissen der Mitarbeiter gerechnet werden. Einarbeitung und Umschulung: Die planmäßige Einarbeitung bzw. Umschulung von ungelernten Arbeitskräften stellt eine weitere Möglichkeit der internen Personalbeschaffung dar. Die Personalbeschaffung mit Personalbewegung beinhaltet folgende Methoden: Versetzung durch Weisung oder Änderungskündigung: Bei einer horizontalen Versetzung bleibt der Mitarbeiter auf derselben Hierarchiestufe, während bei einer vertikalen Versetzung ein hierarchischer Auf- oder Abstieg erfolgt. Insbesondere bei vertikalen Versetzungen entsteht wiederum eine personelle Lücke an der ursprünglichen Stelle, die nachbesetzt werden muss und gegebenenfalls durch Kettenversetzungen weiter verschoben wird, letzten Endes aber vom externen Arbeitsmarkt nachbesetzt werden muss. Bei der Versetzung sind neben personellen auch rechtliche Aspekte zu beachten. Eine Weisung kann z.B. nur dann erfolgen, wenn dies im jeweiligen Arbeitsvertrag entsprechend vorgesehen ist. Sowohl bei der Weisung als auch bei der Änderungskündigung ist die Zustimmung des Betriebsrates einzuholen. Ausweitung der Arbeitszeit von Teilzeitbeschäftigten: Gibt es in einem Unternehmen teilzeitbeschäftigte Mitarbeiter, so können diese darauf angesprochen werden, ob sie ihre Arbeitszeit ausdehnen möchten. Stellenclearing: Das Stellenclearing ist ein systematischer Informationsaustausch zwischen Führungskräften im Unternehmen und der Personalabteilung, um die interne Besetzung von Stellen zu diskutieren. Diese Methode hat den Vorteil, dass die Führungskräfte die jeweiligen Mitarbeiter kennen und über ihre Qualifikation Bescheid wissen, jedoch kann das Stellenclearing seitens der Mitarbeiter als intransparent erlebt werden und es können abteilungspolitische Interessen mit einfließen. Innerbetriebliche Stellenausschreibung: Diese Methode dient dazu, bestehende Mitarbeiter über zu besetzende Stellen im Unternehmen zu informieren und die Chancengleichheit auf dem innerbetrieblichen Arbeitsmarkt sicherzustellen. Der Betriebsrat kann zwar eine innerbetriebliche Stellenausschreibung verlangen, der Arbeitgeber ist jedoch nicht dazu verpflichtet, innerbetriebliche Bewerber vorrangig zu behandeln. Personalentwicklung: Die Personalentwicklung kann dazu dienen, Versetzungen zu unterstützen. Kurzfristig kann die Personalentwicklung zur Unterstützung bei der Einarbeitung an einem neuen Arbeitsplatz eingesetzt werden; mittel- und langfristig sichert eine systematische Personalentwicklung zumindest einen Teil des zukünftigen Bedarfs an qualifizierten Mitarbeitern. Externe Methoden: Bei der externen Personalbeschaffung kann wiederum zwischen passiver und aktiver Personalbeschaffung unterschieden werden. Bei der passiven Personalbeschaffung wird das Unternehmen selbst nicht aktiv. Diese Methode wird vor allem dann in Anspruch genommen werden, wenn eine hohe Arbeitslosigkeit und geringer, nicht dringlicher Personalbedarf besteht. Methoden der passiven Personalbeschaffung sind: Arbeitsmarktservice (Österreich), Bundesagentur für Arbeit (Deutschland), Regionales Arbeitsvermittlungszentrum (Schweiz): Diese Einrichtungen erbringen sowohl für Arbeitnehmer als auch Arbeitgeber vielfältige Dienstleistungen am Arbeitsmarkt. Der Fokus ihrer Arbeit liegt dabei auf der Arbeitsvermittlung. Eigenbewerbung (Blind- bzw. Initiativbewerbung): Bei der Eigenbewerbung kontaktiert ein Bewerber ein Unternehmen aus eigener Initiative. Ausgelöst werden Eigenbewerbungen häufig durch Maßnahmen wie Rekrutierungsveranstaltungen an Universitäten oder durch vorangegangene Öffentlichkeitsarbeit. Bewerberkartei: Die Bewerberkartei enthält Informationen über Bewerber, die sich bereits beim Unternehmen beworben haben und die für das Unternehmen zwar interessant waren, zum Zeitpunkt der ursprünglichen Bewerbung jedoch nicht berücksichtigt werden konnten. Auf diese Informationen kann zwar schnell zugegriffen werden, jedoch ist bei Bewerbern an der Position oftmals kein Interesse mehr vorhanden, wenn diese in der Zwischenzeit schon andere berufliche Entscheidungen getroffen haben. Die aktive Personalbeschaffung eignet sich vor allem bei einer angespannten Arbeitsmarktlage und wenn ein dringlicher und/oder größerer Personalbedarf gegeben ist. Methoden der aktiven Personalbeschaffung sind: Stellenanzeige: Die Stellenanzeige stellt nach wie vor die Hauptinformationsquelle bei der Arbeitssuche dar, auch wenn sich deutliche Verschiebung von Printmedien hin zu Stellenanzeigen im Internet abzeichnet. Die Entscheidung in welchem Medium inseriert wird muss unter Bedachtnahme darauf getroffen werden, welche Medien von der anvisierten Zielgruppe konsumiert werden. Nutzung neuer Kommunikationsmittel (Internet, etc.): Neben Stellenanzeigen im Internet hat sich vor allem auch die Website von Unternehmen als Methode zur Personalbeschaffung etabliert. Vorteile bestehen darin, dass diese Methode kostengünstig umzusetzen ist und bereits eine Selbstselektion der Bewerber stattfindet, jedoch sind in der Regel zuvor umfangreiche Maßnahmen der Öffentlichkeitsarbeit notwendig. Persönliche Ansprache von potentiellen Mitarbeitern: Sind dem Unternehmen potentielle Mitarbeiter über diverse Informationskanäle bekannt (Jobmessen, Empfehlungen eigener Mitarbeiter, Empfehlungen über soziale Netzwerke, etc.), so können diese direkt auf kostengünstigem Wege angesprochen werden. Jobmessen bzw. Rekrutierung an Universitäten: Der enge Kontakt von Unternehmen zu Universitäten ist im angloamerikanischen Raum bereits seit vielen Jahrzehnten üblich, und gewinnt nun auch im deutschsprachigen Raum stark an Bedeutung. Bei Jobmessen oder sonstigen Veranstaltungen zur Rekrutierung an Universitäten (Unternehmenspräsentationen, Workshops, Planspiele, etc.) können sehr viele Studenten spezifisch nach Fachrichtung erreicht werden. Diese Methode ermöglicht potentiellen Bewerbern gleichzeitig, in direkten Kontakt mit dem Unternehmen zu treten und schon vorab durch gezielte Fragen zusätzliche Informationen zu erhalten. Scouting: Eine neuartige Methode zur Personalbeschaffung ist das Scouting, das häufig für die Gewinnung von High Potentials eingesetzt wird. Dabei geht es um die frühzeitige Ansprache und Bindung von Berufseinsteigern, indem auf Herausforderung, Aktivierung, Neugier und Spieltrieb im Umgang mit potentiellen Bewerbern gesetzt wird (bspw. im Rahmen von Planspielen mit zusätzlichem Rahmenprogramm). Personalberater: Häufig werden Personalberater für die Gewinnung von Führungskräften höherer Hierarchieebenen eingesetzt. Durch die Spezialisierung der Personalberater wird das Risiko einer kostspieligen Fehleinstellung deutlich reduziert, was die hohen Beraterhonorare rechtfertigen kann. Personalleasing: Das Personalleasing wird insbesondere bei kurzfristigem Personalbedarf genutzt. Eine Besonderheit besteht darin, dass das Unternehmen in einer vertraglichen Beziehung mit der Personalleasingfirma tritt, die einen Mitarbeiter für einen bestimmten oder unbestimmten Zeitraum zur Verfügung stellt. Ein wesentlicher Vorteil dieser Methode liegt in der hohen Flexibilität durch die Möglichkeit einer raschen Beschaffung sowie raschen Freisetzung der Arbeitskräfte über Personalleasing, jedoch sind diese Mitarbeiter häufig schlecht in das Unternehmen integriert und weisen oftmals eine mangelnde Loyalität gegenüber dem Unternehmen auf. Anwerbung durch Betriebsangehörige: In den USA spielt diese Methode eine wichtige Rolle. Offene Stellen werden dabei an die Mitarbeiter im Unternehmen kommuniziert, die diese wiederum in ihrem Bekanntenkreis weiterverbreiten können. In Abhängigkeit von der zu besetzenden Stelle werden häufig auch Prämien dafür bezahlt, wenn vorgeschlagene Mitarbeiter den Rekrutierungsprozess erfolgreich durchlaufen und vom Unternehmen tatsächlich eingestellt werden. Öffentlichkeitsarbeit: Die Öffentlichkeitsarbeit dient in erster Linie der Unterstützung von aktiven und passiven Personalbeschaffungsmaßnahmen und ist eine Kombination von Personal- und Imagewerbung. Mögliche Maßnahmen sind Betriebsbesichtigungen, Tag der offenen Tür, Werbung in diversen Medien etc. Kapitel 4.2.2, Methoden der Personalauswahl: Im Anschluss an die Personalbeschaffung folgt die Personalauswahl. Anhand der festgelegten Anforderungen an die Qualifikation werden typischerweise in einem nächsten Schritt die Bewerbungsunterlagen analysiert und bewertet, wodurch eine (Vor-)Selektierung der Bewerber stattfindet. Erst im Anschluss kommen die Methoden der Personalauswahl zum Einsatz, auf deren Basis die Auswahlentscheidung getroffen wird, bevor ein Mitarbeiter in das Unternehmen eintritt (siehe Darstellung 20). Bei der Auswahl von Methoden der Personalauswahl ist darauf zu achten, ob das Auswahlverfahren auch tatsächlich die Eignung des Bewerbers vorhersagen kann. Das wichtigste Kriterium zur Messung der Qualität von Auswahlverfahren ist die prognostische Validität, die zwischen 0 und 1 liegen kann. Ein Wert von 0 bedeutet, dass die Methode die spätere Eignung am Arbeitsplatz überhaupt nicht vorhersagen kann, ein Wert von 1 hingegen bedeutet, dass das Ergebnis des Auswahlverfahrens mit der späteren Arbeitsleistung vollkommen übereinstimmt. In der Praxis wird ein Wert von 0,3 bereits als ein guter Wert mit hoher Validität gesehen (siehe Darstellung 21). Neben der prognostischen Validität müssen bei der Auswahl einer Methode für die Personalauswahl einerseits auch rechtliche Aspekte, und andererseits die Akzeptanz der Methode aus Sicht der Bewerber miteinbezogen werden. Zur Vorselektion von Bewerbern werden zumeist die Bewerbungsunterlagen analysiert und bewertet. Unter Bewerbungsunterlagen werden folgende Unterlagen zusammengefasst, wobei nicht immer alle Unterlagen angefordert werden: Das Bewerbungsschreiben (Anschreiben), Schulzeugnisse, Arbeitszeugnisse, Lebenslauf, Bewerberfoto, Arbeitsproben, Referenzen, Personalfragebögen, und Graphologisches Gutachten. Nach der Analyse und Bewertung der Bewerbungsunterlagen werden die verbleibenden Bewerber meist zu einem Bewerbungsgespräch eingeladen und ggf. weitere Auswahlmethoden angewandt. Die Methoden der Personalauswahl umfassen: Bewerbungsgespräch: Das Bewerbungsgespräch vermittelt dem Unternehmen persönliche Eindrücke und Informationen, die über die Bewerbungsunterlagen hinausgehen. Gleichzeitig hat der Bewerber die Möglichkeit, sich persönlich ein Bild vom Unternehmen zu machen und Antworten auf seine spezifischen Fragen zu erhalten. Tests: Um bei der Auswahlentscheidung für einen neuen Mitarbeiter die Entscheidungssicherheit zusätzlich zu erhöhen, werden häufig weitere Tests durchgeführt, wie bspw. Intelligenztests, Leistungstests, Konzentrationstests und Persönlichkeitstests. Biographischer Fragebogen: Der biographische Fragebogen wird häufig bei größeren Bewerberzahlen eingesetzt. Der Grundgedanke besteht darin, auf Basis des Verhaltens in der Vergangenheit auf das zukünftige Verhalten des Bewerbers zu schließen. Dazu muss vom Bewerber ein Fragebogen ausgefüllt werden, der spezifisch für eine Position erstellt wird. Die Antworten des Bewerbers werden mit den Antworten eines erfolgreichen Mitarbeiters in der entsprechenden Position verglichen und sollten auf diesem Weg Aufschluss über die Eignung des Bewerbers geben. Assessment Center: Wie in Darstellung 21 ersichtlich, stellt das Assessment Center eines der aussagekräftigsten Auswahlverfahren dar. Charakteristisch für ein Assessment Center ist, dass mehrere Bewerber gleichzeitig von geschulten Beurteilern in verschiedenen Beurteilungssituationen über einen längeren Zeitraum beurteilt werden. Je nach der zu besetzenden Stelle können dabei verschiedene, auch praxisnahe Übungen durchgeführt werden, um Bewerber zu beurteilen.
In dieser Arbeit wird die Entwicklung eines bifunktionellen Biosensors nach dem Vorbild eines Baukastensystems beschrieben. Das Ziel wird durch die Kombination verschiedenster molekularer Erkennungselemente erreicht. Solche molekularen Erkennungselemente im verwendeten System sind: • Propidium und die periphere anionische Bindungsstelle der Acetylcholinesterase (AChE) • Organophosphate und das aktive Zentrum der AChE • ein an die AChE gekoppeltes Hapten und das Epitop eines Antikörpers • ein an die AChE gekoppeltes Hapten, das als Ligand ein weiteres Enzym bindet Neben dem molekularen Erkennungselement wird ein Biosensor ebenso durch die Art des Transducers charakterisiert. Hier werden Quarzplättchen mit Goldelektroden zur Signalumwandlung eingesetzt. Die Verwendung solcher Sensoren mit einem EQCM-Gerät (electrochemical quartz crystal microbalance) ermöglicht es zwei Messsignale gleichzeitig aufzunehmen: die piezoelektrische Bestimmung einer Massebeladung und die amperometrische Detektion von Enzymaktivität auf der Sensoroberfläche. Für die Analytik stehen somit zwei verschiedene Assay-Varianten zur Verfügung: die Bestimmung der Inhibition der ACHE-Aktivität und ein Bindungstest über das Hapten. Die Basis beider Tests ist die Modifizierung der piezoelektrischen Kristalle mit Propidium – einem reversiblen Inhibitor der Acetylcholinesterase. Dies ermöglicht die Beladung des Sensors mit AChE über die Wechselwirkung mit der peripheren anionischen Bindungsstelle des Enzyms. Die Aktivität der so immobilisierten AChE und die Inhibition durch Organophosphate (Pestizide) werden amperometrisch bestimmt. Durch die chemische Kopplung eines Hapten an die Cholinesterase wird ein weiteres Erkennungselement eingeführt. Das eröffnet die Möglichkeit, an die auf dem Propidium-modifizierten Sensor immobilisierte, haptenisierte Cholinesterase einen Antikörper zu binden. Als Voraussetzung für elektrochemische Bestimmung der AChE-Aktivität wurde zunächst die Optimierung der amperometrischen Messmethode vorgenommen. Die Oxidatationspotentiale für die Detektion von Thiocholin wurden im Bereich von 150 mV bis 300 mV variiert. Dabei wurde für die nachfolgenden Untersuchungen eine Arbeitspotential von 200 mV (vs. Ag/AgCl) festgelegt, da hier das beste Verhältnis von gemessenem Oxidationsstrom und Langzeitstabilität der Propidium-modifizierten Sensoren erzielt wurde. Dieses Potential war deutlich geringer als die bisher publizierten Mediator-freien AChE-Biosensoren. Es wurde ein Vergleich verschiedener Organophosphate über ihre Inhibitionskonstanten durchgeführt, um diejenigen herauszufinden, die möglichst schnell mit dem aktiven Zentrum der Acetylcholinesterase reagieren. Das verwendete Messsystem beruht nicht auf der Vorinkubation der AChE und damit einer Einstellung des Inhibitionsgleichgewichts. Stattdessen wurde die Inhibition der AChE direkt im Fließsystem verfolgt. Daher war eine schnelle Inhibitionskinetik für einen empfindlichen Organophosphat-Nachweis erforderlich. Da einige Inhibitoren nur als Phosphothionat vorlagen, wurde die Überführung dieser Substanzen in die entsprechenden Oxo-Formen mittels N-Bromsuccinimid untersucht. Die NBS-Aktivierung wurde erfolgreich durchgeführt, die erwartete Inhibitionsstärke konnte jedoch aufgrund hydrolytischer Vorgänge nicht erreicht werden. Untersuchungen mit Diisopropylfluorophosphat (DFP) und Chlorpyriphos-oxon (CPO) konnten die Voruntersuchungen über die Inhibitionskinetik in Bezug auf die erreichten Nachweisgrenzen von 2E-06 M für DFP und 5E-08 M für CPO bestätigen. Für die chemische Modifizierung der Acetylcholinesterase wurde zunächst 2,4-Dichlorphenoxyessigsäure (2,4-D) als Hapten ausgewählt. 2,4-D wird als Herbizid eingesetzt und in der EU über die Gewässerschutzrichtlinie reguliert. 2,4-D konnte in unterschiedlichen molaren Verhältnissen von 2,6 : 1 bis 260 : 1 (2,4-D : AChE) nach Aktivierung mit einem Norbornendicarboximido-Derivat an die AChE gekoppelt werden. Dabei konnte die spezifische Aktivität der Acetylcholinesterase erhalten und die Bindung eines anti-2,4-D-Antikörpers ermöglicht werden. Zur Verstärkung des piezolelektrischen Signals der Antikörperbindung wurden die Immunoglobuline zunächst an Goldnanopartikel gekoppelt. Damit konnte eine Verstärkung um den Faktor 10 erreicht werden. Allerdings waren die Antikörper-modifizierten Goldnanopartikel nicht langzeitstabil. Daher wurden auch Silica-Nanopartikel als Matrix für die Antikörperkopplung getestet. Mit diesem System konnte eine Verstärkung um den Faktor von 5 bis 13 je nach Grad der Beladung den Nanopartikel mit Antikörper bestimmt werden. Die hohe unspezifische Bindung der Antikörper-Nanopartikel-Konjugate an den Propidium-modifizierten QCM-Sensor konnte keinen empfindlichen 2,4-D-Nachweis ermöglichen. Als Alternative wurde Kokain (Benzoylecgonin, BZE) als Hapten an die Aceytlcholinesterase gekoppelt. Da Kokain selbst auch als Inhibitor im aktiven Zentrum der AChE binden kann, wurden zwei verschiedene Strategien zur Konjugatsynthese verfolgt. Durch Zugabe von Kokain während der Kopplung sollte die kovalente Fixierung des Kokain-Derivats BZE-DADOO im aktiven Zentrum verhindert werden (Konjugat B). In der Tat konnten mit dieser Synthesestrategie 67% der spezifischen Cholinesterase-Aktivität erhalten werden, während im Kokain-freien Ansatz (Konjugat A) nur 2% der Ausgangsaktivität wiedergefunden wurden. Das BZE-AChE-Konjugat ermöglichte auch die Untersuchung der Bindungskinetik der anti-BZE-Antikörper. Dabei konnte eine Assoziationsgeschwindigkeitskonstante ka von 12911 l/(mol•s) berechnet werden. Dieser Wert ist trotz der vergleichsweise geringen Oberflächenbeladung vergleichbar mit den in der Literatur angegebenen Werten. Die Dissoziationsgeschwindigkeitskonstante ist mit 2,89E−3 1/s um den Faktor 30 höher als der Literaturwert. Diese Abweichung ist auf Unterschiede im Bindungsmodell zurückzuführen. Mit beiden BZE-AChE-Konjugaten konnte ein kompetetiver Immunoassay mit Kokain im Fließsystem durchgeführt werden. Dabei zeigte sich für beide Konjugate ein ähnlicher Testmittelpunkt: IC50 = 4,40E−8 mol/l für Konjugat A bzw. IC50 = 1,77E−8 mol/l für Konjugat B. Diese Werte sind vergleichbar zu bereits publizierten Kokainassays im Fließsystem. Wie vorstehend beschrieben, bindet Kokain als Inhibitor auch im aktiven Zentrum von Cholinesterasen. Diese Eigenschaft wurde genutzt, um ein zweites Enzym – Butyrylcholinesterase (BChE) – an die BZE-AChE zu binden. Die Spezifität dieser Bindung konnte durch die Abwesenheit einer Affinität der BChE zum Propidium und durch die Blockierbarkeit der Bindung von BChE und BZE-AChE durch Kokain nachgewiesen werden. Damit konnte erfolgreich die Kombination mehrere molekularer Erkennungselemente demonstriert werden. Die Propidium-Plattform ermöglicht den Aufbau einer Architektur aus verschiedenen Cholinesterasen, die über unterschiedliche Bindungsstellen wechselwirken. Sowohl freie als auch BZE-modifizierte AChE können über die Affinität zum Propidium auf dem EQCM-Sensor immobilisiert werden. Mit Kokain als Substrat der Butyrylcholinesterase kann Benzoylecgonin nicht nur als Epitop für die Bindung eines Antikörpers, sondern auch als Erkennungselement für die BChE genutzt werden. Auf der anderen Seite erschwert die geringe Affinität der BChE im Gegensatz zum anti-BZE-Antikörper den Einsatz dieses Systems für analytische Zwecke. Durch die Verwendung anderer Ligand-Enzym-Kombinationen läßt sich das in dieser Arbeit vorgestellte Konzept noch weiter ausbauen und ermöglicht damit eine Entwicklung ausgehend von "einfachen" molekularen Erkennungselementen (MRE) hin zu "multifunktionellen" Erkennungselementsystemen. In dieser Arbeit konnte demonstriert werden, dass der Aufbau solch komplexe Systeme möglich ist, ohne Abstriche in Bezug auf die Empfindlichkeit der einzelnen Assays hinzunehmen. ; This work describes the development of a bifunctional biosensor following a modular assembly approach. This aim is reached through the combination of various molecular recognition elements. The system presented herein uses the following recognition elements: • propidium and the peripheral anionic site of the acetylcholinesterase (AChE) • an organophosphate and the active site of the AChE • a hapten – covalently coupled to the AChE – and the epitope of an antibody • a hapten – covalently coupled to the AChE – binding as a ligand to another enzyme A biosensor is not only characterized by the molecular recognition element, but also by the type of signal transducer. This work is based on an electrochemical quartz crystal microbalance (EQCM) device that uses gold-plated quartz sensors for the signal transduction. This allows monitoring two distinct signals at the same time: the piezoelectric determination of a mass loading and the amperometrical detection of enzymatic activity on the sensor surface. Thus two different assay systems are provided: the determination of the inhibition of the AChE activity and ligand binding assay via the hapten. Both tests are based on the modification of the piezoelectric crystals with propidium – a reversible AChE inhibitor. This allows the deposition of AChE on the sensor surface via the interaction with the enzyme's peripheral anionic site. The enzymatic activity of the in-situ immobilized AChE and the inhibition by organophosphates (pesticides) are measured amperometrically. Another recognition element is introduced by the chemical coupling of a hapten to the cholinesterase. This provides the opportunity bind an antibody to the haptenized cholinesterase that is immobilized on the propidium-modified sensor. Preliminary experiments were focussed on the improvement of the amperometric determination the AChE activity. The applied potential for the oxidation of thiocholine was changed over a range from 150 to 300 mV. The best results for the measured oxidation current and the long-term stability of the propidium-modified sensors were obtained at 200 mV (vs. Ag/AgCl). This potential was used throughout all subsequent experiments. This potential was also found to be lower as compared to mediator-free AChE-biosensors published hitherto. Different organophosphates were evaluated with regard to their inhibition constants to find those which react with active site of the acetylcholinesterase as fast as possible. The assay format used herein monitors the inhibition of the AChE directly in the flow-system. That is, it is not based preincubation of the enzyme with the inhibitor and therefore no inhibition equilibrium is reached. This approach requires fast inhibition kinetics in order to detect the organophosphates highly sensitively. Some of the inhibitors were only available in the phosphothionate form. Thus was necessary to convert these compounds to their respective oxon-forms by N-bromosuccinimide (NBS). The NBS-activation was performed successfully, though the expected inhibition potential could not be reached due to hydrolytic processes. Experiments with diisopropylfluorophosphate (DFP) und chlorpyriphos-oxon (CPO) could confirm the previous experiments on the inhibtion kinetics. Lower limits of detection of 2E-06 M for DFP and 5E-08 M for CPO could be reached with this approach. Initially 2,4-dichlorphenoxyacetic acid (2,4-D) was chosen as a hapten for the chemical modification of the acetylcholinesterase. The use of 2,4-D as a herbicide is regulated by the water protection directive of the European Union. 2,4-D was coupled to AChE in different molar ratios from 2,6 : 1 to 260 : 1 (2,4-D : AChE) after activation with a norbornendicarboximido derivative. The chosen coupling method allowed to recover the complete specific activity of the acetylcholinesterase and to bind a specific anti-2,4-D-antibody. Furthermore, the coupling of the immunoglobulins to gold nanoparticles was tested to enhance the piezoelectric signal of the antibody binding. An amplification factor of 10 was reached with this system. However the antibody-coated gold nanoparticles show a very poor long-term stability. Therefore also silica nanoparticles were tested as a matrix for the coupling of the antibodies. This approach yielded an amplification factor from 5 to 13 depending amount of antibodies bound to the nanoparticles. Unfortunately the high non-specific binding of the antibody nanoparticle conjugates did not allow a sensitive 2,4-D detection assay. Cocaine (benzoylecgonine, BZE) was coupled as a hapten to Acetylcholinesterase in an alternative approach. Two different strategies for the synthesis of the conjugate were pursued, since cocaine can bind also bind as an inhibitor for the AChE's active site. The addition of excess cocaine during the coupling reaction should the covalent binding of the cocaine derivative BZE-DADOO at the active site (conjugate B). Indeed over two thirds of the original specific cholinesterase activity could be recovered with this strategy, while the cocaine-free batch (conjugate A) showed only 2% of the original activity. Furthermore the BZE-AChE conjugate allowed the evaluation of the binding kinetics of the anti-BZE-antibody. The association rate constant ka was calculated to 12911 l/(mol•s). Despite the low surface coverage this value is still comparable to other published results. The dissociation rate constant kd of 2,89E−3 1/s is thirty times higher than values found in the literature. This deviation is due to differences in the applied binding model. Both BZE-AChE conjugates could be applied in a competitive immunoassay for cocaine in the flow system. It was shown that for both conjugates a similar half maximal inhibitory concentration was reached: : IC50 = 4,40E−8 mol/l for conjugate A and IC50 = 1,77E−8 mol/l for conjugate B, respectively. These values are comparable to other published assay for cocaine in a flow system. As described earlier, cocaine is also able to bind to the active site of cholinesterases. This feature was used to examine the interaction of a second enzyme – butyrylcholinesterase (BChE) – with the BZE-AChE. Evidence for the specificity of this interaction was provided by two further experiments, i.e. BChE has no affinity towards Propidium and the binding of BChE towards BZE-AChE could be blocked by excess cocaine. Thus the successful integration of recognition elements on the molecular level could be demonstrated. The propidium-modifies sensor allowed the construction of a scaffold of cholinesterases that interact via different recognition sites. Unmodified and BZE-coupled AChE can be immobilized on the EQCM-sensor via the interaction with propidium. With cocaine being a substrate BChE this compound cannot only be used to capture anti-BZE-antibodies, but also as a recognition element for BChE. The affinity of the BChE towards is relatively low as compared to the antibody's binding strength, thus making it difficult to employ this system for analytical purposes. Still the concept presented herein can be extended by other ligand-enzyme-combinations. On the basis of "simple" molecular recognition elements this enables the development of "multifunctional" recognition element systems. This work could show that the construction of such complex systems is possible without cutting back with regard to the sensitivity of the individual assays.
Wäre die Gegenwart eine andere, hätte im Mai 2020 die achte Ausgabe der Konferenz "Theater und Netz", einer Initiative von nachtkritik.de und der Heinrich-Böll-Stiftung, stattgefunden. Stattdessen ergab sich für Theaterschaffende, Kritiker*innen und Publikum reichlich Gelegenheit, das Verhältnis von Theater und Netz in actu auszuloten: Durch die Ausgangsbeschränkungen befeuert, verlagerte sich das Theatergeschehen in die digitale Experimentierstube. Im Oktober erschien nun der Band Netztheater, der in 21 Beiträgen die Erfahrungen der vergangenen sechs Monate reflektiert –fundiert durch die Expertise der im Format "Theater und Netz" seit 2013 geleisteten Pionierarbeit. Die Kürze der zwei- bis siebenseitigen Beiträge, gepaart mit der Erfahrungsdiversität aus Herstellung, Rezeption und wissenschaftlicher Auseinandersetzung, hat entscheidende Vorteile: Hier wird nicht lange umständlich unter Ausrufung irgendeines "Post-" herumgeredet oder die beliebte Formel strapaziert, Theater müsse "neu gedacht" werden. Die Beitragenden verbindet die gemeinsame Sache und so kommen sie rasch zum Punkt. Als Hybrid aus theoretischen Positionen und reflektierender Praxis bündelt die Publikation praktisch verwertbares und weiterentwickelbares Wissen kompakt und beinahe in Echtzeit. Daher verhandelt diese Rezension die Beiträge nicht chronologisch, sondern führt einander ergänzende Perspektiven zu zentralen Aspekten wie Dramaturgie, Community, Interaktion etc. kommentierend zusammen: Der Band eröffnet mit einem Praxisbericht des geglückten Burgtheater-on-Twitter-Experiments #vorstellungsänderung, das tausende Mittweeter*innen auch abseits des Abopublikums rekrutierte. Projekte wie dieses geben Hoffnung, dass die Theater, die sich im Netz oft als singuläre kulturelle Leuchttürme gebärden, durchaus von den Praktiken der Sozialen Medien profitieren können: Like, share, comment, retweet sind schließlich nichts anderes als digitale Kürzel für gemeinschaftsstiftende Interaktionen, basierend auf Emotion, Zuspruch, Diskussion und Multiplikation. Vielleicht sind in Zukunft ja auch vermehrt offen und öffentlich geführte Dialoge zwischen Theaterhäusern zu erwarten? Netztheater geht davon aus, dass die Suche nach digitalen künstlerischen Ausdrucksformen sich nicht erst daraus ergibt, dass Hygieneregeln und Distanzierungsvorgaben die Modi des Zuschauens kurzfristig verändert haben. Auch tradierte Annahmen über das Publikum sind zu überprüfen. In ihrem kollaborativen Text "Das Theater der Digital Natives" beobachten Irina-Simona Barca, Katja Grawinkel-Claassen und Kathrin Tiedemann, dass die Digitalisierung längst "in Form von Alltagstätigkeiten und Wahrnehmungsweisen" (S.16) im Theater angekommen sei. Das Theater ist kein geschützter Ort, an dem die Zeit stehen geblieben ist. Vielmehr tragen die Zuschauer*innen die Welt, in der sie leben, unweigerlich in ihn hinein. Das betrifft auch Praktiken des Multitaskings bzw. des 'Second Screen', also die Gleichzeitigkeit mehrerer Interfaces und Informationsquellen. Jahrhundertelang war der zentralperspektivische Blick der Barockbühne prägend für die Organisation einer exklusiven Aufmerksamkeit im Theater. Wiewohl es also eine neue Erfahrung für die Theaterhäuser ist, "Nebenbeimedium zu sein" (S. 20), wie Judith Ackermann betont, ist es höchste Zeit, diese 'verstreute' Aufmerksamkeit im Inszenierungsprozess aktiv mitzudenken und gezielt einzusetzen. Dabei ist die Diversität des Publikums inklusive der unterschiedlich ausgeprägten Media Literacy zu beachten, denn nicht alle Zuschauer*innen werden sich augenblicklich z. B. in einer gamifizierten virtuellen Umgebung zurechtfinden: "Indem ich im digitalen Raum Zusatzinformationen – Hintergrundinfos zum Stück, zur Produktion – zu meinen Inszenierungen streue, kann ich zum Beispiel auch dem 'analogen Publikum' einen Mehrwert bieten, der es aber nicht verschreckt." (S. 22) Für eine Dramaturgie des Digitalen ist Aristoteles allenfalls partiell ein guter Ratgeber. Zu viele Komponenten sind neben 'der Story an sich' an der Architektur der Erzählung beteiligt. Einige Elemente des 'klassischen' Storytellings lassen sich psychologisch für den digitalen Raum begründen: Das Überschreiten der 'Schwelle' etwa wird als zentraler Moment markiert, zumal die Spielregeln für das Dahinterliegende noch nicht festgelegt sind – die Verständigung auf "Floskeln, Rollen und Situationen" (S. 71) hat erst zu erfolgen. Friedrich Kirschner, Professor für digitale Medien an der Ernst Busch Berlin, schlägt vor, die zur Vermittlung von "Rollen- und Erlebnissicherheit" (ebd.) dringend nötigen Ausverhandlungsprozesse im Rahmen der jeweiligen Inszenierung ästhetisch zu gestalten. Dabei setzt er auf ein Miteinander, "das im Gegensatz zu den treibenden Kräften der Plattformhalter auf Erkenntnis gerichtet ist; das Handlungsfähigkeit vermittelt anstelle von Determinismus" (S. 73). In diesem Sinne schlägt Ackermann überdies vor, "modular" zu denken, also "leichte Ein- und Ausstiegsmöglichkeiten" zu schaffen, "indem man immer wieder die Möglichkeit gibt dazuzustoßen" (S. 21). Wiederholt wird das Serielle als Chance für neue Theaterformen ausgewiesen, beispielsweise um "durch gemeinsames, geteiltes Wissen über einen langen Zeitraum […] eine Beziehung zu Figuren auf[zu]bauen, sie mit der eigenen Lebensrealität ab[zu]gleichen und mit Freund/innen [zu] diskutieren" (S. 72), wie Kirschner in "Teilhabe als Notwendigkeit: Theater als Raum pluraler Gemeinschaften" schreibt. Um diese Gemeinschaftsbildung ist es auch Christiane Hütter zu tun: Die Community ist das Herzstück des Theaters, weshalb die künstlerische Energie aktuell vor allem darauf zu verwenden sei, "dass Leute wiederkommen, dass sich Routinen und Rituale entwickeln, dass serielle Formate entstehen" (S. 45). Diese Community aufzubauen, "das ist ein Handwerk, das eine Strategie, Zeit und Inhalte benötigt" (S. 30), weiß auch Christian Römer, Referent für Kulturpolitik und Neue Medien der Heinrich-Böll-Stiftung, in seinem Plädoyer "Für ein Theater @home!". Essentieller Bestandteil dieser Strategie, die vorerst noch strategisch auf eine Gemeinschaft "vor der Bezahlschranke" setzen müsse, sei die "Arbeit an der eigenen Identität als Theater im Netz" (ebd.). "Ein Schaufenster in die eigene Vergangenheit stärkt die Bindung des Publikums an 'sein' Theater." (S. 29) Man möchte hinzufügen, dass die "Verbindung zur [eigenen] Geschichte" (ebd.) auch nach Innen identitäts- und strukturbildend wirken und so womöglich die ein oder andere Erschütterung abfangen kann, die die Theaterschaffenden gegenwärtig persönlich und als Gemeinschaft erleben. Wie zugkräftig Selbstmarketing bzw. 'Branding' in Sachen Follower*innenschaft ist, lässt sich beispielsweise bei erfolgreichen Influencer*innen beobachten. Der Dramatiker und Dramaturg Konstantin Küspert zeigt in "Sozialmediale Theaterräume: Die performative Parallelwelt von TikTok" überaus schlüssig auf, welche "Grundelemente theatraler Praxis" in Social-Media-Formaten zu finden sind: "TikToks müssen, um erfolgreich zu sein, praktisch immer eine Pointe haben, meistens überraschend und lustig, und damit grundsätzliche Elemente einer Narration – teilweise regelrechte Fünf-Akt-Strukturen oder Rekontextualisierungen im Miniformat – nachbauen." (S. 26) Auffällig sind auch Praktiken des Samplings, wie sie schon in Hans-Thies Lehmanns Postdramatische[m] Theater, das jüngst seinen zwanzigsten Geburtstag feierte, zu finden sind: Denn auch bei TikToks wird "reinszeniert, kontextualisiert und koproduziert" (ebd.). Aber manchmal ist es gerade das Ähnliche, das trennt. Man stelle sich etwa einen Burgschauspieler auf der Bühne eines Kölner Karnevalsvereines vor. So verlockend wasserdicht die von Küspert angestrengte Gleichung auch anmutet, lässt sich eigentlich nur in der konkreten Anwendung überprüfen, "was vom eigenen Formenrepertoire übersetzbar ist" (S. 84). Der schmerzliche Verlust öffentlicher Orte, zu denen auch das Theater als Raum der gesellschaftlichen Verständigung gehört, zieht sich leitmotivisch durch die Texte des Sammelbandes. "Die Corona-Krise ist eine Krise der Versammlung" (S. 35), bringt Dramaturg Cornelius Puschke diesen Umstand zu Beginn seines "Plädoyer[s] für 1000 neue Theater" auf den Punkt. Dass es sehr wohl auch im Internet Formen von Gemeinschaftsbildung gibt, die sich auf dezentrale Weise organisieren, beobachtet Christiane Hütter mit kritischem Interesse: "QAnon und Konsorten glänzen mit orchestriertem Storytelling, outgesourced an viele, mit einem übergeordneten World-building-Framework, das Inkonsistenzen erlaubt" (S. 41). Eine Aufgabe des Theaters könnte es sein, positive Gegenangebote zu entwerfen, die dieser Sehnsucht nach Gemeinschaft, Austausch und gemeinsamer Erzählung entsprechen. Wie aber können solche Dialog und Austausch befördernden Formate aussehen? Die interdisziplinäre Künstlerin und Game Designerin Christiane Hütter, aus deren Feder insgesamt drei Texte des Bandes und zwei Interviews stammen, entwirft zu diesem Zweck eine "Typologie von Interaktion, Kollaboration und Partizipation" in übersichtlich tabellarischer Form, denn häufig enttäuschten 'interaktive Stücke' durch "Pseudo-Interaktions-Möglichkeiten" oder "asymmetrische Interaktion" (S. 44). Angesichts der pandemiebedingten Einschnitte in die Möglichkeit, durch Handlungen 'stattzufinden', ist es eine der wichtigsten Herausforderungen an Inszenierungsprozesse, die Agency der Zuschauer*innen sinnvoll zu integrieren. Die Nachtkritikerin Esther Slevogt plädiert explizit dafür, die Webseiten der Theater als "Portale in den digitalen Raum" und "Interfaces" (S. 109) zu behandeln. Diese verstehen sich gegenwärtig eher als Sende- denn als Empfangskanäle; die einstigen Gästebücher sind längst in selbstverwaltete Facebook-Gruppen migriert und bilden hier den kulturkritischen Versammlungsort einer recht spezifischen Theaterklientel. Eine Brücke zwischen analog und virtuell, Inszenierungs- und Alltagsgeschehen könnten hybride Formate herstellen. Der Theaterregisseur Christopher Rüping beschreibt Hybridität durchaus als Challenge, weil "sich die kulturellen Praktiken des einen und des anderen so beißen". Eine Inszenierung, die so divergente Rezeptionsbedingungen berücksichtigt, sei entsprechend komplex im Herstellungsprozess und müsste "auf achtzehn Ebenen gleichzeitig" funktionieren: "Interaktivität, die nur im digitalen Raum stattfindet, während ich analog zuschaue und davon ausgeschlossen bin, ist merkwürdig." (S. 94) Zudem ist es auch für Darsteller*innen eine neue Erfahrung, auf die weder Ausbildung noch bisherige Praxis sie angemessen vorbereitet haben. So stellt Ackermann die berechtigte Frage: "Wie kann den Schauspieler/innen das Gefühl vermittelt werden, dass sie keinen Film machen, sondern dass sie mit Personen interagieren, die nicht Teil der performenden Gruppe sind – auch wenn diese Personen nicht physisch kopräsent sind?" (S. 21) 'Gemeinsames Erzählen' prägt die Entstehungsgeschichte unserer Kultur, Gesellschaft und Sozialisation. Keine Entwicklung ohne Kooperation, keine Innovation ohne Vorstellungsvermögen. Netztheater könnte ein System der jahrhundertelangen Professionalisierung von Theater neu in Bewegung bringen, weil es Expertisen unterschiedlicher Provenienz bedarf und den Grundgedanken von Crowdsourcing in Schaffensprozesse integriert. Aber sind wir wirklich bereit für künstlerische Formate mit offenem Ausgang? Widerspricht das nicht dem Prinzip von Inszenierung? Müsste man das Profil der Regie – der ja gerade im deutschen Sprachraum besondere Deutungshoheit zukommt – womöglich neu definieren? Aktionen von Zuschauer*innen, die aktiv am Handlungsverlauf mitschreiben, sind schwer zu antizipieren; die Interventionen von Trollen und Bots brechen unerwartet in den Handlungsverlauf ein. Aber vielleicht ist es angesichts der Erschütterungen von 2020 gar keine dumme Idee, statt vorgefertigter Handlungsbögen flexibel adaptierbare Aktionsmodelle zu entwerfen, mit denen auf den Einbruch des Unvorhergesehen reagiert werden kann. Frank Rieger vom Chaos Computer Club beforscht Mixed-Reality-Projekte bereits seit den 1990er-Jahren. "Hybride Räume, digitale und interaktive Formate" hätten bereits eine lange Geschichte, allerdings gäbe es immer wieder "unrealistische Annahmen über das, was die Technik am Ende leisten können wird" (S. 61). Mitunter behindere aber gerade die entgegengesetzte Annahme die Umsetzung: "Man kriegt ein staatliches Theater für eine große Produktion nur dazu, das auch im digitalen Raum zu machen, wenn die das gleiche Gefühl von ernsthafter Technik haben" (S. 94), weiß Regisseur Christopher Rüping aus eigener Erfahrung. Andere Internetformate bewiesen, dass es nicht immer schweres Gerät erfordert, denn "im digitalen Raum dieses Erlebnis [von Gemeinschaft] zu stiften" sei etwas, das "jedem mittelmäßigen Streamer gelingt" (ebd.). Die Ursache für solche Trugschlüsse sieht Rieger in der Inselexistenz, die viele Theater fristen. Der Branche fehle noch immer eine "breite Kultur des ehrlichen Erfahrungsaustausches, der Diskussion von technischen, inhaltlichen und Projektmanagement-Fehlern" (S. 62), sodass das Rad immer wieder neu erfunden werden müsse. Dem entgegenzuarbeiten beabsichtigt die im vergangenen Jahr gegründete Dortmunder Akademie für Digitalität und Theater. Gemäß ihrer Open-Source-Strategie will sie "Nerdkultur […] ins Theater reinbekommen" (S. 67) und die Erkenntnisse ihrer prototypischen Arbeit in Tutorials, Talks und Wikis zugänglich dokumentieren. In ihrer Auswertung der Netztheaterexperimente des ersten Pandemie-Halbjahres bemerken die Bandredakteur*innen Sophie Diesselhorst und Christian Rakow, dass "das Gros […] piratischen Charakter" hatte. "Es entstammte der Freien Szene oder ging auf Initiativen von Einzel-Künstler/innen zurück, die sich ihre eigene Infrastruktur bauten und einfache technische Lösungen jenseits des Stadttheater-Apparats fanden." (S. 89) Man kann annehmen, dass dieser Innovationsgeist zumindest teilweise der Not geschuldet war. Denn selbst Projekte an etablierten Häusern sind häufig von externen Zusatzförderungen abhängig. Um über den eigenen Guckkasten hinauszudenken, haben einige Theater bereits Kontakt zu freien Künstler*innen und Kollektiven aufgenommen. "Es gibt viele kleine Aufträge von Theatern, die sagen: 'Wir wissen nicht, wie es weitergeht. Wollen Sie etwas ausprobieren?'" (S. 97), schreibt die britische Kritikerin Alice Saville. Diese vorsichtige Kontaktaufnahme birgt die Chance, das Gespräch darüber zu beginnen, wie sich festgefahrene Strukturen künstlerisch und wirtschaftlich öffnen lassen. Eine Möglichkeit wäre, Theater künftig als "Agenturen für das Dramatische" zu denken, wie am 13.11.2020 bei der Onlinetagung "Postpandemisches Theater" vorgeschlagen wurde, die ebenfalls auf die Initiator*innen des Sammelbandes zurückgeht. Für die Pluralität und Interdisziplinarität der Branche steht übrigens auch, dass keine der Autor*innenbiographien einen linearen Verlauf aufweist, geschweige denn sich auf eine einzige Berufsbezeichnung zurückführen ließe. Eine der aktuellen Herausforderungen besteht darin, Jobprofile zu überdenken. In Christiane Hütters Entwurf für ein "Theater der Gegenwart" ändert sich die Organisationsstruktur auch auf der Leitungsebene: "Es geht in Zukunft vor allem auch darum, die Gesamtprozesse zu koordinieren, Projektmanagement zu machen, Herstellungsleitung für Situationen, Care-Arbeit fürs Team." (S.45) Ein Kernanliegen der Publikation ist das Plädoyer für eine 'vierte', digitale Sparte – wobei zu bemerken ist, dass das digitale Theater sich diesen vierten Platz vielerorts mit dem Theater für junges Publikum teilt. Dieser Befund ist symptomatisch, werden doch Digitalität und Jugend oft zusammengedacht. Berücksichtigt man die zeitliche Dimension –"in naher Zukunft wird es nur noch Digital Natives geben" (S. 16) – wird rasch klar, dass es sich um eine voreilige Schlussfolgerung handelt. Die sich andeutende Marginalisierung verheißt wenig Gutes für die so dringend nötigen Finanzierungsstrukturen und Fördermodelle, zumal auch die Verantwortung, diese 'vierte Sparte' zu gestalten, damit demselben Personenkreis zugesprochen wird. Folgerichtig wird immer wieder sachlich bemerkt, dass zum Aufbau einer künstlerischen Infrastruktur tatsächliche Ressourcen in Form von Zeit, Geld und neuen Stellenprofilen am Theater benötigt werden. Einige Häuser haben bereits erste Schritte gesetzt und beschäftigen neben Positionen wie Social Media oder – neudeutsch – Community Management nun auch Programmierer*innen. Das Staatstheater Augsburg, das sich bereits im Frühjahr "einen Namen als VR-Hochburg mit einem umfangreichen Spielplan an Virtual-Reality-Produktionen" (S. 99) machte, hat mit Beginn der Spielzeit 2020/21 Tina Lorenz als "Projektleitung für Digitale Entwicklung" eingestellt; das Schauspielhaus Zürich holte für seine Webserie Dekalog den Designer für Virtuelle Interaktion, Timo Raddatz, ins Boot. Für eine "Digitale Sparte" argumentiert auch Elena Philipp, die die Münchner Kammerspiele, das Staatstheater Augsburg und das Hebbel am Ufer als Case Studies ins Feld führt. Die Nutzung digitaler Technologien beschränkt sich aber naturgemäß nicht nur auf die künstlerische Außenwirkung, sondern bietet auch ganz praktische Lösungen: Produktionsvorgänge –und sogar der ökologische Fußabdruck –können beispielsweise durch 'virtuelle Bauproben', 3D-Modelle und die Nutzung von Extended Reality (XR) wesentlich erleichtert werden. Mit der routinemäßigen Nutzung digitaler Technologien stehen auch neue Inhalte in Aussicht. Derzeit erfahre die Form zu große Aufmerksamkeit, zitiert Philipp Tina Lorenz, die konkrete Vorschläge für inhaltliche Schwerpunkte abseits der tausendsten Neuauflage von Goethe und Schiller macht: "Noch ist das Medium die Message, aber wir müssen Geschichten für das digitale Zeitalter entwickeln, über die Gig Economy, Smart Cities oder darüber, wie Kommunikation, Aktivismus und soziale Bewegungen im 21. Jahrhundert funktionieren." (S. 102) Der Blick der Herausgeber*innen inkludiert auch Länder, deren staatliche Subventionsstrukturen weit weniger privilegiert beschaffen sind als im deutschsprachigen Raum. Alice Saville stellt in ihrem Beitrag "Keine Show ohne Publikum" einige Beispiele aus "Großbritanniens immersive[r] Theaterszene im Lockdown" vor, die ja aufgrund ihrer Organisationsform –weit mehr Touring Companies als feste Ensembletheater –ein gewisses Training in innovativer Raumgestaltung besitzt. Der Stadtplaner und Theaterleiter Trevor Davies berichtet von seinen Erfahrungen mit der hybriden Performancereihe "Wa(l)king Copenhagen", für die 100 Künstler*innen eingeladen wurden "ab dem 1. Mai 2020 über 100 Tage lang 100 kuratierte zwölfstündige Walks […] über stündliche Livestreams digital [zu] übertragen" (S. 54). Und die Kuratorin und Kritikerin Madly Pesti erzählt am Beispiel Estlands, bei dem sich die Einwohnerzahl und die Summe der jährlichen Theaterbesuche entsprechen, von der gelungenen Kooperation von Theaterhäusern und Rundfunk, die auf ein über Jahrzehnte gepflegtes Verhältnis zurückgeht: Da die Rechte der beteiligten Künstler*innen vom Estnischen Schauspielerverband vertreten wurden, konnte eine Sonderregelung für die Dauer des Ausnahmezustands verhandelt werden, um die künstlerischen Arbeiten im kulturellen Webportal des Nationalrundfunks kostenlos zugänglich zu machen. Angesichts des vergleichsweise neuen Terrains muss das Theater sich fragen, was es aus den Erfahrungen anderer Branchen lernen kann. Denkt man beispielsweise an die wirtschaftlichen Nöte des Onlinejournalismus und die mühsame Etablierung von Paywalls, ist es sinnvoll, frühzeitig über Verwertungsmodelle bzw. den Preis von 'gratis' nachzudenken. Es gilt zu prüfen, inwiefern Limitation (zeitlich, kapazitär, Ticketing), Exklusivität (Sonderformate, Blicke hinter die Kulissen, Stichwort Onlyfans) oder Partizipations- und Mitgestaltungsoptionen als wertsteigernde Maßnahmen praktikabel und tragfähig sind. Im Kontext von Big Data ist zudem branchenweit zu diskutieren, wie sich Theaterhäuser zu privatisierten Plattformen, die ja den digitalen Raum dominieren, verhalten sollen. Erschwerend kommt hinzu, dass die ungeklärte Rechtesituation im deutschsprachigen Raum auf Netztheaterexperimente nachgerade innovationsfeindlich wirkt. "Man kann nicht Theater im Internet machen und dann aber straight die Copyright-Gepflogenheiten des Analogen anwenden wollen" (S. 93), spricht die Dramaturgin Katinka Deecke im Interview ein Feld mit raschem Klärungsbedarf an. Wiewohl alle Texte von den Lehren aus spezifischen Best Practices leben – schließlich werden die neuen Ausdrucksformate von Pionieren "des Ausprobierens, Aneignens und Entdeckens" (S. 76) entwickelt – versammelt die Publikation in einem eigenen "Produktionen"-Kapitel gezielt Besprechungen einzelner Projekte. Sinnigerweise stammen diese Texte mehrheitlich von Menschen, die berufsbedingt einen größeren Überblick über die Rezeption der Szene besitzen: Kritiker*innen und Redakteur*innen. So kommt Elena Philipps Untersuchung des "Aufbau[s] von Online-Programmen an Theatern" beispielsweise zu dem Schluss, dass "begleitend zu einer Theaterästhetik" – beispielsweise "für Virtual-Reality-Umgebungen" – auch "das Publikum dafür entwickelt" (S. 101) werden müsse. Der Umgang mit neuer Technologie ist schließlich für alle Beteiligten zunächst eine Terra incognita. Sophie Diesselhorst berichtet vom Online-Zusammenspiel der "Netztheater-Experimente aus Schauspielschulen", etwa der vielbeachteten Produktion Wir sind noch einmal davongekommen der Münchner Theaterakademie August Everding, die sich das Artifizielle des Mediums spielerisch überhöht zunutze machte und vermittels kluger Discord-Regie die Videokästchen in Bewegung setzte. Schade, dass die zitierten Experimente nicht zur Nachschau verlinkt bzw. verfügbar sind. Ein Grund hierfür könnte neben der prinzipiellen Unverfügbarkeit einmalig ausgestrahlter Livestreams sein, dass auch andere Quellen knapp einen Monat nach Erscheinen der Publikation bereits der 'Transitorik' des Internets zum Opfer gefallen sind. "Virtuelle[n] Festivalauftritte[n]" widmet sich Esther Slevogt, allen voran dem Berliner Theatertreffen mit seinen streambegleitenden Sonderformaten, die mittels Chat und Videotelefonie erstmals Fachdiskurse, die sonst wenigen Eingeweihten vorbehalten sind, mitsamt den dazugehörigen Gesichtern im Internet teilten. Für das Festival Radar Ost entwarf das Künstlerduo CyberRäuber ein weboptimiertes 360-Grad-3D-Modell des Deutschen Theaters, innerhalb dessen in verschiedenen 'Räumen', inklusive der Unterbühne, Veranstaltungen im Videoformat eingesehen werden konnten. Rückgriffe auf analoge Formate – die Berliner Volksbühne entschied sich etwa für eine Magazinanmutung bei der Gestaltung ihres Festivals Postwest – können laut Slevogt durchaus inspirierend sein: Als "Transfererleichterung für das Denken immaterieller Räume" genüge mitunter eine simple Lageplanskizze, wie es schon 1995 die Association for Theatre in Higher Education der Universität Hawai'i bewies. Wenn es gilt "Übergangsschleusen von der analogen in die digitale Welt benutzer/innenfreundlich zu gestalten", votiert Slevogt ganz klar für "Pragmatismus" (S. 109). Netztheater räumt mit dem weitverbreiteten Missverständnis auf, dass das Digitale allenfalls ein Substitut für 'das Echte' sei. Es ist an der Zeit, sich von falsch verstandenen Authentizitätsdiskursen und einer Überbetonung der 'leiblichen Ko-Präsenz', die die Theaterwissenschaft – die ja damit eine ganz eigene Agenda vertrat – an das Theater herangetragen hat, zu verabschieden. Netztheater will niemandem etwas wegnehmen. Es will das tradierte Theater keineswegs abschaffen, nicht den intimen Moment der Begegnung zweier Menschen ersetzen. Es sucht vielmehr nach technologisch unterstützten Erzähl- und Interaktionsformaten, in denen solche Begegnungen ebenfalls möglich sind. Das Digitale hat unser Denken bis in seine neurologischen Strukturen hinein verändert, die Art, wie wir kommunizieren und interagieren, wie wir uns organisieren, uns in der Welt verorten. Es hat sich in unser Verhältnis zu unseren Körpern eingeschrieben, unseren Zugang zu Wissen erleichtert und auf Herrschaftswissen basierende Hierarchien abgeschafft oder zumindest verschoben. Die Fülle an Information ist nahezu unnavigierbar geworden, Fake News haben unser Vertrauen in glaubwürdige Quellen erschüttert. Das Internet hat eine Vielzahl von alternativen Wahrheiten und alternativen Realitäten geschaffen. Das ist beängstigend, zumal in Zeiten einer Pandemie. Das 18. Jahrhundert hat das Theater als Laboratorium gedacht und die Bühne als Ort, an dem Probehandeln möglich ist, um etwas über unser Menschsein zu erfahren. Auch das Netztheater ist ein solches Laboratorium, ausgestattet mit den Gerätschaften der Gegenwart, die etwa Aufschluss darüber geben können, wie unsere Wahrnehmung beschaffen ist oder wie sich Aufmerksamkeit organisieren lässt. "Theater ist die Institution mit dem ältesten Wissen über die gesellschaftliche Kraft des Spielens." (S. 15) Philosophie und Soziologie veranschlagen im Spiel die Grundlage unseres Menschseins. Es wäre fatal, die verfügbaren virtuellen Spielzeuge und technischen Gadgets jenen Player*innen zu überlassen, deren Interessen wirtschaftlich, militärisch oder politisch getrieben sind. Indem wir unser über die Jahrtausende gewachsenes Wissen über Theatralität und Inszenierungsformen einsetzen, um spielerisch zu experimentieren, erlernen wir den Umgang damit und finden heraus, welche Weltgestaltung mit ihnen möglich ist. Die Lektüre der Beiträge zeigt deutlich: Die vielfach beschworene Minimaldefinition des Theaters – A geht durch einen Raum während B zuschaut – beinhaltet keinerlei Spezifikation, dass B sich dabei im selben Zimmer befinden muss.
Der Sanskrittext Puṣpacintāmaṇi (PuCi) behandelt Blüten als Darbringungen (upacāra) im wichtigsten hinduistischen Verehrungsritual, der pūjā. In ca. 400 Strophen werden über 200 Namen von Blüten genannt und für verschiedene Gottheiten und pūjās als geeignete oder ungeeignete Gaben vorgeschrieben. Der Text ist eine Kompilation (Nibandha), in der die Inhalte aus 47 namentlich genannten Quellentexten referiert werden. Ziel der Dissertation ist es nicht nur, diesen Text, der 1966 zum ersten Mal herausgegeben wurde, auf der Grundlage aller überlieferter Handschriften neu zu edieren und erstmals zu übersetzen, sondern darüberhinaus in seinen Kontext einzuordnen. Dabei werden der historische Entstehungszusammenhang des Textes, die Stellung des PuCi in der Texttradition und die Möglichkeiten der Deutung seines Inhalts berücksichtigt. Ein engmaschiges Netz 29 nahe verwandter nepalischer Abschriften des Textes, das durch eine textkritische Untersuchung in Bereiche vertikaler und horizontaler Überlieferung geordnet werden konnte, reicht bis in die Entstehungszeit des PuCi zurück. Aufgrund der ältesten Textzeugen konnte eine Edition angefertigt werden, die der Urschrift des PuCi nahe kommt und im Vergleich zur editio princeps von 1966 eine authentischere Textgestalt wiedergibt. Erstmals wurde dabei auch die Übertragung ins Klassische Newari ediert, die in der Übersetzung des Textes bezüglich ihrer Ergänzungen zum und Abweichungen vom Sanskrittext Beachtung findet. Zur Aufbereitung des Materials, das die Grundlage für die anschließenden Analysen bildet, gehören darüberhinaus die botanischen Identifikationen aller im Text genannter Blüten, die in einer alphabetischen Liste und teilweise in Abbildungen zugänglich gemacht werden. Anhand der vorletzten Strophe des Textes, die in der Erstedition fehlt, konnte die Entstehungszeit des PuCi auf die Dekade zwischen 1641 und 1651 eingegrenzt werden. In diesem Vers wird der Verfasser des Textes, Māyāsiṃha, genannt sowie dessen Patron, Pratāpa Malla, der die Königsstadt Kathmandu zwischen 1641 und 1674 regierte. Eine Person namens Mayāsiṃha wird in verschiedenen Quellen mit der Ermordung eines Verwandten des Königs in Verbindung gebracht. Anhand der in der Arbeit ausgewerteten historischen Dokumente ist aber nicht sicher festzustellen, ob der mutmaßliche Intrigant Mayāsiṃha und der Verfasser der PuCi Māyāsiṃha ein und dieselbe Person waren. Der Autor, der durch die Neuedition erstmals greifbar wird, entzieht sich zugleich wieder. Unabhängig von der konkreten Verfasserschaft lässt sich der Text als Teil des Herrschaftsprogramms von Pratāpa Malla auffassen. Dieser König gilt als einer der bedeutendsten Herrscher der späten nepalischen Malla-Dynastie und stilisierte sich als ein dem dharma, der kosmischen, politischen und sozialen Ordnung, verpflichteter König. Dazu gehörte die Förderung von allen Bereichen kulturellen Lebens in Ausrichtung auf diese Weltordnung. Besonderes Interesse hegte der Herrscher für die Verehrung der in seinem Reich ansässigen hinduistischen Gottheiten. Der PuCi, in dem Normen für einen Aspekt des wichtigsten Verehrungsrituals gesammelt und geordnet sind, folgt dieser Agenda. In der späteren Manuskripttradition geht die Strophe, aus der Entstehungszeit und -ort ableitbar sind, verloren. Bemerkenswert ist, dass der Text auch ohne Autor und sogar ohne autoritativen Hinweis auf die Patronage durch einen der Kulturheroen der Malla-Zeit überlebt hat und weiter tradiert wurde. Als wichtigster Grund, der dem PuCi das Überleben sicherte, ist wohl die Tatsache anzusehen, dass im Text die panindische gelehrte Tradition auf nepalische Verhältnisse bezogen wird. Der Text behandelt mit der Kombination der Verehrung exoterischer (Smārta) Gottheiten (Śiva, Viṣṇu und Durgā) und esoterischer (Kaula) Göttinnen in den Traditionslinien der nepalischen Tantriker ein Pantheon, das für den höfischen Kult und mit ihm für die Religion der nepalischen Eliten seit der Malla-Zeit repräsentativ ist. Der Verfasser bediente sich dabei des Genres der Kompilation (Nibandha), das zu dieser Zeit in ganz Südasien beliebt und vor allem in der höfischen Kultur angesiedelt war. Die meisten Quellen, aus denen der PuCi zitiert, konnten identifiziert werden. Der Herstellungsprozess wurde weitgehend aufgeklärt. Es zeigt sich, dass der Kompilator als Primärquellen meist auf solche Texte zurückgriff, die in Nepal zu dieser Zeit als literarische Klassiker galten. Für einen nicht unwesentlichen Teil der Zitate konnte nachgewiesen werden, dass diese samt Textverweisen und teilweise sogar Kommentarpassagen aus anderen Nibandhas übernommen wurden. In erster Linie handelte es sich bei diesen Sekundärquellen um damals aktuelle Werke nordindischer Gelehrter. Das Milieu am Königshof von Kathmandu gab, so wird argumentiert, nicht nur den wichtigsten Impuls zum Verfassen des PuCi, sondern war einer der wenigen Orte, an dem ein solcher Text zu dieser Zeit überhaupt entstehen konnte. Pratāpa Malla belebte Kultur und Kunst u.a. durch Importe von Gelehrten und Textmaterialien aus den südlich angrenzenden indischen Reichen und machte so einige Quellentexte erst verfügbar. Popularität und Einfluss des PuCi als nepalischer Lehrtext (Śāstra) zeigt sich nicht nur an seiner eigenen Überlieferung. Darin finden sich Handschriften, die Hinweise auf die anhaltene Bedeutung im royalen Umfeld tragen. Die Newariübertragung entwickelt sich eigenständig weiter. Daneben konnte in nepalischen Manuskripten eine ganze Texttradition zu pūjā-Blüten nachgewiesen werden. Der PuCi ist darin eine zwar wichtige, vielleicht sogar die älteste indigen nepalische, aber eben nur eine Artikulation des Themas in einem verzweigten Strom aufeinander aufbauender Kompilationen, in denen ähnliches Material immer wieder neu zusammengestellt wurde. Anhand derjenigen Texte, die als direkte Nachfahren des PuCi bestimmt werden konnten, wurde demonstriert, wie spätere Autoren den PuCi als Grundlage für neue Werke nutzten. Die nepalische Texttradition zu Blüten – vielleicht kann man sogar von einem eigenen Textgenre sprechen – erlebte, wie die überlieferten Handschriften belegen, im späten 17. und frühen 18. Jahrhundert einen regelrechten Boom. Sie reicht bis in die jüngste Vergangenheit und zeigt eine anhaltende Tendenz zur Übertragung in die Regionalsprachen Nepals. Der PuCi wird, nach allem was bisher bekannt ist, nicht außerhalb von Nepal kopiert oder rezipiert. Er fließt jedoch in Form von gekennzeichneten oder stillschweigenden Zitaten in andere nepalische Nibandhas ein, die ihrerseits überregionale Bedeutung erlangt haben. So trägt der PuCi indirekt zur panindischen gelehrten Tradition bei. Wie der PuCi als Text seinen Verfasser und Patron verliert, verliert sich im Laufe der Zeit auch der Text als solcher und geht in neue Kompositionen auf. Die im PuCi gesammelten Informationen werden weiter tradiert, Verfasserschaft oder konkrete Textgestalt erscheinen dabei nebenrangig. Der PuCi ist ein hochspezialisierter Lehrtext, in dem enzyklopädisch Vorschriften zur Materialkunde des upacāras Blüte (puṣpa) aufgeführt werden, ohne Kontext oder Begründungen zu geben. In der vorliegenden Arbeit wird gezeigt, wie sich das Regelwerk des PuCi in den weiteren Kontext panindischer Gelehrsamkeit einbetten lässt. Dazu wurden die Regeln nach ihren Gültigkeitsbereichen geordnet und sukzessive analysiert. Es sind allgemeine und spezielle Regeln unterscheidbar. In den allgemeinen Regeln, die festlegen, was eine Blüte als Gabe an Gottheiten qualifiziert, kommen ästhetische Ansprüche zum Ausdruck. Wie wohl für Ritualgegenstände allgemein, zielen diese Vorschriften aber vor allem auf die Wahrung von Reinheit. Die śāstrische Behandlung von Blüten zeigt Parallelen zu derjenigen von Speisen (anna) oder Gaben (dāna) und lässt sich so als Teil eines allgemeineren Diskurses erfassen, wie er vor allem von Autoren des Dharmaśāstra entwickelt wurde. Die speziellen Regeln sind zumeist einfache Zuordnungsregeln. Die wichtigsten Komponenten dieser Vorschriften sind Blüten und Gottheiten, also die dargebrachte Materie und der Empfänger dieser Gabe. Der Verehrer oder Geber wird in vielen Regeln genannt, jedoch recht selten charakterisiert. Die Handlung selbst, das Darbringen der Blüten, ist nur indirekt über die Resultate, die sie produziert, greifbar. Diese Komponenten sind in den drei Arten, in die pūjā traditionell eingeteilt wird, verschieden ausgeprägt und gewichtet. Besonders lassen sich die regelmäßige (nitya) Verehrung und diejenige mit einem Begehren (kāmya) kontrastieren, wohingegen die fallweise (naimittika) Verehrung zur nityapūjā tendiert und insgesamt vergleichsweise blass bleibt. Verdienste, die für die nitya- und naimittikapūjā sehr allgemein formuliert werden, sind in der pūjā mit einem Begehren (kāmya) erwartungsgemäß viel konkreter. Dagegen wird die innere Einstellung, für die in nitya- und naimittikapūjā devotionale Hingabe (bhakti) gefordert ist, in dieser Art von pūjā kaum thematisiert. Durch die Analyse zeigte sich weiter, dass die physischen und kulturellen Charakteristika der Blüten mit der jeweils zentralen Komponente der Regeln in Beziehung gesetzt werden können. In der nityapūjā lassen sich Parallelen zwischen Eigenschaften der Blüten, wie deren Namen, Formen, Standorten oder kulturellen Assoziationen, und denen der Gottheiten feststellen. Der zeitliche Anlass (nimitta) ist diejenige Komponente, die für die Verwendung von Blüten in der naimittikapūjā von Bedeutung ist. Wie in der kāmyapūjā scheinen die jeweils verehrten Gottheiten nur zweitrangig, wenn darüber zu entscheiden ist, welche Blüten zu verwenden sind. Blüten, die für die Verehrung mit einem Begehren (kāmyapūjā) vorgeschrieben sind, lassen sich über ihre Charakteristika mit eben diesem Begehren verknüpfen. Die Eigenschaften der Blüten lassen sich so als rituelle Potenzen betrachten, welche die jeweils unterschiedlichen Ausrichtungen der drei Arten von pūjā betonen. Neben Unterschieden zwischen den Vorschriften für die drei Arten der pūjā werden auch diejenigen zwischen den ersten drei Kapiteln und dem vierten behandelt. Dies entspricht der Grenze zwischen exoterischer Ritualtradition, die auf Schriften der Smārtas rekurriert, und der esoterischen der Kaulas. Für die exoterische Tradition ist tendenziell eine Anbindung an die vedische Ritualistik festzustellen. Pflanzen, die zur materiellen Ausstattung von Śrauta-Ritualen gehören, gelten als wichtige pūjā-Blüten, obwohl es sich häufig nicht um Blüten im eigentlichen Sinne, sondern um Gräser oder Blätter handelt. Vedische Rituale werden in Vergleichen herangezogen, in denen die Verdienstlichkeit der pūjā betont wird. Im vierten Kapitel spielt die Welt der vedischen Rituale dagegen kaum eine Rolle. Pflanzen mit vedischen Wurzeln werden kaum erwähnt oder sogar abgelehnt, Śrauta-Rituale bilden keine Vergleichsmomente. Ein weiterer Punkt, in welchem die Ansichten zu pūjā-Blüten aus exoterischer und esoterischer Perspektive auseinanderzugehen scheinen, ist das verbale Gewicht, das auf die Befolgung der Regeln gesetzt wird. Für die Darbringung der falschen Blüten werden im vierten Kapitel des PuCi viel drastischere Konsequenzen angedroht als in den ersten drei Kapiteln. Aussagen, dass fehlende Blütengaben ersetzt und durch bloße Hingabe (bhakti) substituiert werden können, sind Teil der Smārta-, nicht aber der Kaula-Vorschriften. Obgleich sich also Kaula-Ritual in seiner Materialität von der vedischen Ritualistik abgrenzt, ähnelt es ihr in seiner hyperritualistischen Einstellung. Im Großen und Ganzen sind die im Text referierten Vorschriften nicht willkürlich. Es lassen sich Regelmäßigkeiten der Zuordnungen feststellen. Für diese Zuordnungen von Blüten und Göttern, Blüten und Zeiten oder Blüten und Resultaten finden sich vielerlei Parallelen in anderen Gebieten der in Sanskritschriften überlieferten Gelehrtenkultur. Der Text enthält jedoch auch Stellen, die widersprüchlich oder unverständlich sind. Einige Widersprüche werden vom Kompilator harmonisiert, andere bleiben unvereint stehen. Neben Namen prominenter Blüten, die häufig genannt werden und in regelmäßigen Beziehungen zu Gottheiten stehen, werden solche erwähnt, die wenig bekannt sind oder die schlicht Textkorruptionen darstellen. Der Verfasser einer Kompilation muss fast zwangsläufig Korruptes und Unverständliches – ich habe dies "blinde Flecken" genannt – im Text akzeptieren, will er seine Quellen, die ihm nicht in kritischen Editionen sondern in Handschriften unterschiedlicher Qualität vorliegen, möglichst treu wiedergeben. Dies gilt in besonderem Maße für einen Text, der wie der PuCi viele Eigennamen enthält. Vor allem die Übersetzung dieser Eigennamen erscheint als das zentrale Anliegen der Übertragung des Textes ins Newari. Die sprachlichen Strukturen, die im Sanskrittext schon recht stereotyp sind, werden dabei weiter vereinfacht, und es finden sich kaum Erläuterungen zum Grundtext. Die Übertragung ist daher in erster Linie lexikographisch zu nennen. Verschiedene Übersetzungstechniken kommen zum Einsatz. Bekannte Blüten werden meist stabil übersetzt. Sie tragen eigene Newarinamen oder zumindest solche, die durch Lautverschiebungen aus dem Sanskrit adaptiert wurden. Unbekannte Blüten werden dagegen mechanisch durch das Anfügen des Newaribegriffs für "Blüte" übertragen oder komplett unterschlagen. Anhand einiger Newariglossen konnte gezeigt werden, wie lokal bedeutsame Ritualflora mit der gelehrten Tradition verknüpft wird. Dabei nutzte der Übersetzer u.a. die Interpretationsspielräume, die ihm der Text durch nicht eindeutig definierte oder unverständliche Sanskritnamen von Blüten – durch seine "blinden Flecken" – bot. Insgesamt betrachtet ist der PuCi als ein erfolgreicher Versuch zu bewerten, translokale normative Tradition auf lokale Gegebenheiten zu beziehen. Dabei ist der Text in erster Linie eine intellektuelle Angelegenheit. Es handelt sich um einen allgemeinen Charakterzug der Sanskritgelehrsamkeit, dass Śāstras nicht beschreiben, was in der Welt vor sich geht, sondern vielmehr wiedergeben, was als Wissen darüber überliefert ist. Der PuCi ist damit eher ein Prestigegegenstand, der einer Luxuskultur, nämlich dem höfischen Milieu, entstammt, als ein Gebrauchstext. ; The Puṣpacintāmaṇi (PuCi), a compendium (nibandha) containing rules for the use of flowers in Hindu pūjā, was written between 1641 and 1651 at the royal court of Kath-mandu, Nepal under one of the most illustrious rulers of the late medieval Malla dynasty, Pratāpa Malla. The dense manuscript evidence reaches back to the time of composition and allows for reconstructing a text close to the original. Moreover, on the basis of the quoted sources the procedure of compilation becomes almost tangible. The PuCi reflects the medieval Hindu religion of the Nepalese elites, which tradi-tionally and up to recently was centred on the king as its major ritual patron. The struc-ture of the text mirrors a peculiar Nepalese combination of exoteric and esoteric cult practices. Flowers for Śiva, Viṣṇu, Sūrya and the other Grahas as well as in the śrāddha as prescribed in the common Dharmaśāstranibandhas are dealt with in the first two chapters. The third chapter might be seen as a hinge between the two ritual modi: con-cluding the area of smārta worship it deals with flowers for Durgā, who is considered to be the exoteric identity of the multitude of esoteric goddesses unfolding into different lines of transmission (āmnāya) of the Kaula traditions dealt with in the last chapter of the text. Furthermore, the analysis of the texts used for composing the PuCi attests to a strong link to the pan-Indian Sanskrit tradition and yet at the same time to its Nepalese prov-enance. There are texts quoted which by the 17th century must have become the "clas-sics" among the authorities on Nepalese ritual matters, such as the Śivadharma literature or the Manthānabhairavatantra. On the other hand the text heavily draws on works by North Indian Nibandhakāras, which must have been "brand new" at that time, such as Narasiṃha Ṭhakkura's Tārābhaktisudhārṇava. The findings affirm that Pratāpa Malla was one of those royal figures who actually imported scholars and new texts in order to update the Nepalese version of Hinduism. In a wider perspective the text bears evidence to how fast knowledge and texts travelled in medieval South Asia. Research into Nepalese manuscripts has uncovered a larger textual tradition on pūjā flowers surviving in about 100 manuscripts. These texts are closely interrelated. Newly emerging texts may take material from older compilations as their skeleton and coat it with new references or may be self-sustained developments of parts of their predecessors. Texts are translated into the vernaculars, into Newari and later on into Nepali. The Puṣpacintāmaṇi may be considered paradigmatic for this tradition. Its translation into Classical Newari in course of time comes to lead a life of its own, the Sanskrit text or parts thereof form the bones for later texts, and so forth. Looking at the contents of the Puṣpacintāmaṇi several observations can be made. The text belongs to the prescriptive śāstra literature, which, according to its self-conception, relates back to earlier authorities to establish normative discourse rather than to nor-malize existing practice. The text is highly specialised by focusing on a single material aspect of ritual and consequently dropped all information of its sources that went be-yond its immediate scope. The text is purely encyclopaedic. It only presents the rules according to a certain order without linking them theoretically. In the set of regulations general and special rules can be distinguished. The general rules for procurement, treatment and disposal of pūjā flowers allow for statements about the general conception of the same. They echo Brahmanical values of purity and show parallels to rules formulated for food and gifts. The special rules, in which particular flower species are prescribed (vihita) or prohibited (niṣiddha), can not only be ordered according to the deities, as in the text itself, but also according to the types of ritual they relate to, namely nitya, naimittika and kāmya. Notably, the flowers in their physical characteristics and cultural associations can be linked to different components of the rules stated. In nityapūjā the features of the flowers tend to correspond to that of the deities, in naimittikapūjā to the time component and in kāmyapūjā to the result to be achieved. Moreover, in nityapūjā a certain looseness of stress on the compliance with the rules is discernible. After all, devotion (bhakti) plays a major role, which may refer back to the deep rootedness of pūjā in the bhakti traditions. In contrast, prescriptions for kāmyapūjā are very precise and results are related to certain flowers almost mechanically. Moreover, statements of bhakti as superior means of worship are restricted to the first three chapters of the texts. In other regards too distinctions between rules for exoteric and esoteric worship are discernible. For example, there is a strong tendency in text portions of dharmaśāstric origin to keep on with the prestigious Vedic heritage in ritual flora—even if this requires the category "flower" (puṣpa) to be stretched considerably to include grasses or leaves—whereas plants known to be efficient in Vedic ritual tend to be more rarely prescribed or even prohibited in the Kaula texts. Despite remarks on the systemic character of the rules, from an overall perspective it must be said that the text does not seem to aim at presenting a closed and thoroughly composed system. There are obvious contradictions, incomprehensible passages and unidentifiable flower names. These make the text have its dark and impenetrable edges. The translation into Newari confirms the impression that the text was not meant to be a highly sophisticated product well-conceived to the core, meaningful and understood in every detail. Many flower names mentioned in the text are either translated quite mechanically into Newari or they are completely dropped. But there are also some few cases in which the Newari text seems to take up names that are either unintelligible or whose botanical identity is a matter of discussion in order to provide plants of impor-tance in local pūjā practice with a Sanskrit identity. But still, the text stays remote from actual practice. It was surely not meant to serve as a practical guide (prayoga). It operates on a different level. It assembles śāstric refer-ences in a specific tailoring and at maximum its use might have been to provide a le-gitimatory backup (pramāṇa). It is a link in the chain that loosely connects the trans-local śāstric discourse with a local pūjā practice. The translation into Newari can be seen as the next stride towards ritual application. There was no need whatsoever for a text like this. The world could have lived without it. Pratāpa Malla would not have been a less illustrious king and Newar ritual flora would not have been less manifold. But the cultural climate of the 17th century, with three intensely competing kingdoms within the narrow confines of the Kathmandu valley and the court of a king who, personally, was very fond of the divine inhabitants of his realm, provided the ideal breeding ground for a composition specializing in and thereby highlighting a minute detail of one of the or even the most prominent ritual practice of that time. It may have been a mere intellectual exercise of some pandits, a true l'art pour l'art, but nevertheless it appears to be a rewardingly informative witness of the way in which medieval Nepalese religion was conceived and constructed in elite circles.
Overview and introduction "Which organizational forms produce science? Expansion, diversity, and cooperation in Germany's higher education and science system embedded within the global context, 1900-2010". Already the title of my dissertation manifests an approach that examines the topic of the development of scientific productivity in the German higher education and science landscape from different perspectives: levels, dimensions, and an extensive timeframe. Deriving from and contributing to the international research project "Science Productivity, Higher Education, Research and Development, and the Knowledge Society" (SPHERE), my research focuses on the investigation of the influence of higher education development and science capacity-building on scientific knowledge production, globally, comparatively, and considerable depth for Germany, a key science producer for well over a century. Focusing mainly on the different structures and institutional settings of the German higher education and science system, the dissertations shows how these affected and contributed to the long-term development of scientific productivity worldwide. The historical, comparative, and in-depth analyses are especially important in light of advancing globalization and internationalization of science, stronger networks of scientists worldwide, and the emergence of the "knowledge society". The research design combines macro- and meso-level analyses: the institutionalized and organizational settings in which science is produced. Since information about single authors was limited in availability, extensive micro-level analyses were not possible here, yet the research articles analyzed were all written and published by individuals working in organizations, which are in the center of analysis here. By reference to the dimensions expansion, diversity, and cooperation, I elaborated the frame of my investigation, and sorted my research questions, including country, organizational field and form, and organizational levels. The structure of this work (see outline) addresses these themes and the observed timeframe spans the years from 1900 to 2010 – more than a century (see section 1.2). My main goal was to investigate how and why scientists publish their research results in peer-reviewed journal articles. The point is to emphasize the importance of scientific findings/discoveries, because non-published results are non-existent for the scientific community. From the ways and in which formats scientists publish their work, we can deduce how science is organized (within and across disciplines). My dissertation analyzes publications in peer-reviewed journals, because they are the most important format – alongside patents in applied fields – to disseminate new knowledge in science, technology, engineering, mathematics, and health (hereafter STEM+ fields). Articles not only record new knowledge, but also contribute to the reputation of researchers and their organizations. Journal publications in reputable journals with peer-review have become the "gold standard" measure of scientific productivity. Within the last several decades, the scientization of many dimensions of societal life proceeded, and the generation of new knowledge increasingly became the focus of political, economic, and social interests – and research policymaking. Therefore, it is important to identify the institutionalized settings (organizations/organizational forms) in which science can best be produced. Here, the diverse types of organizations that produce science – mainly universities, research institutes, companies, government agencies and hospitals – were identified and differences and similarities of these organizational forms were analyzed on the basis of their character, goals, tasks, and the kinds of research their members produce. In a first step, I show why I structured my work at the interface of higher education research, science studies, and bibliometrics (see chapters 2 and 5). Analyzing publications is still the key task of bibliometrics, but the results are used by many other actors as well: higher education managers, politicians, and scientists themselves to make claims about the quality of science, to compare each other, or to influence the structure, organization, and output of the higher education and science system. While it is difficult to make direct statements about the quality of research on the basis of simply counting the number of research articles a scientist publishes, the quality of journals is used as a proxy to compare across disciplines. To measure quality, other parameters are necessary. Thus, here statements focus on the quantity of science produced, not on the intrinsic quality of the analyzed research articles, the specific research achievements of individual scholars, organizations or organizational forms, or even countries. Nevertheless, output indicators elaborated here definitely show the huge expansion of scientific production and productivity, the stability of the research university over time as the most important science producer in Germany, but also rising differentiation and diversification of the organizational forms contributing to overall scientific output. Furthermore, the start of a considerable and on-going rise in national and international collaborations can be dated to the early 1990s. The chapter about the multidisciplinary context (see chapter 2) discusses the relationship between higher education research and science studies in Germany as well as the special position of scientific knowledge in comparison to other forms of knowledge. Scientific knowledge is generated, distributed, and consumed by the scientific community. To get an overview about the most important studies in the field, and to contextualize my work within the already existing empirical studies, I describe the current state of research in chapter 3. Research questions Section 1.2 provides a detailed description of my research questions: Which organizational forms produce science? 1. How has worldwide and European scientific productivity developed between 1900 and 2010 in comparison? 2. How has the German higher education and science system been embedded in the global developments of higher education and science over time? 3. How has scientific productivity in Germany developed between 1900 and 2010? 4. Among all science-producing organizational forms, what do the key organizational forms contribute to scientific productivity? 5. Which organizational forms provide the best conditions for scientific productivity? 6. Which single organizations produce the most research in Germany? 7. What is the impact of increasing internationalization of research on national and international cooperation, measured in publications in scientific journals? Theoretical framework Theoretically (see chapter 4), I apply a neo-institutional (NI) framework to explore and explain both the tremendous expansion of higher education and science across the world and considerable differences across time and space in the institutional settings, organizational forms, and organizations that produce scientific research in Germany. Sociological NI focuses on understanding institutions as important in guiding social action and shaping processes of social development. Such an approach emphasizes the development, functioning, and principles of institutions. Milestones in NI describe the nexus of organization and society supposing that organizational structures express myths and reflect ideals institutionalized in their environment. While capturing, copying, and asserting these, structural similarity (institutional isomorphism) between organizations in society will be established. The concept of "organizational field" emphasizes relationships between organizations within an environment. Organizational fields (communities) consist of all relevant organizations. In section 4.1.2 I discuss the differences between institutions and organizations and the difficulty of a distinction of the terms, especially in German-speaking sociology, which does not distinguish clearly between these terms. Fundamentally, NI approaches differ in the dimensions or pillars and levels of analysis they privilege (see figure 5, p. 80), but they share fundamental principles and the theoretical framework. Thus NI is particularly suitable for a multi-level analysis of scientific productivity across time and space. The historical development of the German higher education and science system must analyzed considering also global developments, because on the one hand it had an enormous impact on the development of other systems worldwide, and, on the other hand, global trends affect the on-going institutionalization and organization(s) of science in Germany. Intersectoral and international cooperation is growing and becoming increasingly important, leading to diverse networks within and between higher education and science systems worldwide. The classical, national case study is hardly longer possible, because macro units like countries are highly interdependent, embedded in global, regional and local relationships, such that borders between the global and the national dimension are increasingly blurred. Nevertheless, countries are units with clearly defined boundaries and structures, thus they can be handled as units to compare. The theoretical perspectives and different levels of analysis addressed here are displayed in Figure 5. I apply the "world polity" approach as a broader lense with which to make sense of the truly global arena of higher education and science (macro level). The focus of this perspective is on global and international structures and processes, which developed over time. Through this perspective, I explore global diffusion and formal structures of formal principles and practical applications. Combining historical and sociological institutionalism helps to focus on developments and processes over time on the meso level, to explain how institutions have developed and change(d). The concepts of "critical junctures" and path dependencies are useful to explain these processes over time. To describe the transformation of knowledge production over the entire twentieth century, and to analyze different organizational forms that produce science in Germany, two prevalent theoretical concepts are discussed: Mode 1 versus Mode 2 science, and the Triple-Helix model to describe the relationship between science, industry and state. In "The New Production of Knowledge" Michael Gibbons and his colleagues describe the transformation of knowledge from an academic, disciplinary, and autonomous – "traditional" – organization of science (Mode 1) with a focus on universities as the key organizational form, to a more applied, transdisciplinary, diverse, and reflexive organization of science (Mode 2) that features a more diverse organization of science, relying on a broader set of organizations producing knowledge. Within the literature, debates center on whether this new model has replaced the old, and which of these models best describes the contemporary organization of science (here: the STEM+ fields). In turn, the Triple-Helix model preserves the historical importance of the universities. This approach assumes that future innovations emerge from a relationship between universities (production of new knowledge), industry (generation of wealth), and state (control). Data and methods In these analyses, only peer reviewed journal publications were used – as the best indicator for measuring the most legitimated, authoritative produced science. This focus enabled an investigation of publications in-depth and over a 110 year timeframe. Research articles in the most reputable, peer-reviewed, and internationally reputable journals are the gold standard of scientific output in STEM+. The data I used is based on a stratified representative sample of published research articles in journals in STEM+-fields. My measure relies on the key global source for such data, the raw data from Thomson Reuters' Web of Science Science Citation Index Expanded (SCIE) (the other global database is Elsevier's Scopus, which also indexes tens of thousands of journals), which was extensively recoded. Methodologically, my approach is based on a combination of comparative institutional analysis across selected countries and historically of the German higher education and science system, and the systematic global evaluation of bibliometric publication data (see chapter 6). The SCIE includes more than 90 million entries (all types of research), mainly from STEM+-fields. I focus on original research articles, because this type of publication contains certified new knowledge. The SPHERE dataset covers published research articles from 1900 to 2010. From 1900 to 1970, we selected data in 5-year-steps in the form of a stratified representative sample. From 1975 onwards full data is available for every year. Depending on the research question, either five or ten-year steps were analyzed. A detailed description of the sampling and weighting of the data can be found in chapter 6. In consideration of the criteria above, I analyzed 17,568 different journals (42,963 journals were included into the database if we count the same journals in different years), and a total of 5,089,233 research articles. To prepare the data for this research, it had to be extensively cleaned and coded. Very often our international research team found missing information on the country level and/or on the level of organizations/organizational forms. From June 2013 to December 2015, research in the archives of university libraries was necessary to manually add missing information, particularly organization location and author affiliations. In the field of bibliometrics, we find different methods to count publications. In this work, I mainly apply the "whole count" approach (see table 1, p. 126). This decision is based on the assumption that every author, organization, or country contributed equally to a publication. An overestimation of publications can't be precluded, because research articles are counted multiple times, if a paper is produced in co-authorship, which has been rising worldwide over the past several decades. The absolute number of publications (worldwide, Europe, Germany) is based on a simple counting of research articles (without duplicates, in cases of co-authored articles). Summary of the most important results The empirical part of my work is divided into three parts. In the following sections, I will present the most important findings. The global picture – higher education and science systems in comparison The central question of my research project was "which organizational forms produce science"? For a better understanding and classification of the results of my case study, I embedded the German higher education and science system into the European and global context. I answered the questions "how did the worldwide and European scientific productivity developed between 1900 and 2010 in comparison", and "how was/is the German higher education and science system embedded in global developments of higher education and science over time" as follows: First, I show that the worldwide scientific growth followed a pure exponential curve between 1900 and 2010 (see figures 3 and 10; pp. 50, 147) – and we can assume that this strong upward trend continues today. The massive expansion of scientific production had and still has a tremendous influence on societal developments, beyond simply economic and technical developments, but rather transforming society. I show that higher education and science systems worldwide exhibit communalities, which have led to similar developments and expansion of scientific productivity. The comparison of important European countries (Germany in comparison with Great Britain, France, Belgium and Luxembourg) uncovered the contribution of the development and spread of modern research universities and the extraordinary and continued rise in publication output (see section 7.2; Powell, Dusdal 2016, 2017a, 2017b in press). Within the global field of science, three geographical centers of scientific productivity have emerged over the twentieth century: Europe, North America, and Asia. Their relative importance fluctuates over time, but today all three centers continue to be the key regions in the production of scientific research in STEM+ journals. Especially in Asia, the growth rates have risen massively in recent years (Powell et al. 2017 in press). Second, I investigated that all countries worldwide invest more into research and development (R&D) (figure 9, p. 140). These investments have a clear impact on the scientific productivity of nations, yet there are important differences between countries in absolute production and productivity rates. Alongside direct investments in R&D or the application of patents in STEM+-fields that influence the expansion of science, the capacity for producing more knowledge fundamentally depends on rising student enrolments, a growing number of researchers, the widening of research activities into various arenas of society, the development of products, and the (re-)foundation of universities (Powell, Baker, Fernandez 2017 in press). As part of the higher education expansion and massification during the 1960s and 70s, the numbers of researchers and students rose tremendously. The growth of scientific publications thus results from the on-going institutionalization of higher education and science systems worldwide. The growth of publications is also explained by the steady growth in the number of researchers working within these growing – and increasingly interconnected – systems. Third, I could reject the argument of Derek J. de Solla Price that the pure exponential growth of scientific literature has to flatten or would slow-down several decades after the advent of "big science" (see paragraph 2.4; figure 4 and 10; p. 53, 147). Although radical historical, political, economical, and technical events (see figure 11, p. 150) led to punctual short-term decreases in publication outputs, the long-term development of universities and other organizational forms producing science led to sustained growth of scientific publications, with the numbers of publications rising unchecked over the long twentieth century. In 2010, the worldwide scientific productivity in leading STEM+ journals was about one million articles annually. Fourth, I could show that the absolute numbers have to be put into perspective and standardized in relation to the investments in R&D, the size of the higher education and science systems, the number of inhabitants (see figure 12, p. 159), and the number of researchers (table 3, p. 162; figure 13, p. 164). The initial expansion of scientific publications in STEM+-fields is based on a general growth of higher education and science systems. The different institutional settings and organizational forms that produce science have an impact on scientific productivity. The selected country case studies – Germany, Great Britain, France, Belgium and Luxembourg – demonstrate that systems with strong research universities are highly productive; they seem to provide conditions necessary for science. As a result, not only the number and quality of researchers is important, but also the institutional and organizational settings in which they are employed. Fifth, in international comparison, Germany continues to contribute significantly to scientific productivity in STEM+ fields. With an annual growth rate of 3.35%, Germany follows the United States and Japan. In 2014, German governments invested €84.5 billion in R&D – 2.9% of overall GDP. The EU-target of 3% by 2020 was barely missed. In 2010, Germany produced 55,009 research articles (see table A5). In comparison to Great Britain, France, Belgium and Luxemburg, Germany still leads in scientific output in Europe –comparing just the absolute numbers. The size of the country itself and the institutionalization of the higher education and science systems influence publication outputs, of course, with these absolute numbers in relation to other key indicators showing a different picture. Standardized by the number of inhabitants, Germany published less articles per capita than Belgium and Great Britain. The number of researchers amounted to 327,997 (FTE) in 2010. The ratio of inhabitants to scientists was 1,000:4. Among these countries studied in-depth, Luxembourg and Great Britain had more researchers per capita than did Germany. The interplay of the organizational forms of science in Germany between 1900 and 2010 On the basis of the analysis of the global and European contexts, and development of worldwide scientific productivity over time in chapter 7, I started the in-depth case study of Germany. Bridging this overview and the following in-depth analyses is a chapter on the institutionalization of the German higher education and science system (see chapter 8). Here, I described the most important institutions and organizations and the organizational field – universities, extra-university research institutes and universities of applied sciences. Furthermore, I discussed the differences between West and East Germany during their division (1945–1990). Summarizing the most important results shows that the development of publications in Germany follows global and European trends (on a lower scale) (see figure 16, p. 208). Over time, Germany experienced pure exponential growth of scientific publications and a rising diversity of organizational forms that contribute to scientific productivity (see sections 9.1 and 9.3). I answered the following three research questions: "how has the scientific productivity in Germany developed between 1900 and 2010", "among all science producing organizational forms, what do the key organizational forms contribute to scientific productivity", "which organizational forms provide the best conditions for scientific productivity", and "which single organizations are the most research intense in Germany"? First, the growth curve of scientific publications in Germany turns out as expected – it shows pure exponential graph, comparable with the worldwide and European development of scientific productivity between 1900 and 2010. Here, too, cataclysmic events such as the two world wars and the Great Depression as well as reunification had only short-term (negative) impact (figure 11, p. 150) on scientific productivity, without even a medium-term slow-down or flattening of the curve. By 2010, the total number of publications in STEM+ fields by researchers in German organizations topped 55,000 in one year alone. Second, a detailed examination and comparison of the development of scientific productivity in West Germany and East Germany between 1950 and 1990 showed that the growth rate of Germany (altogether) was based mainly on steady growth of scientific publications in West Germany (see figure 17, p. 211). The growth curve of the former GDR was quite flat and proceeded on a very low level. As a result, I conclude that the GDR's higher education and science system, based on its academy model, did not provide conditions for scientific productivity as optimally as did the BRD. Third, a detailed analysis of the "key classical" organizational forms of science – universities and extra-university research institutes – show that universities were and are the main producers of scientific publications in STEM+ from 1975 to 2010 (see figure 18, p. 217). On average, university-based researchers produced 60% of all articles and defended their status against other organizational forms, which leads to the rejection of the Mode 2 hypothesis. Non-university publications reached an average of 40%. But that does not mean that other organizational forms were not producing science as well. The percentage share of articles is ultrastable and shows only marginal variations. The thesis that the proportion of university publications should decrease over time can be rejected for the period from 1975 to 2010. This suggests that scientific productivity of universities is actually rising, since despite decreasing financial support (R&D) in favor of extra-university research institutes, the universities produced more research articles with less resources over time. Fourth, although not only scientists within universities and research institutes publish their research in scientific journals, jointly these organizational forms have produced more than three-quarters of all research articles since 1980. Already in the earlier years, they produced a large number of scientific articles. Other organizational forms also generate scientific knowledge (for an extensive description of the organizational form matrix, see table 4, pp. 222f.). Especially scientists in firms, government agencies, and hospitals publish articles in peer-reviewed journals in STEM+ (see figures 19 and 20; pp. 220, 246). Indeed, the universities have been the driving force of scientific productivity for more than a century. With their specific orientation to basic research and their linkage of research and teaching, they provide conditions that facilitate the production of science. Universities are among the oldest institutions with a high degree of institutionalization. All other organizational forms (academies, associations, infrastructures, laboratories, military, museums and non-university education) were identified in the dataset played only a minor role and were summarized in the category "further types". Fifth, the analysis of the ten most research-intensive single organizations in Germany in the year 2010 confirmed the results. Only universities and institutes were part of this group. A summary of publications of single institutes under their umbrella organizations shows that the institutes of the Max Planck Society and of the Helmholtz Association are the leading science producers in Germany, outpacing the scientific productivity of universities, but only when aggregating the contributions of dozens of individual institutes (see table 5, p. 259f). An analysis of single institutes shows that these research institutes cannot compete with universities, because of their size and the number of researchers. The Charite – Universitätsmedizin Berlin, a hybrid organization, is another leading science producer in Germany. National and international cooperation of scientific research Finally, increasing internationalization of research has impacted on national and international cooperation. leading to collaboratively-written publications in scientific journals. Through advancing globalization, national and international scientific cooperation increased in volume and importance. International cooperation in STEM+ is facilitated by the reputation of the research organization and of the co-authors, higher visibility within the scientific community and more possibilities for interdisciplinary research as well as better or more specialized facilities. Today, more than a third of all research articles worldwide are produced in scientific collaboration; only around a quarter are single-authored articles. In contrast to Humboldt's principle "in Einsamkeit und Freiheit" (in loneliness and freedom), research is no longer done by one scientist, but is much more likely the result of collaboration. Research networks are increasingly important, and researchers share their common interests on a research question, publishing their results in joint publications. Researchers, organizations, and indeed countries differ in the ways they organize their research and thus how they enable research and collaboration. This depends on location, size, higher education and science system, the organizational field and organizations. Here, varying patterns of scientific cooperation were presented, showing a massive increase in scientific collaboration in (inter)national co-authorships over time. Until the 1990s, researchers in all investigated countries (France, Germany, Great Britain, USA, Japan, China, Belgium, Luxembourg) published their research articles mainly as single-authored papers. Only since the 1990s have co- and multi-authored publications risen (considerably): In 2000, only a third of all publications were published by one author. In 2010, the proportion reached its lowest level with only one-fifth of all papers single-authored (see table 6, pp. 279f). Countries differ considerably in their amount of collaboratively-written research articles. References Powell, J. J. W. & Dusdal, J. (2016). Europe's Center of Science: Science Productivity in Belgium, France, Germany, and Luxembourg. EuropeNow, 1(1). http://www.europenowjournal.org/2016/11/30/europes-center-of-science-science-productivity-in-belgium-france-germany-and-luxembourg/. Last access: 13.12.2016. Powell, J. J. W. & Dusdal, J. (2017a): Measuring Research Organizations' Contributions to Science Productivity in Science, Technology, Engineering and Math in Germany, France, Belgium, and Luxembourg. Minerva, (). Online first. DOI:10.1007/s11024-017-9327-z. Powell, J. J. W. & Dusdal, J. (2017b in press). The European Center of Science Productivity: Research Universities and Institutes in France, Germany, and the United Kingdom. IN Powell, J. J. W., Baker, D. P. & Fernandez, F. (Hg.) The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing. Powell, J. J. W., Baker, D. P. & Fernandez, F. (2017 in press). The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing. Powell, J. J. W., Fernandez, F., Crist, J. T., Dusdal, J., Zhang, L. & Baker, D. P. (2017 in press). The Worldwide Triumph of the Research University and Globalizing Science. IN Powell, J. W., Baker, D. P. & Fernandez, F. (Hg.) The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing. ; Überblick und Einleitung Bereits der Titel meiner Dissertation "Welche Organisationsformen produzieren Wissenschaft? Expansion, Vielfalt und Kooperation im deutschen Hochschul- und Wissenschaftssystem im globalen Kontext, 1900-2010" verspricht, dass sich dem Thema der Entwicklung wissenschaftlicher Produktivität in Deutschland aus verschiedenen Perspektiven (Analyseebenen, Dimensionen und Zeitrahmen) genähert werden soll. Eingebettet in das international vergleichende Forschungsprojekt Science Productivity, Higher Education, Research and Development, and the Knowledge Society (SPHERE) rückt meine Dissertation die Analyse des Einflusses der Hochschulentwicklung und der wissenschaftlichen Kapazitätsbildung auf die wissenschaftliche Wissensproduktion in den Vordergrund. Es interessiert mich, wie die im deutschen Hochschul- und Wissenschaftssystem vorherrschenden Strukturen und institutionellen Settings die langfristige Entwicklung wissenschaftlicher Produktivität beeinflusst und verändert haben. Besonders vor dem Hintergrund einer voranschreitenden Globalisierung und Internationalisierung der Wissenschaft, einer weltweiten Vernetzung von Wissenschaftlern und der Herausbildung einer Wissensgesellschaft. Die Annäherung an den Forschungsgegentand erfolgt auf der Makro- und Mesoebene: den institutionalisierten und organisationalen Settings, in denen Wissenschaft produziert wurde und wird. Da Informationen zu einzelnen Autoren nicht zur Verfügung standen, können keine Aussagen auf der Mikroebene getroffen werden, wenngleich Publikationen natürlich immer von Individuen verfasst werden und nicht von den hier untersuchten Ländern oder Organisationsformen und Einzelorganisationen. Anhand der Dimensionen Expansion, Vielfalt und Kooperation wird der Untersuchungsrahmen abgesteckt und eine Ordnung der Fragestellung vorgenommen, an denen die Struktur der Arbeit ausgerichtet ist. Der Zeitrahmen der Arbeit umfasst die Jahre 1900 bis 2010, also mehr als ein Jahrhundert (siehe Abschnitt 1.2). Ziel dieser Arbeit ist es darzulegen, warum Wissenschaftler ihre Ergebnisse in Form von Zeitschriftenartikeln publizieren. Es geht unter anderem darum, die Wichtigkeit wissenschaftlicher Erkenntnisse hervorzuheben, da nicht publizierte Ergebnisse für die Wissenschaft nicht existieren und sich aus der Art und Weise, wie publiziert wird, die Organisation der Forschung innerhalb und übergreifend einer Disziplin oder eines Fachs ableiten lässt. In den in dieser Arbeit untersuchten Fächergruppen Mathematik, Ingenieur-, Natur- und Technikwissenschaften sowie Medizin (im Folgenden angelehnt an die englische Abkürzung STEM (Science, Technology, Engineering and Mathematics) plus Medicine als STEM+ bezeichnet) spielen Publikationen in peer reviewed Zeitschriften eine wichtige Rolle – neben Patenten in den angewandteren Fächergruppen sind sie heutzutage das wichtigste Publikationsformat. Sie dienen nicht nur der Dokumentation generierten Wissens, sondern sind auch ein Anzeiger für die Reputation eines Forschers und dienen der Messung wissenschaftlicher Produktivität. Zeitschriftenpublikationen in hochklassigen Zeitschriften, die einem peer review Verfahren unterliegen, können als gold standard zur Messung wissenschaftlicher Produktivität herangezogen werden. In den letzten Jahrzehnten kam es zu einer zunehmenden Verwissenschaftlichung vieler gesellschaftlichen Teilbereiche und die Generierung wissenschaftlichen Wissens rückte immer weiter ins Zentrum des politischen und wirtschaftlichen Interesses, unabhängig davon, wo es produziert wurde. Aus diesem Grund werden die Orte und institutionellen Settings (Organisationen, Organisationsformen) wissenschaftlicher Produktivität (hauptsächlich Universitäten, außeruniversitäre Forschungsinstitute, Unternehmen, Behörden und Ressortforschungseinrichtungen und Krankenhäuser) identifiziert und voneinander abgegrenzt. Indem ihre Gemeinsamkeiten und Unterschiede anhand ihrer Aufgaben und Ziele sowie der Art der Forschung diskutiert werden. In einem ersten Schritt lege ich dar, warum ich diese Arbeit an der Schnittstelle zwischen Hochschul- und Wissenschaftsforschung und der Bibliometrie angelegt habe (siehe Kapitel 2 und 5). Publikationsanalysen werden zwar immer noch als Hauptaufgabe der Bibliometrie gesehen, aber ihre Ergebnisse werden auch von anderen Akteuren wie Hochschulmanagern, Politikern und Wissenschaftlern genutzt, um einerseits Aussagen über die Qualität der Wissenschaft zu treffen, aber auch um sich miteinander zu vergleichen oder steuernd in die Struktur und Organisation einzugreifen und Aussagen über den Output des Hochschul- und Wissenschaftssystems zu treffen. Direkte Aussagen über die Qualität der Forschung auf Basis der Anzahl an Zeitschriftenartikeln, die ein Wissenschaftler publiziert, können nicht getroffen werden, es kann aber über die Qualität einer Zeitschrift (Impactfactor) ein Proxi gebildet werden, mit dessen Hilfe Vergleiche zwischen Disziplinen getroffen werden können. Um wissenschaftliche Produktivität zu messen, müssten ergänzende Parameter hinzugezogen werden. Aus diesem Grund werden in dieser Arbeit lediglich Aussagen über die Quantität wissenschaftlicher Produktivität getroffen, nicht aber über die Qualität der untersuchten Zeitschriftenartikel, die Forschungsleistung einzelner Wissenschaftler, Organisationen oder Organisationsformen und einzelner Länder. Nichtdestotrotz zeigen Indikatoren zur Messung wissenschaftlichen Outputs eine große Expansion wissenschaftlicher Produktivität, eine Stabilität der Universitäten im Zeitverlauf und die Wichtigkeit Deutschlands als Wissensschaftsproduzent sowie eine steigende Differenzierung und Diversifizierung der Organisationsformen. Zudem können die 1990er Jahre als Startpunkt steigender nationaler und internationaler Kooperationen gesehen werden. In Kapitel 2 zum multidisziplinären Kontext der Arbeit zeige ich, in welcher Beziehung sich die Hochschul- und Wissenschaftsforschung in Deutschland zueinander befinden. Wissenschaftliches Wissen nimmt eine Sonderstellung im Vergleich zu anderen Wissensformen ein, da es unter bestimmten Bedingungen, die von der wissenschaftlichen Gemeinschaft selbst bestimmt werden, generiert und verbreitet wird. Um einen Überblick über die wichtigsten Studien innerhalb meines Feldes zu bekommen, und um meine Arbeit in den empirischen Kontext zu rücken, beschreibe ich in Kapitel 3 dieser Arbeit den aktuellen Forschungsstand. Forschungsfragen Abschnitt 1.2 stellt einen detaillierten Überblick über die dieser Arbeit zugrunde liegenden Forschungsfragen bereit: Welche Organisationsformen produzieren Wissenschaft? 1. Wie hat sich die wissenschaftliche Produktivität weltweit und im europäischen Vergleich zwischen 1900 und 2010 entwickelt? 2. Wie war/ist das deutsche Hochschul- und Wissenschaftssystem in die globalen Entwicklungen der Hochschulbildung und Wissenschaft im Zeitverlauf eingebettet? 3. Wie hat sich die wissenschaftliche Produktivität in Deutschland zwischen 1900 und 2010 entwickelt? 4. Unter allen Wissenschaft produzierenden Organisationsformen, was tragen die "klassischen" Formen zur wissenschaftlichen Produktivität bei? 5. Welche Organisationsformen stellen die besten Bedingungen für wissenschaftliche Produktivität bereit? 6. Welche Einzelorganisationen gehören zu den forschungsstärksten in Deutschland? 7. Welchen Einfluss hat die zunehmende Internationalisierung der Forschung auf nationale und internationale Kooperationen in Form von Publikationen in Zeitschriftenartikeln? Theoretischer Rahmen Theoretisch (siehe Kapitel 4) basiert meine Arbeit auf einem neu-institutionellen (NI) Ansatz zur Untersuchung und Erklärung der Expansion des Hochschulwesens und der Wissenschaft weltweit. Trotz des allgemeinen Wachstums wissenschaftlicher Produktivität bestehen beträchtliche Unterschiede zwischen den institutionellen Settings, Organisationsformen und einzelner Organisationen, die maßgeblich zur wissenschaftlichen Produktivität beitragen. Der soziologische NI konzentriert sich auf das Verständnis von Institutionen und Organisationen. Institutionen sind ein wichtiger Baustein, um soziales Handeln und Prozesse der Gesellschaftsentwicklung zu verstehen. Organisationen und Institutionen stehen in einer wechselseitigen Beziehung zueinander. Die zentralen Annahmen des NI wurden von Walter Powell, Paul DiMaggio und Richard Scott formuliert. Meilensteine: der Zusammenhang von Organisation und Gesellschaft und die Annahme, dass formale Organisationsstrukturen Mythen zum Ausdruck bringen, die in ihrer gesellschaftlichen Umwelt institutionalisiert sind. Indem Organisationen diese Mythen erfassen, kopieren und zeremoniell zur Geltung bringen, werden Strukturähnlichkeiten (Isomorphien) zwischen Organisationen und der Gesellschaft hergestellt. Das Konzept der "organisationalen Felder" dient der Beschreibung der Beziehung zwischen verschiedenen Organisationen und beinhaltet alle relevanten Organisationen, die sich mit ihrer gesellschaftlichen Umwelt auseinander setzen. In Abschnitt 4.1.2 werden die Unterschiede zwischen den Begriffen Institutionen und Organisationen diskutiert, da diese besonders in der deutschsprachigen Soziologie nicht trennscharf genutzt werden. Grundsätzlich unterscheiden sich Ansätze institutioneller Theorie in ihrer Anwendungsebene, sie sind aber durch ihren Überbau miteinander verschränkt. Folglich ist der NI als theoretische Basis besonders gut geeignet, um eine Mehrebenenanalyse der wissenschaftlichen Produktivität zeit- und ortsübergreifend durchzuführen. Die historische Entwicklung des deutschen Hochschul- und Wissenschaftssystems kann nicht ohne eine Berücksichtigung der globalen Entwicklungen durchgeführt werden, da es einerseits einen enormen Einfluss auf die Entwicklung anderer Systeme weltweit hatte/hat und andererseits globale Entwicklungen die Institutionalisierung und Organisation der Wissenschaft in Deutschland beeinflussen. Intersektorale und internationale Kooperationen sind im Zeitverlauf angewachsen, werden immer wichtiger und führen zu ausgeprägten Netzwerken innerhalb und zwischen Hochschul- und Wissenschaftssystemen weltweit. Aufgrund einer zunehmenden Verzahnung einzelner Länder und den damit einhergehenden Wechselwirkungen zwischen den unterschiedlichen Analyseebenen (makro, meso, mikro) ist eine klassische, nationalstaatliche Analyse nicht mehr zielführend. Nichtsdestotrotz können Länder als vergleichbare Einheiten gesehen werden, da sie über klar definierte Grenzen und Strukturen verfügen. Die unterschiedlichen theoretischen Perspektiven und Analyseebenen werden in Abbildung 5 genauer beschrieben. Der theoretische Ansatz der "Weltkultur" bietet eine breitere Linse des soziologischen NI auf die globale Arena. Der Fokus liegt auf globalen und internationalen Strukturen und Prozessen, die sich über lange Zeit entwickelt haben. Mit Hilfe dieser Perspektive können globale Diffusion und formale Strukturen der Entkopplung von formalen Grundsätzen und praktischer Anwendung erklärt werden. Zusammen nehmen der historische und soziologische Institutionalismus zeitliche Entwicklungen und Prozesse in den Blick, die erklären, wie Institutionen entstehen und sich verändern. Die Konzepte critical junctures und Pfadabhängigkeit sollen helfen diese Prozesse auf der Mesoebene zu verstehen. Um die Transformation der Wissensproduktion im Zeitverlauf des 20. Jahrhunderts zu verstehen und um zu analysieren, welche Organisationsformen an der Produktion wissenschaftlichen Wissens beteiligt waren, werden zwei theoretische Konzepte herangezogen: Modus 1 versus Modus 2 Wissenschaft und das Triple-Helix Modell zur Beschreibung der Beziehung zwischen Wissenschaft, Industrie und Staat. In The New Production of Knowledge beschreiben Michael Gibbons und seine Kollegen den Wandel der Wissenschaft von einer akademischen, disziplinären und autonomen, traditionellen, Organisation der Wissenschaft (Modus 1) mit einem Schwerpunkt auf Universitäten als wichtigste Organisationsform, hin zu einer anwendungsorientierteren, transdisziplinären, diversen und reflexiven Organisation der Wissenschaft (Modus 2), die eine diversere Organisation der Wissenschaft unterstützt und auf einem breiteren organisationalen Setting der Wissensproduktion beruht. Innerhalb der Literatur wird diskutiert, ob das neue Modell das alte ersetzen soll und welches der Modelle die gegenwärtige Organisation der Wissenschaft am besten beschreibt. Im Gegensatz hierzu bleibt beim Triple-Helix Modell die historische Rolle der Universitäten erhalten. Der Ansatz geht davon aus, dass zukünftige Innovationen aus einer Beziehung von Universitäten (Wissensproduktion), Industrie (Generierung von Wohlstand) und dem Staat (Kontrolle) resultieren. Daten und Methoden In dieser Arbeit werden ausschließlich Publikationen in peer reviewed Zeitschriften als Kennzeichen wissenschaftlicher Produktivität herangezogen. Dieser Schwerpunkt ermöglicht mir eine tiefgreifende Analyse von Publikationen über einen Zeitraum von mehr als einem Jahrhundert. Zeitschriftenartikel in hochklassigen und möglichst internationalen Journalen bilden den gold standard wissenschaftlichen Outputs in den hier untersuchten Mathematik, Ingenieur-, Natur- und Technikwissenschaften sowie der Medizin (STEM+). Meine Daten basieren auf einem stratifizierten, repräsentativen Sample (siehe ausführlich Kapitel 6) publizierter Zeitschriften, die als Rohdaten aus Thomson Reuters Web of Science Science Citation Index Expanded (SCIE) zur Analyse zur Verfügung stehen (eine vergleichbare Datenbank stellt Elseviers Scopus bereit). Methodologisch wird eine Kombination aus einer vergleichenden institutionelle Analyse ausgewählter Länder, eine historische Untersuchung des deutschen Hochschul- und Wissenschaftssystems und eine systematische, globale Auswertung bibliometrischer Publikationsdaten angestrebt. Der SCIE umfasst mehr als 90 Millionen Einträge (gespeichert werden nahezu alle Typen wissenschaftlichen Outputs), hauptsächlich aus den oben genannten Fächergruppen. Diese Arbeit beschränkt sich auf originale Zeitschriftenartikel (Originalmitteilungen), da lediglich dieser Publikationstyp zertifiziertes und neues Wissen enthält. Der SPHERE Datensatz umfasst publizierte Zeitschriftenartikel aus den Jahren 1900 bis 2010. Von 1900 bis 1970 wurden die Daten in 5-Jahres-Schritten mittels einer geschichteten Zufallsstichprobe ausgewählt. Ab 1975 stehen die Daten vollständig und ab 1980 in Jahresschritten zur Verfügung. Abhängig von der untersuchten Fragestellung werden die Daten in 5-Jahres- oder 10-Jahres-Schritten analysiert. Eine detaillierte Beschreibung des Samplings und der Gewichtung der Daten kann den Abschnitten 6.2.2 und 6.8 entnommen werden. Unter Berücksichtigung dieser Kriterien werden 17.568 unterschiedliche Zeitschriften (42.963 Zeitschriften, wenn dieselbe Zeitschrift in unterschiedlichen Jahren mehrfach berücksichtigt wird) und 5.089.233 Forschungsartikel untersucht. Um die Daten für die Analyse aufzubereiten muss eine intensive Vorarbeit geleistet werden. Sie werden umfassend (nach-)kodiert und bereinigt. Besonders häufig sind Fehler oder fehlende Informationen auf Ebene der Länder und/oder der Organisationen/Organisationsformen, in denen die Forschung betrieben wurde. Im Zeitraum von Juni 2013 bis Dezember 2015 habe ich die Originalzeitschriften und -artikel in Online-Zeitschriftendatenbanken oder Archiven verschiedener Universitätsbibliotheken eingesehen, begutachtet und mit Hilfe einer Excel-Tabelle katalogisiert und fehlende Informationen, wenn vorhanden, ergänzt. In der Bibliometrie werden verschiedene Vorgehensweisen diskutiert, wie Publikationen gezählt werden können. Die Analysen dieser Arbeit basieren hauptsächlich auf der whole count Methode (siehe Tabelle 1). Die Entscheidung basiert auf der Annahme, dass jeder Autor, jede Organisation, oder jedes Land gleichermaßen zu einer Publikation beigetragen hat. Folglich kann es zu einer Verzerrung bzw. Überschätzung der Ergebnisse kommen, da Zeitschriftenartikel mehrfach gezählt werden, wenn sie in Form von Forschungskooperationen publiziert wurden. Um die absolute Anzahl an Publikationen (weltweit, Europa, Deutschland) zu ermitteln, wird die Gesamtzahl an Artikeln pro Jahr (ohne Duplikate) berechnet. Zusammenfassung der wichtigsten Ergebnisse Der empirische Teil meiner Arbeit ist in drei Teile untergliedert. Die folgenden Abschnitte fassen die jeweils wichtigsten Ergebnisse zusammen. The Global Picture – Hochschul- und Wissenschaftssysteme im Vergleich Im Mittelpunkt meiner Dissertation steht die Frage, welche Organisationsformen Wissenschaft produzieren. Um die Ergebnisse der detaillierten Fallstudie einordnen und bewerten zu können, erfolgt zunächst eine Einbettung in den globalen und europäischen Kontext. Die forschungsleitenden Fragen, wie hat sich die wissenschaftliche Produktivität weltweit und im europäischen Vergleich zwischen 1900 und 2010 entwickelt und wie war/ist das deutsche Hochschul- und Wissenschaftssystem in die globalen Entwicklungen der Hochschulbildung und Wissenschaft im zeitverlauf eingebettet, wird folgendermaßen beantwortet: In einem ersten Schritt wird gezeigt, dass das weltweite wissenschaftliche Wachstum zwischen 1900 und 2010 exponentiell verlief und dieser Trend vermutlich bis heute anhält (siehe Abbildungen 3 und 10, S. 50, 147). Die massive Ausdehnung wissenschaftlichen Wissens hatte und hat auch heute noch einen großen Einfluss auf gesellschaftliche Entwicklungen, die nicht auf den wirtschaftlichen und technischen Fortschritt beschränkt sind. Ich werde darstellen, dass Hochschul- und Wissenschaftssysteme weltweite Gemeinsamkeiten aufweisen, die zu einer ähnlichen Entwicklung und Ausweitung wissenschaftlicher Produktivität geführt haben. Im Vergleich wichtiger europäischer Länder (Deutschland im Vergleich mit Großbritannien, Frankreich, Belgien und Luxemburg), kann gezeigt werden, dass zwischen der weltweiten Ausweitung der Wissenschaft, dem Anstieg an Publikationen und der Expansion von modernen Forschungsuniversitäten ein Zusammenhang besteht (siehe Abschnitt 7.2; Powell, Dusdal 2016, 2017a; 2017b im Druck). So wurde ein globales Feld der Wissenschaft aufgespannt, das als übergeordneter Rahmen fungiert. Drei geografische Zentren wissenschaftlicher Produktivität werden im Zeitverlauf identifiziert: Europa, Nordamerika und Asien. Sie haben zu unterschiedlichen Zeitpunkten an Bedeutung gewonnen oder verloren, doch zum heutigen Zeitpunkt tragen sie alle zur wissenschaftlichen Produktivität in den untersuchten Fächergruppen bei. Allerdings sind besonders in Asien die Wachstumsraten massiv angestiegen (Powell et al 2017 im Druck). Zweitens investieren alle Länder weltweit in Forschung und Entwicklung (FuE) (siehe Abbildung 9, S. 140). Diese Investitionen haben einen Einfluss auf ihre wissenschaftliche Produktivität. Zwischen einzelnen Ländern sind zum Teil große Unterschiede in der absoluten Publikationszahl und der relativen wissenschaftlichen Produktivität feststellbar. Nicht nur Investitionen in FuE tragen zur Expansion der Wissenschaft bei, sondern auch die Anmeldung von Patenten, höhere Studierendenzahlen, eine gestiegene Anzahl an Forschern, die Ausweitung von Forschungsaktivitäten in viele gesellschaftliche Teilbereiche, die Entwicklung von Forschungsprodukten und Neugründungen von Universitäten (Powell, Baker, Fernandez 2017 im Druck). Im Zuge der Hochschulexpansion und der Massifizierung der Hochschulbildung in den 1960er und 70er Jahren sind besonders die Studierendenzahlen und die Anzahl der Wissenschaftler extrem angestiegen. Es kam also zur Ausweitung des kompletten Hochschul- und Wissenschaftssystems und nicht nur zu einer Erhöhung der Anzahl an Publikationen. Im Umkehrschluss kann ein Teil des Anstiegs wissenschaftlicher Publikationen auf eine steigende Anzahl an Wissenschaftlern zurückgeführt werden. Drittens kann die von Derek J. de Solla Price aufgestellte These, dass das exponentielle Wachstum wissenschaftlicher Literatur irgendwann abflachen müsse, wiederlegt werden (siehe Abschnitt 2.4; Abbildungen 4 und 10, S. 53, 147). Obwohl einschneidende historische, politische, wirtschaftliche und technologische Ereignisse sowie Ereignisse bezogen auf die Hochschulen und Wissenschaft (siehe Abbildung 11, S. 150) kurzfristig zu einer Verringerung der Publikationszahlen geführt haben, wurde die Wachstumskurve nicht nachhaltig beeinflusst. Im Jahr 2010 wurden weltweit fast eine Million Zeitschriftenartikel in den Natur- und Technikwissenschaften sowie der Medizin publiziert. In Abschnitt 7.2.2 zeige ich, dass die Anzahl der publizierten Zeitschriftenartikel im Verhältnis zu den Ausgaben für FuE, der Größe der Hochschul- und Wissenschaftssysteme und der Anzahl der Einwohner (siehe Abbildung 12, S. 159) und Wissenschaftler (siehe Tabelle 3, S. 162; Abbildung 13, S. 164) relativiert werden müssen. Die anfängliche extreme Expansion der wissenschaftlichen Publikationen in den Mathematik, Ingenieur-, Natur- und Technikwissenschaften sowie der Medizin basiert auf einem allgemeinen Wachstum der Hochschul- und Wissenschaftssysteme (siehe oben). Unterschiedliche institutionelle Settings und Organisationsformen, in denen Wissenschaft produziert wird, haben einen Einfluss auf die wissenschaftliche Produktivität. Anhand der ausgewählten Fallbeispiele (Deutschland, Großbritannien, Frankreich, Belgien und Luxemburg) werde ich darlegen, dass Hochschul- und Wissenschaftssysteme, die über forschungsstarke Universitäten verfügen, höchst produktiv sind. Es kommt also nicht nur darauf an, wie viele Wissenschaftler innerhalb eines Systems beschäftigt werden, sondern auch darauf, in welchen institutionellen Settings sie arbeiten. Fünftens, im internationalen Vergleich trägt Deutschland immer noch erheblich zur wissenschaftlichen Produktivität in den untersuchten Fächern bei. Mit einer Wachstumsrate von 3,35% Prozent folgt Deutschland den USA und Japan. Im Jahr 2014 wurden in Deutschland 84,5 Mrd./€ für FuE von der Regierung bereitgestellt. Dies entspricht einem Anteil von 2,9 Prozent des BIP. Somit wurde der EU-Richtwert von 2020 von 3 Prozent lediglich knapp verfehlt. Im Jahr 2010 wurden in Deutschland insgesamt 55.009 Zeitschriftenartikel in den STEM+-Fächern publiziert (siehe Tabelle A5 im Anhang). Im Vergleich der absoluten Zahlen mit Großbritannien, Frankreich, Belgien und Luxemburg nimmt das Land die Spitzenposition ein. Die Größe des Hochschul- und Wissenschaftssystems hat somit einen Einfluss auf die Publikationsleistung. Werden die Zahlen in einem nächsten Schritt mit anderen Schlüsselindikatoren in Beziehung gesetzt, verändert sich die Leistung der miteinander verglichenen Systeme zum Teil erheblich. Gemessen an der Einwohnerzahl werden in Deutschland weniger Zeitschriftenartikel publiziert als in Belgien oder Großbritannien. Die Anzahl der beschäftigten Wissenschaftler betrug in Deutschland im selben Jahr 1000:4. Nur in Luxemburg und Großbritannien ist das Verhältnis von Wissenschaftlern zur Einwohnerzahl größer. Das Zusammenspiel der Organisationsformen der Wissenschaft in Deutschland von 1900 bis 2010 Auf Basis der Analysen zum globalen und europäischen Kontext der Entwicklung wissenschaftlicher Produktivität im Zeitverlauf (siehe Kapitel 7) folgt eine tiefgreifende, institutionelle Analyse des deutschen Hochschul- und Wissenschaftssystems (siehe Kapitel 8). Sie dient als Ein- und Überleitung zur detaillierten empirischen Auswertung der Daten zum deutschen Hochschul- und Wissenschaftssystem. Hier werden die wichtigsten Institutionen und Organisationen sowie das organisationale Feld der Wissenschaft (Universitäten, Fachhochschulen, außeruniversitäre Forschungseinrichtungen) vorgestellt. Zudem diskutiere ich die Unterschiede zwischen Ost- und Westdeutschland zur Zeit des geteilten Deutschlands (1945-1990). Eine Zusammenfassung der wichtigsten Ergebnisse zeigt, dass die Entwicklung der Publikationszahlen in Deutschland dem weltweiten und europäischen Trend (im kleineren Umfang) folgt (siehe Abbildung 16, S. 208). Es kam sowohl zu einer Expansion des wissenschaftlichen Wissens in Form eines exponentiellen Anstiegs an Publikationen, als auch zu einer Erhöhung der Vielfalt wissenschaftlicher Produktivität im Zeitverlauf (siehe Abschnitte 9.1 und 9.3). Die folgenden vier Forschungsfragen werden beantwortet: Wie hat sich die wissenschaftliche Produktivität in Deutschland zwischen 1900 und 2010 entwickelt? Unter allen Wissenschaft produzierenden Organisationsformen, was tragen die "klassischen" Formen zur wissenschaftlichen Produktivität bei? Welche Organisationsformen stellen die besten Bedingungen für wissenschaftliche Produktivität bereit? Welche Einzelorganisationen gehören zu den forschungsstärksten in Deutschland? Wie oben beschrieben, verläuft das Wachstum wissenschaftlicher Produktivität in Deutschland zwischen den Jahren 1900 und 2010 exponentiell. Die Kurve ist vergleichbar mit der weltweiten und europäischen Entwicklung, wenn auch in kleinerem Umfang. Zwar hatten auch hier verschiedene Ereignisse, wie der Zweite Weltkrieg, die Weltwirtschaftskrise oder die Wiedervereinigung, einen kurzfristigen Einfluss, allerdings kam es zu keiner Verlangsamung oder Abflachung des Wachstums (siehe Abbildung 11, S. 150). Bis ins Jahr 2010 wuchs die Anzahl der publizierten Zeitschriftenartikel in Deutschland auf 55.009 an. Zweitens, zeigt eine detaillierte Betrachtung der wissenschaftlichen Produktivität Westdeutschlands im Vergleich zu Ostdeutschland, dass der Anstieg der gesamtdeutschen Publikationszahlen auf einem Anstieg der Zahlen in Westdeutschland basiert (siehe Abbildung 17, S. 211). Zwischen 1950 und 1990 verlief die Kurve der wissenschaftlichen Produktivität in der DDR flach und auf einem niedrigen Niveau. Hieraus kann geschlossen werden, dass das Hochschul- und Wissenschaftssystem der DDR, aufbauend auf seinem Akademiemodell, keine guten Bedingungen für wissenschaftliche Forschung bereitgestellt hat. Drittens, zeigt die detaillierte Analyse der "klassischen" Organisationsformen der Wissenschaft, Universitäten und außeruniversitäre Forschungsinstitute, dass Universitäten im Zeitraum von 1975 bis 2010 in den STEM+-Fächern die Hauptproduzenten wissenschaftlicher Zeitschriftenartikel waren und sind (siehe Abbildung 18, S. 217). Im Untersuchungszeitraum beträgt der prozentuale Anteil der universitätsbasierten Forschung im Mittel 60 Prozent. Somit verteidigen sie ihren Status als wichtigste Organisationsform gegenüber anderen. Die Modus 2 Hypothese, dass es im Zeitverlauf zu einem Absinken des prozentualen Anteils der Universitäten kommen muss, wird verworfen. Der Anteil der Nicht-Universitäten liegt hingegen im Durchschnitt bei 40 Prozent. Obwohl die Richtigkeit der folgenden Aussage nicht empirisch überprüft werden kann, wird davon ausgegangen, dass es sich tatsächlich sogar um einen Anstieg wissenschaftlicher Produktivität der Universitäten im Zeitverlauf handelt. Unter Berücksichtigung einer Verschiebung der zur Verfügung stehenden finanziellen Mittel für FuE zugunsten der außeruniversitären Forschungsinstitute haben die Universitäten im Zeitverlauf mit weniger Forschungsgeldern immer mehr wissenschaftliche Zeitschriftenartikel publiziert. Viertens, obwohl nicht nur Wissenschaftler innerhalb von Universitäten und Forschungsinstituten Zeitschriftenartikel veröffentlichen, haben diese beiden Organisationsformen zusammen mehr als drei Viertel aller Publikationen seit den 1980er Jahren verfasst. Aber auch schon in den Jahren zuvor ist ihr gemeinsamer Anteil sehr hoch. Zu den wichtigsten Wissenschaftsproduzenten gehören neben ihnen die (Industrie-)Unternehmen, Behörden und Ressortforschungseinrichtungen und Krankenhäuser (für eine ausführliche Beschreibung der Matrix der Organisationsformen siehe Tabelle 4, S. 222f und Abbildungen 19 und 20, S. 220, 246). Dennoch sind die Universitäten die treibende Kraft wissenschaftlicher Produktivität seit mehr als einem Jahrhundert. Mit ihrer speziellen Ausrichtung auf Grundlagenforschung stellen sie die besten Bedingungen für wissenschaftliche Forschung bereit und gehören zu den ältesten Institutionen mit einem hohen Institutionalisierungsgrad. Universitäten sind widerstandsfähig gegenüber Veränderungen und critical junctures haben keinen negativen Einfluss auf ihre wissenschaftliche Produktivität. Alle anderen im Datensatz gefundenen oder aus der Theorie abgeleiteten Organisationsformen (Akademien, Vereine/Gesellschaften, wissenschaftliche Infrastrukturen, Laboratorien, Militär, Museen und nichtuniversitäre Bildungseinrichtungen) spielen nur eine untergeordnete Rolle und wurden in der Gruppe "sonstige" Organisationsformen zusammengefasst. Fünftens, eine Auswertung der zehn forschungsstärksten Einzelorganisationen Deutschlands im Jahr 2010 bestätigt die oben beschriebenen Ergebnisse, da lediglich Universitäten und außeruniversitäre Forschungsinstitute dieser Spitzengruppe zugehören. Eine Zusammenfassung der Publikationen der Institute unter ihrer Dachorganisation zeigt, dass die Institute der Max-Planck-Gesellschaft und der Helmholtz-Gemeinschaft maßgeblich zur Produktion wissenschaftlichen Wissens in Deutschland beitragen. Sie übertreffen zusammengezählt die Publikationstätigkeit einzelner Universitäten bei weitem (siehe Tabelle 5, S. 259f). Eine Einzelauswertung der Institute zeigt aber auch, dass sie allgemein genommen, aufgrund ihrer Größe und der Anzahl der Wissenschaftler, nicht mit den Universitäten konkurrieren können. Zudem gehört die hybride Organisation, die Charité – Universitätsmedizin Berlin zu den führenden zehn Wissenschaftsproduzenten im deutschen Hochschul- und Wissenschaftssystem. Nationale und internationale Kooperationen wissenschaftlicher Forschung Im letzten empirischen Kapitel der Arbeit wird auf der Makroebene die Frage beantwortet, welchen Einfluss die zunehmende Internationalisierung der Forschung auf nationale und internationale Kooperationen in Form von Publikationen in wissenschaftlichen Zeitschriften hat. Durch die voranschreitende Globalisierung und Internationalisierung haben nationale und internationale Kooperationen stark zugenommen. Zu den wichtigsten Gründen für (internationale) Kooperationen in den Mathematik, Ingenieur-, Natur- und Technikwissenschaften sowie der Medizin zählen unter anderen die Reputation der Forschungsorganisation und der Mitautoren, eine höhere Sichtbarkeit innerhalb der wissenschaftlichen Gemeinschaft, mehr Möglichkeiten für interdisziplinäre Forschung oder auch eine bessere Ausstattung der Labore. Heute sind bereits ein Drittel aller Forschungsartikel weltweit das Ergebnis wissenschaftlicher Kooperationen und lediglich ein Viertel wird von einem Autoren verfasst. Übertragen auf die Organisation der Forschung bedeutet der von Humboldt geprägte Leitsatz "in Einsamkeit und Freiheit", dass wissenschaftliche Forschung nicht mehr in alleiniger Verantwortung eines Wissenschaftlers durchgeführt wird, sondern das Ergebnis von Kooperationen ist. Netzwerke werden immer wichtiger, um gemeinsame Interessen zu teilen, an einer Fragestellung zu arbeiten sowie die aus der Forschung gewonnenen Erkenntnisse gemeinsam zu publizieren. Wissenschaftler, Organisationen und Länder unterscheiden sich dahingehend, wie sie ihre Forschung organisieren und folglich auch darin, wie sie ihre wissenschaftliche Zusammenarbeit gestalten. Diese Wege sind abhängig von der geografischen Lage und Größe des Hochschul- und Wissenschaftssystems, dem organisationalen Feld und den Einzelorganisationen. In dieser Arbeit werden unterschiedliche Muster wissenschaftlicher Zusammenarbeit präsentiert. Die Ergebnisse zeigen einen massiven Anstieg wissenschaftlicher Kooperationen in Form von gemeinsamen Publikationen im Zeitverlauf. Bis in die 1990er Jahre hinein publizierten die Wissenschaftler in den hier untersuchten Länder (Frankreich, Deutschland, Großbritannien, USA, Japan, China, Belgien und Luxemburg) hauptsächlich in Alleinautorenschaft. Erst danach kam es zu einem Anstieg an Kooperationen: Im Jahr 2000 wurden lediglich 37 Prozent aller Artikel von einem Autor verfasst. Im Jahr 2010 erreichte der Anteil einen Tiefststand von lediglich einem Fünftel Alleinautorenschaften (siehe Tabelle 6, S. 279f). Allerdings unterschieden sich die Länder hinsichtlich ihres Anteils an Ko-Autorenschaften zum Teil deutlich voneinander. Literatur Powell, J. J. W. & Dusdal, J. (2016). Europe's Center of Science: Science Productivity in Belgium, France, Germany, and Luxembourg. EuropeNow, 1(1). http://www.europenowjournal.org/2016/11/30/europes-center-of-science-science-productivity-in-belgium-france-germany-and-luxembourg/. Zugriff: 13.12.2016. Powell, J. J. W. & Dusdal, J. (2017a): Measuring Research Organizations' Contributions to Science Productivity in Science, Technology, Engineering and Math in Germany, France, Belgium, and Luxembourg. Minerva, (). Online first. DOI:10.1007/s11024-017-9327-z. Powell, J. J. W. & Dusdal, J. (2017b im Druck). The European Center of Science Productivity: Research Universities and Institutes in France, Germany, and the United Kingdom. IN Powell, J. J. W., Baker, D. P. & Fernandez, F. (Hg.) The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing. Powell, J. J. W., Baker, D. P. & Fernandez, F. (2017, im Druck). The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing. Powell, J. J. W., Fernandez, F., Crist, J. T., Dusdal, J., Zhang, L. & Baker, D. P. (2017, im Druck). The Worldwide Triumph of the Research University and Globalizing Science. IN Powell, J. W., Baker, D. P. & Fernandez, F. (Hg.) The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing.
Für weitere Informationen zur Variablenliste siehe die Dokumentation (Codebook) des CSES Module 1-3 Harmonized Trend File. Informationen zum Inhalt können den Studiennummern ZA5179 CSES Module 1 Full Release, ZA5180 CSES Module 2 Full Release, und ZA5181 CSES Module 3 Full Release entnommen werden.