Ein ausgewogenes Geschlechterverhältnis verbessert die Leistungsfähigkeit von Teams, das ökonomische Wachstum von Unternehmen und deren Innovationsfähigkeit (vgl. Europäische Kommission 2011a, S. 4f; vgl. auch Corkery & Taylor 2012, S. 9). Obwohl in vielen Organisationen und Unternehmen diese Fakten mittlerweile bekannt sind, ist das Potenzial eines ausgewogenen Frauen- und Männeranteils in mittleren und hohen Karrierestufen nach wie vor unzureichend erschlossen. So zeigen die Daten des Statistischen Bundesamtes für das Jahr 2014, dass in akademischen und wissenschaftlichen Karrierewegen der Anteil an Frauen in Positionen mit steigendem Qualifikationsniveau und Status kontinuierlich abnimmt, und dies trotz der heute stark angeglichenen Ausbildungsqualifizierung von Frauen und Männern. In den höchsten Ebenen im Wissenschaftsbereich sind nur noch wenige Frauen vertreten (vgl. Statistisches Bundesamt 2014b, S. 3). Differenzen im Karriereverlauf von Frauen und Männern finden sich also bis heute in der Wissenschaft. Doch was sind die Gründe für diesen Scherenverlauf der Karrierewege von Wissenschaftlerinnen und Wissenschaftlern in Deutschland? Die Gründe liegen in einem Zusammenspiel kleinerer Vor- und Nachteile im gesamten Umfeld der Geschlechter, wie Ulmi und Maurer (2005, S. 35) resümieren. Denn grundsätzlich belegen Studienergebnisse, dass Wissenschaftlerinnen und Wissenschaftler unter identischen Rahmenbedingungen gleich produktiv sind (vgl. Andresen, Oppen & Simon 1999, S. 24). Ein einzelner Faktor oder Zeitpunkt kann somit für die im Verlauf auseinanderklaffenden Karrieren von Wissenschaftlerinnen und Wissenschaftlern nicht herangezogen werden. Bisher finden sich in der einschlägigen Literatur nur wenige Studien, die bei der Analyse von Wissenschaftskarrieren das Zusammenwirken von institutionellen Rahmenbedingungen sowie die Subjektseite berücksichtigen, wenngleich dieser Kombination beider Perspektiven eine bedeutende Rolle zukommt (vgl. Andresen et al. 1999, S. 40; vgl. auch Döge & Behnke 2004). Zudem fokussieren vorhandene Untersuchungen weitestgehend auf den Karriereverlauf nach einer kindbedingten Erwerbungsunterbrechung (u. a. Bauer, T. 2000; Krimmer, Stallmann, Behr & Zimmer 2003; Brandt 2012). Die vorliegende Studie analysiert unter Berücksichtigung beider Perspektiven die karrierebeeinflussenden – meritokratischen, individuellen und strukturellen – Einflussfaktoren von Wissenschaftskarrieren am Beispiel der Leibniz-Gemeinschaft als erste nicht-universitäre Wissenschaftsorganisation in Deutschland, die im Jahr 2012 flexible Zielquoten für Frauen einführte (vgl. Leibniz-Gemeinschaft 2013a, S. 1). Gleichzeitig werden Geschlechterunterschiede in Bezug auf die Faktorengruppen bzw. im wissenschaftlichen Karriereverlauf herausgearbeitet. Mit Blick auf die bestehende Unterrepräsentation von Frauen in höheren wissenschaftlichen Führungsebenen sollen des Weiteren die Gründe für den geringen Frauenanteil in höheren Positionen im Wissenschaftsbereich und zudem die Nutzungs- und Akzeptanzmuster von egalitärem Elternzeit-Modell, familienorientiertem Arbeitsplatz und flexiblen Frauenquoten auf der Mikro-, Meso- und Makroebene als Maßnahmen für mehr Geschlechtergleichstellung im Wissenschaftsbereich analysiert werden. Zur Erforschung des Studienthemas werden quantitative und qualitative Erhebungsverfahren kombiniert. Denn erst durch das Zusammenspiel qualitativer und quantitativer Methoden erhält man ein verlässliches Gesamtbild des zu untersuchenden sozialen Gegenstandes (vgl. Diekmann 2009, S. 543). Während die Daten der Online-Befragung unter allen Beschäftigten der Leibniz-Gemeinschaft (Vollerhebung) die Basis für allgemeine Aussagen in Bezug auf Wissenschaftskarrieren in der Leibniz-Gemeinschaft liefern und gleichzeitig mit ihnen die aufgestellten Hypothesen überprüft werden, vertiefen die vier durchgeführten leitfadengestützten Interviews mit Leibniz-Wissenschaftlerinnen und ihren Partnern die quantitativen Daten und unterfüttern sie exemplarisch mit individuellen Aussagen zum Forschungsthema. Bei den meritokratischen Faktoren bestätigen die gewonnenen Daten statistisch signifikant die Annahme, dass eine hohe Publikationsproduktivität der stärkste Karrieremotor für eine Wissenschaftskarriere ist. Dies gilt einerseits für das Erreichen einer höheren Position sowie auch für den erfolgreichen Durchlauf der Qualifizierungsphasen von der Promotion bis hin zur Habilitation und Professur. Aber auch die Bedeutsamkeit von Auslandsaufenthalten und Mitgliedschaften in Fachgesellschaften als karrierefördernde Faktoren konnte bestätigt werden, wenngleich deren Einflussstärke hinter der von Publikationen zurückbleibt. Des Weiteren zeigt die Datenlage, dass die befragten Wissenschaftlerinnen nicht immer die gleichen Karrierechancen im Wissenschaftsbereich wie ihre männlichen Kollegen – trotz gleicher Leistungen und Erfahrungen – haben. So bleibt unter Kontrolle des Alters trotz gleicher Publikationsanzahl und Anzahl an Mitgliedschaften bei der erreichten Position ein signifikanter Unterschied zwischen den Geschlechtern zugunsten der Männer bestehen. Bei den strukturellen Faktoren haben sich die geschlechtsspezifische Fächerwahl (Fächergruppe), die Anzahl familienfreundlicher Unterstützungsmaßnahmen am Arbeitsplatz und die Akzeptanz von Frauenquoten in dieser Studie als Erklärungsvariable für den Scherenverlauf der Wissenschaftskarrieren der Geschlechter nicht bestätigt. Bei den individuellen Faktoren wird die Arbeitgeberorientierung (vgl. Vogt 2010) von Frauen und Männern ausgeschlossen. Ein individueller Faktor, der jedoch messbar einen Erklärungsanteil in dieser Studie einnimmt, ist der Faktor Kind bzw. das Vorhandensein von Kindern. Die Ergebnisse der Online-Befragung zeigen, dass in Bezug auf die Wissenschaftskarriere kinderlose Befragte erfolgreicher als Befragte mit Kind(ern) sind. Zudem gibt es Geschlechterunterschiede: Väter sind gegenüber Müttern hinsichtlich ihrer erreichten Position erfolgreicher. Folglich kann es nicht die Elternschaft per se sein, die eine Wissenschaftskarriere beeinflusst. Studien konnten einen direkt messbaren Einkommensnachteil für Frauen bzw. Karriereknick durch die (längere) Inanspruchnahme einer Elternzeit nachweisen (vgl. Ruhm 1998; vgl. auch Boll 2009; Busch 2013a; Brandt 2012), sodass die Ergebnisse zur Elternzeit als Einflussfaktor auf Wissenschaftskarrieren betrachtet werden müssen. In diesem Zusammenhang werden ebenso die Resultate zum egalitären Elternzeit-Modell als potenzielle Gleichstellungsmaßnahme bedeutsam. Insgesamt geht mit der Familiengründung ein gemeinsamer, aber langer Entscheidungsprozess für das Elternzeit-Modell (Verteilung der Elternzeitmonate zwischen den Partnern) in der Zweierbeziehung einher. Die Stärke der egalitären Einstellung, das Bildungsniveau oder der Karriereerfolg einer Person haben keinen Einfluss auf die Elternzeitdauer. Auch das Einkommen bestätigt sich durch die Daten nicht – im Kontrast zu vorhergehenden Studien (u. a. Hyde, Essex & Horton 1993; O'Brien 2009), die das Einkommen als Haupteinflussfaktor für die Inanspruchnahme der Elternzeit durch Väter belegen. In der vorliegenden Arbeit war den interviewten Männern eher die Unterstützung vom Vorgesetzten bzw. des Kollegenkreises zur Inanspruchnahme einer (längeren) Elternzeit wichtig. Die Unternehmenskultur ist somit eine Voraussetzung für die Wahl des Elternzeit-Modells. Besonders interessant bei den Ergebnissen der Online-Befragung zur Elternzeitdauer ist die über dem deutschen Durchschnitt (6 Monate in der Studie versus 3 Monate deutschlandweit; vgl. Fegert et al. 2011, S. 5) liegende Elternzeitdauer der Männer. Es verdeutlicht, dass auf der Mikroebene bei Vätern in der Leibniz-Gemeinschaft bereits modernere Geschlechterrollenorientierungen vorliegen. Auf der anderen Seite wurde durch die Datenlage bestätigt, dass eine längere Elternzeitdauer negativ mit der Karrierephase der befragten Männer korreliert (ein nachteiliger Karriereeffekt wurde auch in den Interviews mit den Vätern durch ihre persönlichen Erfahrungen bestätigt), während sie einen positiven Einfluss auf die Karrierephase bei Frauen hat. Als Erklärung kommt der Zeitpunkt der Familiengründung und folglich der Elternzeit infrage. Eine längere Elternzeit bei einer bereits fortgeschrittenen Karriere bei Frauen würde einen positiven Zusammenhang aufzeigen, während bei Männern der umgekehrte Fall vorliegen könnte. Es bleibt zu prüfen, ob weitere Untersuchungen die genannten Ergebnisse stützen können und ob sich ein egalitäres Elternzeit-Modell im Alltag durchsetzen kann, wenn Männer Karrierenachteile erfahren oder fürchten. Die tägliche Vereinbarkeit von Familie und Beruf ist für beide Geschlechter nicht einfach, sodass die befragten Frauen und Männer einige familienbedingte Spannungen am Arbeitsplatz verspüren. Ein familienorientierter Arbeitsplatz kann hier als Gleichstellungsmaßnahme auf der Mesoebene dazu beitragen beide Lebensbereiche zu vereinbaren: Die Daten belegen, dass Unterstützungsmaßnahmen zur Vereinbarkeit von Familie und Beruf signifikant die Anzahl an familienbedingten Spannungen am Arbeitsplatz reduzieren. Die Anzahl an Maßnahmen zur Unterstützung der Vereinbarkeit von Familie und Beruf ist dabei zwischen den Leibniz-Einrichtungen unterschiedlich, wobei Einrichtungen mit eher vielen Beschäftigten auch (eher) viele Unterstützungsmaßnahmen aufweisen. Der Großteil der Beschäftigten bei der Leibniz-Gemeinschaft ist über die in 2012 eingeführten flexiblen Frauenquoten uninformiert, welche als dritte Gleichstellungsmaßnahme in der Studie untersucht wurden. Weiterhin lehnen Männer die Einführung von Frauenquoten signifikant stärker ab als Frauen. Auf der anderen Seite wünschen sich stärker egalitär eingestellte Personen eher die Einführung von Frauenquoten als Maßnahme für mehr Chancengleichheit von Frauen und Männern im Wissenschaftsbereich als weniger egalitär eingestellte Personen. Werden Frauenquoten eingeführt, so wünschen sich die Befragten, dass diese ambitioniert, aber realistisch zu erreichen sind und mit einem entsprechenden Monitoring begleitet werden. Insgesamt besteht eine generelle Skepsis gegenüber Frauenquoten, wie in den Interviews und bei der Online-Befragung ersichtlich wird. Zur Erhöhung des Frauenanteils in wissenschaftlichen Führungspositionen wird durch die Daten belegt, dass eine Quotierung nur hilfreich ist, wenn "zugleich Führung und Verantwortung in Job und Familie miteinander vereinbar werden" (vgl. Boll 2012, S. 650). Mit Blick auf die vorgestellten Studienergebnisse wird deutlich, dass Geschlechtergleichstellung in der Wissenschaft noch nicht erreicht ist. Damit Frauen in der Wissenschaft die gleichen Chancen wie Männer haben, müssen verschiedene Stellschrauben bewegt werden: Auf der Makroebene haben Frauenquoten das Potenzial die weibliche Repräsentanz zu erhöhen, um über paritätisch besetzte Auswahlgremien geschlechtergerechtere Auswahl- und Einstellungsverfahren anzustoßen, denn aufgrund einer weiblichen Unterrepräsentanz in diesen Gremien kann es zu einer Geschlechterverzerrung bei der Nachbesetzung kommen, wie van den Brink (2010) in ihrer Studie in den Niederlanden beweisen konnte. Auf der Mesoebene muss die Geschlechtergleichstellung im Wissenschaftsbereich durch familienpolitische Maßnahmen unterstützt werden. Es sind familienorientierte Arbeitsplätze für eine noch stärkere Vereinbarkeit von Familie und Beruf vonnöten, um einen gesellschaftlichen Verhaltenswandel auf der Makroebene herbeizuführen und um gleichzeitig auf der Mikroebene das innerfamiliäre Engagement beider Partner anzugleichen. Denn Gleichstellung muss auch privat gelebt werden, damit sie sich im Berufsalltag bzw. in unserer Gesellschaft durchsetzen kann.
People live in cultural landscapes which they create and consistently change. In order to understand the entire process involved, it is essential to consider the fi ndings about the historical development of the region and its people for recent regional and future-oriented planning. Th e self-conception and self-awareness of a regional population is based on its culturally shaped surroundings. For example, a castle, a monastery, a medieval city ensemble or even prehistorical discoveries can become the central point of regional self-conception though the building may have lost its former signifi cance a long time ago. In this essay, the relation between the cities of a region around 1500 and the identity of the people who live there will be discussed. Th e region is called Franconia, now a part of Northern Bavaria and Northeast Baden-Württemberg. Up to 1806 it never was under a united leadership: Kings, Bishops, Princes, Knights and Imperial Cities had their separate domains. Th is kind of plurality created a huge diversity in the cultural landscape – up to present days. Th e regional historian can contribute to this whole process of regionalization and identifi cation with his/her research. He/She is part of a team consisting of archaelogists, geographers, political scientists, economists and social scientists. It is not his/her goal to continue with an archaic and outdated local historical approach but rather to implement his/her entire range of methodologies concentrated on a small region. Th e regional historian's guideline is: "Within boundaries boundless opportunities.» Th is approach can give a detailed description of the historical development of a certain region and its population over centuries. With the diminishing focus on national history, the regional historian is able to pursue a 'histoire totale' for a certain region. By using this methodological approach, the historian off ers a template of historical research which could also be used by other European regions. ; La gente vive en los paisajes culturales que crean y constantemente cambian. A fin de comprender todo el proceso involucrado, es esencial tener en cuenta los hallazgos sobre el desarrollo histórico de la región y su gente para la regional reciente y orientada al futuro la planificación. L a concepción de sí mismo y auto-conciencia de una población regional se basa en su entorno cultural en forma. Por ejemplo, un castillo, un monasterio, un conjunto medieval de la ciudad o incluso descubrimientos prehistóricos puede ser el punto central de la autonomía regional, aunque la concepción edificio puede haber perdido su anterior signifi cado hace mucho tiempo. En este ensayo, la relación entre las ciudades de una región alrededor de 1500 y la identidad de las personas que viven allí se discutió. ª región e se llama Franconia, ahora una parte del norte de Baviera y el nordeste Baden-Württemberg. Hasta 1806 no estaba bajo una dirección unida: Reyes, obispos, príncipes, caballeros y ciudades imperiales tuvieron su separada dominios. Th es una especie de pluralidad creado una enorme diversidad en el ámbito cultural paisaje - hasta la actualidad. Th e historiador regional puede contribuir a todo este proceso de la regionalización y la identificación de cationes con su / su investigación. Él / Ella es parte de un equipo formado por arqueólogos, geógrafos, politólogos, economistas y científicos sociales. No es su / su objetivo de continuar con un arcaico y obsoleto enfoque local histórico, sino más bien a poner en práctica su / su gama completa de las metodologías se concentró en un pequeña región. Guía Th e historiador regional es: "Dentro de los límites un sinfín de oportunidades ». Th es el enfoque puede dar una descripción detallada del desarrollo histórico de una determinada región y su población de más de siglos. Con el foco disminuyendo en la historia nacional, regional el historiador es capaz de llevar a cabo una 'histoire totale "para una región determinada. Mediante el uso este enfoque metodológico, el historiador de res de una plantilla de la histórica investigación que también podría ser utilizado por otras regiones europeas. ; Menschen leben in Kulturlandschaften, die sie erschaff en und beständig verändern. Um den Gesamtprozess verstehen zu können, ist eine Untersuchung der historischen Entwicklung einer Region und deren Bewohner unerlässlich für jegliche zukunftsorientierte Planung. Das Selbstbild und das Selbstbewusstsein einer regionalen Bevölkerung basiert auf der kulturellen Prägung ihrer Umgebung. So können zum Beispiel eine Burg, ein Kloster, das Ensemble einer mittelalterlichen Stadt oder sogar prähistorische Entdeckungen die Ausgangspunkte eines regionalen Selbstbewusstseins darstellen, obwohl die Gebäude ihre frühere Bedeutung längst verloren haben. In diesem Aufsatz wird der Zusammenhang der Städtelandschaft einer Region um 1500 und der Identität der Menschen, die dort leben, am Beispiel Frankens untersucht. Das Gebiet gehört heute zum Norden Bayerns und zum Nordosten Baden-Würtembergs und war auch bis 1806 nicht unter alleiniger Kontrolle – Könige, Bischöfe, Fürsten, Ritter und Reichsstädte hatten ihre jeweiligen Einfl usssphären. Diese Pluralität hat zu großen Unterschieden innerhalb der Kulturlandschaft geführt, die bis heute anhalten. Der Regionalhistoriker kann zum angesprochenen Prozess der Regionalisierung und Identitätsbildung mit seiner Forschung beitragen. Diese Forschung steht dabei in interdisziplinärem Dialog mit Archäologie, Geographie, Politik-, Wirtschafts- und Sozialwissenschaften. Dabei wird die gesamte Bandbreite vorhandener Methoden auf ein regional begrenztes Gebiet angewandt, statt sich auf die überholten lokalgeschichtlichen Zugänge zu beschränken. Die Maxime der Landesgeschichte ist also: "In Grenzen unbegrenzt." Dieser Zugang kann über Jahrhunderte hinweg sehr detaiuierte Beschreibungen der historischen Entwicklungen einer Region abgeben. Im Gegensatzzun Nationalgeschichte strebt die Landesgeschichte die 'histoire totale' einer Region an; ein methodischer Zugang zur Geschichte, der auch von anderen Regionen Europas mit Gewinn angewendet werden könnte.
Acht Jahre nach der Veröffentlichung vonIm Modus der Gabe/In the Mode of Giving. Theater, Kunst, Performance in der Gegenwart/Theater, Art, Performance in the Present(hrsg. v. Ingrid Hentschel, Una H. Moehrke und Klaus Hoffmann)[1] ist nun mitDie Kunst der Gabe. Theater zwischen Autonomie und sozialer Praxisein Folgeband erschienen. Als Ausgangspunkt diente ein Symposium mit dem TitelTheatre as Exchange and Gift,das im Oktober 2017 am Zentrum für Interdisziplinäre Forschung der Universität Bielefeld stattfand. Gegenwärtiges Theater kann als Geschenk veranschlagt werden, weil es sich laut Herausgeberin Ingrid Hentschel immer stärker durch "Partizipation, Austausch und Wechselseitigkeit" (S. 9) auszeichnet – obligatorische Charakteristika der Gabe. Um sich dieser ereignishaften Reziprozität zu nähern, richtet der vorliegende Sammelband multiperspektivisch einen ganzen Fragenkatalog an die gabenhaften Qualitäten des Theaters, bemüht sich um die Kontextualisierung von Theorien des Tausches mit Theatertheorien, wobei der Theaterbegriff durch "Prozess, Interaktion, Handlung" (S.11) definiert wird und die Austragungsformate des Theaters großzügig ausgelegt werden. Dies wirft Themenfelder auf, die den Austausch zwischen Darsteller_innen und Zuschauer_innen gleichermaßen betreffen wie die im Untertitel des Bandes postulierte "Autonomie und soziale Verpflichtung der künstlerischen Gabe" (S. 8) und ihr Risikopotential. Es wird analysiert, woraus sich die Gabe des Theaters überhaupt speist und ob Wahrnehmung und Aufnahme der sinnlichen Appellationen nicht bereits ein "neuerliches Geben" (S. 7) vonseiten des Publikums gewährleisten. Hentschel formuliert einleitend denn auch eine der großen, generellen Fragen im Zusammenhang mit der reziprok angelegten Wirkungsmacht der Gabe, nämlich, ob der Austausch zu ihr gehört oder ob er sie eliminiert (ebd.). Marcel Mauss, dessenEssai sur le don(1924)wie beim ersten Band auch hier wieder als eine der diskursiven Vorlagen für die Auseinandersetzung mit der Gabe dient, würde letzteres wahrscheinlich verneinen – zumindest, solange die Endlichkeit eines Hin- und Herschenkens und des sich gegenseitig Übertrumpfens zwischen zwei Instanzen möglichst hinausgezögert wird. In Anlehnung an Mauss' Theorien ist einer der wichtigsten Aspekte in der Auseinandersetzung mit der Gabe, wie sie der vorliegende Sammelband vornimmt, das nichtkommodifizierbare Potential, das das Geschenk kapitalistisch intendierten Kreisläufen entzieht und als Geste der bedingungslosen Großzügigkeit begreifen möchte. Theater, so Hentschel, ist das Spannungsfeld, auf dem das Verhältnis aus "freiwilligem Geben und sozialer Verpflichtung" (S. 12) stetig austariert wird. Die Kunst der Gabeteilt die trans- und interdisziplinären Beiträge zur Gabenförmigkeit des Theaters in vier große Überkapitel: "Theater, Kunst und Gabe: Theoretische Konstellationen" (Kapitel 1) eröffnet mit einem Beitrag von Marcel Hénaff, Philosoph und Ethnologe, der drei Formen des Gebens unterscheidet, die das Theater zu bieten hat: das zeremoniell choreographierte Geschenk (unbedingt auf ein Publikum angewiesen), das bedingungslose Geschenk (ein Beweis der Zuneigung) und das solidarische Geschenk (die Spende). Hénaff knüpft vor allem an die Gabe coram publico die Frage, wie Theater als Spielfeld für Möglichkeitsszenarien in die Realität hineinarbeitet. Roger Sansi, Sozialanthropologe, versucht herauszufinden, ob es das reine Geschenk gibt, eine Gabe also, die nicht auf – ausgesprochenen oder still vereinbarten – Verträgen beruht.Den Versuch einer Antwort unternimmt Sansi mit Roger Bernats "The Place of the Thing", einer Arbeit für die documenta 14 (2017), in deren Zentrum die Kopie eines Schwursteines steht, der durch die Öffentlichkeit von Athen nach Kassel bewegt wird – eine Unternehmung, die unvorhersehbare Wege einschlug und damit Bernat seine entlarvende Positionierung in puncto künstlerischer Autor_innenschaft abzwang, obwohl das Projekt prädestiniert dazu gewesen wäre, diese für nichtig zu erklären. Der Philosoph Gerhard Stamer ergänzt mit seinem Beitrag die Zusammenführung von Theater und Gabentheorien mittels Kants Definition von Ästhetik als emotionsstiftender Zweckmäßigkeit, die – wie das Theater – auf Mitteilung drängt (S. 71). Das zweite Kapitel "Tausch und/oder Gabe" versammelt vier Beiträge, die "Gabentheoretische Positionen" – so der Untertitel – auseinandersetzen. Ausgehend von Marcel Mauss stellt der Soziologe Frank Adloff die These auf, dass Gaben einen Moment der Asymmetrie zwischen Schenkendem_r und Beschenktem_r herstellen, der oftmals von Agonie geprägt ist. Geschenke – so Adloff – sind als "Momente des Überschusses und der Unbedingtheit […] konstitutiv für das Hervorbringen von Sozialität" (S. 91), demnach unabdingbar für unser aller Zusammenleben und eine ästhetische Qualität ist ihnen inhärent, die prägt, wie wir miteinander leben (wollen). Olli Pyythinen – ebenfalls Soziologe – bezieht seine Ausführungen dezidiert auf das Theater und zieht Jacques Derrida und Georg Simmel heran, um die Schenkungsleistung von Schauspieler_innen unter die gabentheoretische Lupe zu nehmen. An wen richtet sie sich? An die Gemeinschaft oder an den_die Einzelne_n? Und wie definiert sich über die Antwort auf diese Fragen der bindende oder unverbindliche Gestus der Gabe des Schauspiels? Dass die Gabe nicht immer eine festgestellte, körperliche Präsenz aufweisen muss, arbeitet die Kultursoziologin Elfie Miklautz in ihrem Beitrag heraus, der sich "illusionären Gaben" widmet. Um ihrem Wirken auf die Spur zu kommen, analysiert Miklautz Weihnachten als das Fest der Bescherung und gesellschaftliches Spielfeld, auf dem Wunsch und Wirklichkeit sich aneinander reiben. Im abschließenden Aufsatz dieses Blocks untersucht die Gabenforschungsexpertin Ilana F. Silber anhand von Clifford Geertz' Essay "Deep Play: Notes on the Balinese Cockfight" (erstmals 1972) die Theatralität des öffentlichen Schenkens von prominenten Großspendern wie Bill Gates und Warren Buffet, die ihre Gabe öffentlichkeitswirksam nutzen, um Größe zu demonstrieren. Kapitel Nummer 3 entwickelt unter dem Titel "Resonanz und Performance" dezidiert theatertheoretische Konzepte zur Gabe. Der Theaterwissenschaftler Jens Roselt reflektiert in seinem Text über "Formen und Verfahren von Teilhabe im Theater, die Theatererfahrung auf der prekären Schwelle von Zutrauen und Zumutung verorten" (S. 152). Um die Bedeutung dieses schmalen Grats zwischen Hingabe und Abstoßung genauer zu bestimmen, erinnert sich Roselt an die Publikumsreaktionen in einer Aufführung derZeppelin-Inszenierung (Horváth-Texte) an der Berliner Schaubühne unter der Regie von Herbert Fritsch (ab 2017), die sich unter anderem durch Irritation und Unzufriedenheit auszeichneten. Auch Ortrud Gutjahr, Literatur- und Medienwissenschaftlerin, geht in ihrem Aufsatz der Frage nach, wie sich Figuren auf der Bühne und Publikum zueinander verhalten, wenn die Darsteller_innen nicht liefern, was qua einer konventionellen Auffassung von Theater von ihnen erwartet wird (Aktion, schön Sprechen). Anders als Roselt geht Gutjahr aber nicht von einem Unsicherheitsmoment aus, den die Regie in Zusammenarbeit mit den Schauspieler_innen verantwortet, sondern von der Publikumsbeschimpfung Peter Handkes, der anlässlich des ihm zuerkannten Literaturnobelpreises 2019 die Beleidigungen nun eher an Journalist_innen richtet. Außerdem liefert Gutjahr in ihrem Beitrag einen patenten Überblick über theaterwissenschaftliche Positionen zum Publikum, der von Aristoteles über Diderot und Brecht bis hin zu Hilde Haider-Pregler reicht. Die Bildungswissenschaftlerin Kristin Westphal arbeitet mit Überlegungen zu Milo RausFive Easy Piecesheraus, wie Kinder mit einer unverstellten Mitteilsamkeit in einem Stück für Erwachsene deren Lebenswelt verhandeln und ihnen vor Augen führen, was sie anrichten – Rau hat für sein Stück den Fall des Kindsmörders und Sexualtäters Marc Dutroux als Vorlage gewählt. Westphal spricht diesem spiegelnden Spiel der Kinder den Charakter einer Nicht-Gabe zu, die in aller Härte mit den Möglichkeiten und Mitteln des Theaters überreicht wird. Der Germanist Gert Hofmann beschließt das dritte Kapitel mit einer Kontextualisierung des Facettenreichtums der Gabe mit Nietzsches und Artauds Theorien zur Maske und deren wechselhaftem Charakter aus An- und Abwesenheit, dem Menschlichen und Göttlichen, Leben und Tod. "Überschreitungen: Politiken der Gabe" lautet die Überschrift des letzten Kapitels, in dem das radikale Potential von Reziprozität als Aktionsstachel herausgearbeitet wird. Asma Diakité, Kulturwissenschaftlerin mit Performance-Schwerpunkt, stellt in ihrem Beitrag die Frage, inwieweit Theater und Performance als erschöpfende Praxis in Zeiten politischer Umbrüche ästhetisches Potential aufweist. Als Gegenstand für die Verhandlung dieser Frage wählt sie Aktionen rund um den Tahrirplatz, der 2011 als eine der wichtigsten Bühnen der "ägyptische[n] Revolte" (S. 226) fungierte. Der Konvivialismus als "postdekonstruktive, neohumanistische Rückkehr zu Marcel Mauss' bündnispolitischer Figur des Kooperierens" (S. 245) ist Thema im Aufsatz der Theaterwissenschaftlerin Evelyn Annuß. Sie zeigt auf, wie dieses Konzept durch die vorsätzliche und auch unvorhersehbare Raumnahme von öffentlichen Orten wie Brache und Theaterhaus erprobt und erkämpft wird. Als Beispiel dienen Annuß eine Inszenierung destheatercombinatsunter der Leitung von Claudia Bosse und Protestaktionen im Zuge der neu zu besetzenden Intendanz der Volksbühne im Jahr 2017. Ob das Nichtstun eine Gabe sein kann, fragt Hanne Seitz, Expertin für Theorie und Praxis ästhetischer Bildung, in ihrem Beitrag und arbeitet die produktiven Aspekte von Langeweile im Sinne eines umfassenden Sichzeitlassens und "von sich absehen" (S. 270) anhand ausgewählter Performances von Xavier Le Roy, Tino Sehgal und Marina Abramović heraus. Der Medien- und Kulturwissenschaftler Reinhold Görling nimmt Darren Aronofskys FilmMother!(US 2017) zum Anlass, um über Opfer und Gabe als ästhetische Topoi der Überschreitung im Film zu reflektieren und das Kino als Ort der Hervorbringung (von Körpern, Begehren, Gewalt) zu begreifen. Im finalen Beitrag des Bandes beschreibt der Theaterwissenschaftler Anton Rey die Wirkmechanismen eines Beichtstuhls, in dem der_die Besucher_in mit sich selbst als Gegenüber konfrontiert wird und den er gemeinsam mit einem Team als künstlerische Intervention an der Zürcher Hochschule der Künste installiert hat. Zusammenfassend vereintDie Kunst der Gabe– wie bereits derModus der Gabe– ein Spektrum an Beiträgen, in denen zentrale Thesen der Gabenforschung mit Blick auf die Theater- und Performancekunst weitergedacht und erweitert werden. Das Theater als Ausgangsmoment für diese Theoretisierungen zu wählen, ist schlüssig, weil Theater der Ort ist, an dem politische wie gesellschaftliche, begehrenswerte wie irritierende Versuchsanordnungen den Ernst des Lebens als Geschenk praktizieren, mit Leichtigkeit und Schwere, disziplinierend und außer sich geratend. Dieses Buch richtet sich an alle, die das Interesse am theoretischen Blick auf die Lust an Spiel, das Risiko und die Gemeinschaft als Gebendes teilen. [1]Der Band wurde inrezens.tfmNr. 2012/1 besprochen:https://rezenstfm.univie.ac.at/index.php/tfm/article/view/r239.
"Wie gut sind die steirischen Wasserversorger eigentlich auf gröbere Störungen, Not- oder Krisenfällen vorbereitet? Was wird benötigt, um eine durchgehend hohe Versorgungssicherheit zu gewährleisten?" Mit diesen Fragen beschäftigte sich das Referat für Siedlungswasserwirtschaft des Amtes der Steiermärkischen Landesregierung gemeinsam mit dem Institut für Siedlungswasserbau der Universität für Bodenkultur Wien. Hintergrund dieser Initiative ist der Wasserversorgungsplan der Steiermark 2015, der unter anderem das Ziel hat, Versorgungsunterbrechungen sukzessive zu minimieren und Störfällen gezielter und systematischer als bisher vorzubeugen. Das zugehörige Projekt lief Ende 2015 bis Anfang 2017 und umfasste eine Befragung aller steirischen Wasserversorger sowie die Erstellung eines Leitfadens zur Umsetzung von Störfallvorsorgeplanung. In der mehrteiligen Befragung wurden der generelle Umsetzungsstand sowie der Unterstützungsbedarf und Ansatzpunkte zur Störfallvorsorgeplanung und zum Umgang mit Störfällen erhoben. Insgesamt wurden 22 Wasserverbände und 287 Gemeinden in einem ersten Teil und 573 Wassergenossenschaften sowie 420 Wassergemeinschaften in der Steiermark in einem zweiten Teil in der Steiermark befragt. Darauf aufbauend wurde ein Leitfaden verfasst, der die Wasserversorger dabei unterstützen soll, Störfälle in ihrem Betrieb zu verhindern, aber auch gut auf den Ernstfall vorbereitet zu sein. Bei der Befragung zeigte sich für die steirischen Wasserversorger folgendes Bild: Etwa 9 % der Gemeinden haben Stör-, Not- und Krisenmanagement bereits vorbildlich umgesetzt. Weitere ca. 11 % erfüllen durchaus ausreichend alle definierten Mindestanforderungen. Somit sind ca. 20% der steirischen Gemeinden in der Wasserversorgung auf einen möglichen Störfall sehr gut vorbereitet. Allerdings erfüllen 63 % der Gemeinden grundlegende Bestandteile für eine umfassende Umsetzung von Stör-, Not- und Krisenmanagement nicht. Bei den Wasserverbänden ist das Ergebnis mit ca. 41% insgesamt deutlich besser. So haben ca. 18 % Stör-, Not- und Krisenmanagement bereits vorbildlich und weitere ca. 23 % bereits ausreichend umgesetzt. Fast 28 % der Verbände erfüllen eine ausreichende Umsetzung bisher nicht. Bei den Verbänden zeigen sich also zwei Gruppen: diejenigen, die bereits eine sehr weitreichende Umsetzung vollzogen haben und solche, denen grundlegende Bestandteile fehlen. Dagegen dürften sich die kleineren Einheiten wie Wassergenossenschaften und Wassergemeinschaften mit diesem Thema noch nicht wirklich beschäftigt haben. Nur etwa 2 % der Wassergenossenschaften haben Stör-, Not- und Krisenmanagement bereits vorbildlich und 4 % ausreichend umgesetzt. Das sind gerade 6% der steirischen Wassergenossenschaften. Aber ganze 85 % erfüllen grundlegende Bestandteile für eine umfassende Umsetzung von Stör-, Not- und Krisenmanagement nicht. Bei den Wassergemeinschaften ist dieser Anteil mit 95% noch größer. Auf den Befragungsergebnissen aufbauend wurde ein Leitfaden entwickelt, der eine zielgerichtete und praxisorientierte Umsetzungshilfe für alle Wasserversorgungstypen und -größen in der Steiermark sein soll und die Wasserversorger entlang folgender Arbeitsbereiche an eine systematischen Umsetzung von Störfallvorsorgeplanung heranführt: – Teambildung und Grundlagenaufbereitung aus dem Normalbetrieb, – Störfallminimierung (Identifizierung, Elimination und Minimierung von Gefährdungen) durchführen, – Störfallszenarien festlegen, – Störfallabwicklung planen und Arbeitsanweisungen formulieren, – Training der Störfallabwicklung, – kontinuierliche Verbesserung sowie Dokumentation – Abwicklung der Arbeitsanweisungen im Störfall (Notfall, Krise) – Definition der Schnittstellen und Übergang zum Katastrophenmanagement planen. Der Leitfaden enthält neben kurzen thematischen Einführungen, Beispiele aus der Praxis und Arbeitsbehelfe sowie Literaturverweise. ; "How well-prepared are Styrian water providers for major supply incidents, emergencies and crises? Which further steps need to be taken to ensure continuous water supply safety?" These key-questions were investigated in a joint project of the Division for Municipal Water Management of the Styrian Government and the Institute of Sanitary Engineering and Water Pollution Control of the University of Natural Resources and Life Sciences, Vienna. The initiative was based on the 2015 Styrian Water Supply Plan, which a.o. aims to successively minimize water supply interruptions, and to use a more systematic approach for preventing and managing incident, emergency and disaster situations. The respective project ran from the end of 2015 to spring 2017 and involved a survey of all Styrian water providers as well as the development of practice-oriented guidelines for incident prevention and management. The extensive survey gathered data on the general implementation status and helped identifying needs and starting points for improving incident prevention and management on the ground. 22 water associations and 287 municipalities were addressed in the first phase of the survey, while 573 water cooperatives and 420 water alliances in Styria were addressed in the second phase. The results were used to create a set of guidelines intended to help water providers to avoid supply disruptions at their facilities, and to be better prepared for "when things don't go as planned". The survey results revealed the following: roughly 9% of the municipalities have already done an exemplary job in terms of prevention and management of incidents, emergencies and disasters, while further 11% fulfill all of minimum requirements which were pre-determined. Consequently, roughly 20% of the Styrian municipal water suppliers are well-prepared for potential incidents. However, with regard to two of three pre-determined implementation stages, nearly 13% of the municipalities fail to fulfill more than half of the minimum requirements, and a further 63% fail to fulfill essential requirements for the comprehensive prevention and management of incidents, emergencies and disasters. With 41% the result for water associations was generally much better: roughly 18% have already done an exemplary job in terms of preventing and managing incidents, emergencies and disaster situations, while a further 23% have already done a satisfactory job. Nearly 28% do not yet satisfactorily meet the implementation criteria. As such, the associations essentially consist of two groups: those that have already completed an extensive implementation, and those who have yet to implement essential components. Generally it seems that the smaller suppliers have not been so much "pro-active" in the field of incident management like the municipal suppliers. Only 2% of the water cooperatives have done an exemplary job, with another 4% "on the right track." With regard to two of three pre-determined implementation stages, roughly 12% of the cooperatives fail to fulfill more than half of the minimum requirements – and another 85% fail to fulfill essential requirements for the comprehensive prevention and management of incidents, emergency and disaster situations; among the water alliances, the percentage is even higher (95%). These results were used to help developing a set of guidelines intended to offer specific, practice-oriented implementation support for Styrian water providers of all types and sizes. A systematic approach for preventing and managing incidents, emergencies and disaster situations involving the following steps – Team building and data baseline development as part of normal operations, – Minimizing potential incidents (identifying and minimizing threats), – Defining disruption scenarios, – Planning incident responses and formulating instructions, – Incident response training, – Refining and revising the response plan on a regular basis (after training or an actual incident), – Preparing instructions for responding to incidents, emergencies and disasters; and – Defining the interfaces with and transition to disaster management. The guidelines feature brief introductions to various topics, as well as real-world examples, practical tips and bibliographic references for further study.
In comparison to other countries in the rest of the world, Germany (as one of the industrialized countries) is characterized by relatively high living standards in terms of GDP per capita and wages. German politicians often argue that exports and innovation are important fields for the German economy to sustain these welfare achievements. According to the World Trade Organization (WTO), Germany has ranked as one of the three top exporters (in US value) since 1953 in their time series of trade statistics. Therefore, the exporting economy is important from a historical perspective. In addition, Germany achieves a high position (15th out of 141 countries) for the global innovation index in 2012, according to the World Intellectual Property Organization (2012). In the following, this dissertation sheds light on the impact of finance on trade and the determinants of innovating activities within start-ups. The economic literature emphasizes an existing relationship between the innovating behavior of firms and their foreign operations. Many authors distinguish the participation in international trade between the probability of starting to export and the propensity (exports relative to total sales) of it in their analysis. Several empirical papers which examine this interrelation typically find a positive relationship between innovation and trading patterns of firms (e.g., Damijan et al. (2010), Roper and Love (2002), Sterlacchini (2001), Wagner (2001) or Wakelin (1998)) but the direction of causality remains unclear. Here, the focus is not on this explicit link between both fields but on different aspects within them. Chapter 2 starts with the provision of a comprehensive and detailed literature review on finance and trade. In particular, we concentrate on various aspects which are relevant for the subsequent three chapters: the general differences between exporters and non-exporters, the interrelation between finance and trade flows and the literature on trade in services. The following three chapters rely on a data set (MiMiK) which collects data on bank-firm relationships and is provided by Deutsche Bundesbank. The massive decline in international trade in 2008/09 (known as the 'Great Trade Collapse') is often attributed to the global deterioration in financial conditions after the bankruptcy of a US investment bank, Lehman Brothers. In a first step, Chapter 3 estimates the exporter premium in bank lending and highlights potential differences between exporters and non-exporters (independent of the financial crisis). We examine credit relationships in Germany, covering all loans of more than 1.5 million euro over the period from 2005 to 2010. The MiMiK data base itself provides only information about the (quarterly) credit exposure between borrower and lender. Therefore, we establish a unique data match with another data set which is also provided by Deutsche Bundesbank, Ustan. It contains (yearly) balance sheet information of firms, including export sales. The results show that there is an export premium in bank lending of about 16%. Chapter 4 primarily focuses on the empirical importance of external (bank) finance for exporters during (and after) the financial crisis. The previous MiMiK-Ustan match is extended with bank balance sheet data from BAKIS. We use this information to identify banks which are especially 'affected' by the financial crisis. The chapter investigates in a descriptive manner whether a correlation between exports and credit supply exists and whether banks which are classified as 'affected' decreased their credit exposures. Finally, we perform a nearest neighbor matching to identify similar firms which engage in foreign operations. Then, we show that firms which exhibit credit relationships with 'affected' banks do not export less than comparable firms which receive finance from healthy banks. Chapter 5 extends the previous analysis by estimating the exporter premium in bank lending for goods and service exporters separately. The MiMiK-Ustan match is enlarged with detailed transaction level data about service exports, the German International Trade in Services (SITS) statistics. Therefore, we are able to identify firms which primarily export services or goods and can evaluate our previous results on a more disaggregated level. First, we estimate the export premium in bank lending for goods exporters vs. non-exporters. Then, we examine whether service exporters depend more on external finance than goods exporters which would coincide with higher entry barriers for service exporters. Goods exporters have an export premium of 16% vs. non-exporters and service exporters a premium of 17% relative to goods exporters. Furthermore, we analyze the determinants of innovations within start-ups in a separate section. Chapter 6 deals with the question whether entrepreneurs with technical education are more innovative than economists in high-tech industries. Until now, the field of entrepreneurship has been relatively unexplored due to data limitations. To analyze this question, we examine a novel data set (KfW/ZEW Start-Up Panel) which contains a random cross-section of German start-up companies for 2007 and 2008. It provides information about entrepreneurial characteristics, especially details about the subject that was studied prior to the foundation of the start-up. In addition, the KfW/ZEW Start-Up Panel was exclusively designed to analyze research questions in the field of innovation. For this reason it contains multiple proxies to measure the innovating behavior of entrepreneurs. We show that natural scientists indeed are more engaged in R&D activity and more likely to release something new on the market than economists. The results depend largely on the definition of innovation and on the form of start-up (single vs. team).
Im Kontext des religiösen Konflikts in Südkorea entstand die Idee zu dieser Untersuchung. Meine Vision ist, einen Beitrag zu leisten, wie man diesen Konflikt mit religionspädagogischen Erkenntnissen minimieren kann. Ferner geht es um die Frage, wie die Religionspädagogik angesichts der religiösen Pluralität funktionieren kann. In dieser Arbeit wurde davon ausgegangen, dass die aktuelle Problematik des religiösen Konflikts in der Rolle der Religionspädagogik im Kontext der religiösen Pluralität adaptiert werden kann. Im Rahmen der christlichen Schulreligionspädagogik habe ich untersucht, mit welchem Ziel, mit welchem Inhalt und mit welchen Methoden der Religionsunterricht an den Schulen erteilt werden soll. Die südkoreanische religiöse Situation kann durch die Koexistenz der vererbten traditionellen Religionen (z.B. Konfuzianismus, Buddhismus sowie Cheondogyo) und der überlieferten Religionen (z.B. evangelisches Christentum, Katholizismus und Islam) als pluralistisch charakterisiert werden. Hinzu kommen erhebliche Anteile Konfessionsloser und Atheisten. Religiöse Vielfalt ist Teil heutiger Lebenswirklichkeit in Südkorea. Sie erscheint meines Erachtens mit einem doppelten Gesicht. In der Außenperspektive sieht sie harmonisch aus, so als ob sich die verschiedenen Religionen respektvoll und friedlich zueinander verhalten. Aus der inneren Sicht jedoch lassen sich vielschichtige Spannungen zwischen den Religionen erkennen. Dies hängt damit zusammen, wie die Religionen sich zueinander verhalten. In der Geschichte Koreas haben die Religionen in sozialen Aufgaben (z.B. Unabhängigkeitsbewegung gegen Japan, Demokratisierungsbewegung gegen Diktatur, Umweltschutz, sowie die Wiedervereinigung Koreas) zusammengearbeitet und sich gegenseitig positiv beeinflusst. Im Gegensatz dazu sind die religiösen Konflikte sowohl in der politisch geprägten als auch in der privaten Gesellschaft seit Ende des 20. Jahrhunderts entstanden. Diese Konflikte haben sich zwar nicht intensiviert, aber sie wurden im Lauf der Zeit vielfältig und haben sich verschärft. In dieser Studie untersuchte ich den wesentlichen Grund für den religiösen Konflikt zwischen Buddhismus und evangelischem Christentum unter religionssozialwissenschaftlichen und theologischen Aspekten. Die Gründe der religiösen Konflikte wurden aus unterschiedlichen Blickwinkeln betrachtet. Aus der Perspektive des evangelischen Christentums liegt der Hauptgrund dafür in der fundamentalistischen Theologie bzw. in einer extrem konservativen Tendenz der Kirchen. Im evangelischen Christentum wird aus meiner Sicht die religiöse Pluralität eher als ein Hindernis der Missionierung denn als eine Bereicherung wahrgenommen. Wie Kyoung-Jae Kim erläutert, befindet sich das evangelische Christentum auf dem Weg der dogmatischen Verhärtung. Dieser Überblick über die religiöse Situation Südkoreas zeigt deutlich, dass die religiöse Toleranz, Aufgeschlossenheit und Anerkennung gegenüber anderen Religionen für das Zusammenleben unabdingbar ist. Darüber hinaus habe ich die pädagogische Notwendigkeit des Religionsunterrichts in der Schulbildung festgestellt. Wie Folkert Doedens und Jürgen Lott konstatierten, ist Religion eine konstitutive Komponente umfassender allgemeiner Bildung und das Fach Religion ein unaufgebbarer Bestandteil des Fächerkanons in den öffentlichen Schulen. Aus diesem Verständnis ergeben sich zwei wichtige Aufgaben: zum einen ist die aktuelle Situation des Schulreligionsunterrichts in Südkorea kritisch zu analysieren, zum anderen sind die neuen religionspädagogischen Impulse außerhalb Südkoreas vergleichend heranzuziehen. In der ersten Aufgabe geht es um die Frage, wie und mit welcher strukturellen Form der Religionsunterricht sich angesichts der religiösen Pluralität bis heute entwickelt hat. Hinter der zweiten Aufgabe steckt das Problem: die Schulen stehen in Südkorea vor der Herausforderung, eine mögliche Reform und die zukünftige Gestalt des Religionsunterrichts bzw. alternative Konzepte des Religionsunterrichts zu prüfen und zu realisieren. Diese Studie hat beide Richtungen bearbeitet. Hinsichtlich der ersten Aufgabe wurde im zweiten Teil dieser Arbeit aufgezeigt, wie die staatlichen Lehrpläne des Religionsunterrichts und deren Inhalte von dem ersten bis zum siebten Lehrplan verändert wurden. Tatsächlich wurde und wird der Religionsunterricht konfessionell nur in den Missionsschulen erteilt. Die Diskussionen verliefen in den zurückliegenden Jahren zwischen einem konfessionellen und einem religionskundlichen Konzept. Hier werden die Konfessionaltiät und die Neutralität des Religionsunterichts als wesentliche Komponenten angesehen. Diese beiden Punkte beziehen sich auf die Asymmetrie der Zielsetzung für den Religionsunterricht zwischen den Missionsschulen und dem Bildungsministerium. Es lohnt sich in diesem Kontext für Südkorea, einen neuen Weg zu finden. Es ist klar, dass es im Schulreligionsunterricht in Südkorea nicht mehr so sehr darum gehen kann, eine bestimmte religiöse Botschaft zu vermitteln, sondern vielmehr darum, die Suchprozesse der Schülerinnen und Schüler im Kontext der religiösen Pluralität hilfreich zu begleiten. Dies bedeutet, dass die religiöse Pluralität im Religionsunterricht ernst genommen wird und sie im Sinne einer Aufgabe und Herausforderung des Religionsunterrichts fokussiert wird. Darüber hinaus erfordert die religiöse Pluralität ein Einübungsfeld, in dem die Schüler die religiöse Vielfalt selber mit Toleranz voreinander erleben. Denn die Erziehung zur Toleranz beginnt schon mit dem Schulbeginn. In der Zukunft soll für die Schülerinnen und Schüler unterschiedlicher religiös-kultureller Prägung ein integrierender Schulreligionsunterricht genau so obligatorisch sein wie für andere Schulfächer. Für einen religiösen, pluralitätsfähigen Religionsunterricht spielt das Kennenlernen und das Verstehen von anderen Mitschülern eine große Rolle. Die grundlegenden Informationen über andere Religionen, die tolerante Offenheit und die Dialogfähigkeit werden als wesentlich angesehen. Sie wurden durch den Vergleich mit den bundesrepublikanischen drei Ansätzen, LER, KRU, Hamburger Modell aus dem religionspädagogischen Aspekt ausführlich erläutert. Als alternatives Konzept wird das interreligiöse Lernen beschrieben. Die kontextuellen Hintergründe für die Notwendigkeit des interreligiösen Lernens sind wie folgt: (1) die Schüler sollen von den anderen Schülern durch eine intensive Verständigung miteinander lernen. Denn die Schule ist zu verstehen als ein Bildungsort für Kinder und Jugendliche unterschiedlicher sozialer, kultureller, weltanschaulicher und religiöser Herkunft. (2) die veränderte gesellschaftliche Situation bzw. der Zuwachs der Migration machen das interreligiöse Lernen unerlässlich. (3) als gesellschaftliche Aufgabe sollte der Religionsunterricht zu einem möglichst konfliktfreien Zusammenleben beitragen. In diesem Sinne ist Religionspädagogik eine Praxistheorie. Um die neuen religionspädagogischen Impulse aufzuzeigen, wird Deutschland als Beispiel herangezogen. Zwar ist die religiöse Situation in Deutschland etwas anders als in Südkorea. Aber die religiöse Pluralität und Modernisierung sind identische Komponenten. Wie oben erläutert wurde, geht es in der koreanischen religiösen Situation um die friedliche Koexistenz zwischen herkömmlichen Religionen - und damit einer kulturellen Tradition von ca. 2000 Jahren - und der christlichen Religion. Im Gegenzug geht es in der religiösen Situation in Deutschland darum, wie man in einem traditionell christlichen Land mit einer wachsenden Anzahl von nicht christlichen Mitbürgern und insbesondere von Muslimen umgehen soll. Auffällig ist, dass die religiöse Kluft zwischen West- und Ostdeutschland als ein zukünftiges mögliches Vorbild für ein wiedervereinigtes Land Korea gelten kann. In beiden Ländern ist und bleibt Religion eine wichtige Dimension menschlichen Lebens und gesellschaftlichen Zusammenlebens. Daneben wird klar, dass das Christentum in Deutschland sich mehr als in Südkorea auf dem Säkuralisierungsprozess befindet. In der Zeitung Welt wurde konstatiert: "In 20 Jahren werden weniger als 50 Prozent der in Deutschland lebenden Menschen einer der beiden großen Kirchen angehören. Derzeit sind es rund 60 Prozent, nämlich 23 Millionen Protestanten und 24 Millionen Katholiken, deren Gesamtzahl alljährlich um rund 500.000 sinkt, und zwar hauptsächlich durch Todesfälle." Maria Jepsen hat dieses so formuliert: "Je stärker sich die Religion - dann auch die Religiösität oder als Spiritualität bezeichnet - individualisiert und pluralisiert, desto weniger kann ein didaktischer Zugang zu Kindern und Jugendlichen von der geprägten Sprache kirchlicher und dogmatischer Tradition ausgehen." Damit hängt eng zusammen, dass die Bedeutung der religiösen Erziehung sowohl in der Famile als auch in den Religionsgemeinschaften abnimmt. Dementsprechend wächst die Bedeutung des Religionsunterrichts an den Schulen. Dies ist ein gemeinsames Phänomen in beiden Ländern. Von daher kann und soll der Schulreligionsunterricht insbesondere für Kinder und Jugendliche bedeutsam sein. Trotz dieses kontextuellen Unterschiedes haben sich die religionspädagogischen Bemühungen angesichts der multikulturellen und multireligiösen Lebenszusammenhänge nach einer entsprechenden einleuchtenden Didaktik in beiden Ländern entwickelt. In Südkorea koexistieren das konfessionelle und das religionskundliche Konzept. Dem gegenüber gibt es in Deutschland dazu die didaktischen Bemühungen für das ökumenische, interkulturelle und interreligöse Lernen. In der Tat wurden sie in Deutschland ausführlicher diskutiert. In den meisten Bundesländern findet Religionsunterricht in seiner grundgesetzlich abgesicherten Form als konfessionell ausgerichteter christlicher Religionsunterrricht statt. Es gibt noch andere Ansätze, wie der Religionsunterricht anders erteilt werden kann. In dieser Arbeit wurden die drei repräsentativen Ansätze in Deutschland dargestellt, LER, KRU, das Hamburger Modell. Das Charakteristikum von LER ist der Anspruch der Neutralität. Konfessionalität erweist sich dagegen als Kernpunkt des konfessionell-kooperativen Ansatzes in Baden-Württemberg. Demgegenüber ist die dialogische Schülerorientierung ein wesentliches Element im Hamburger Modell. Durch den Vergleich ist ersichtlich, dass eine konzeptionelle Gemeinsamkeit zwischen dem koreanischen Lehrplan des Religionsunterrichts und LER besteht. Die beiden Modellversuche sind charakterisiert durch die Neutraltiät des Religionsunterrichts und weisen keine Verbindung mit den Religionsgemeinschaften auf. Tatsächlich wurde über ökumenische und interreligiöse Ansätze für den Schulreligionsunterricht in Südkorea noch nicht ernsthaft diskutiert. Trotz der großen Unterschiede zwischen beiden Ländern hinsichtlich des Religionsunterrichts und seines juristischen Hintergrundes des Schulwesens, der religiös-gesellschaftlichen Situation sowie der Schülerschaft wurde der Grundgegensatz - die Konfessionaltiät und die Neutralität - auch in Deutschland diskutiert. Darüber hinaus wurden die Themen "Identität und Verständigung" und "Dialog und Toleranz" in die Diskussion eingebracht. Diese Diskussionen um das interreligiöse Lernen - "Identitätsbildung durch Beheimatung oder durch Begegnung" und "wie man das Andere verstehen kann bzw. wie man das Andere in seiner Andersheit anerkennen kann" - sind auch für die koreanischen Missionsschulen notwendig. Von den dargestellten Ansätzen werden drei religionspädagogische Merkmale unter Berücksichtigung des Verhältnisses zwischen Buddhismus und evangelischem Christentum präsentiert: (1) Lebensweltlich- und schülerorientierter Religionsunterricht, (2) Dialog und Perspektivenwechsel, (3) Lehrkraftwechsel, Team Teaching in Übereinstimmung mit dem Lehrplan. In LER wird der erste und der zweite Aspekt unterstrichen. Daneben wird der dritte Aspekt in KRU besonders hervorgehoben. Im Hamburger Modell wird der zweite Aspekt einschließlich mit den beiden anderen akzentuiert. Die drei Aspekte müssen im konkreten Kontext in Südkorea durch die Auseinandersetzung mit Lehrerschaft, Theoretikern und Schülern übertragen werden. Heute wird religiöse Bildung in der Schule immer wichtiger - für die eigene Verwurzelung und Identität der Kinder und Jugendlichen, für religiöse Urteilsfähigkeit, für Sinnfindung und Orientierung in der Welt sowie für Verständigungsfähigkeit und Toleranz. Daher soll die christliche Religionspädagogik bzw. das religiöse Lernen in der Situation der religiösen Konflikte bzw. angesichts der religiösen Pluralität grundsätzlich zu einem besseren Verständnis des eigenen Glaubens beitragen und zu mehr Respekt gegenüber Menschen anderen Glaubens. Ich betone die Notwendigkeit, in der Schule ein Wissen über die Religionen mit ihren vielfältigen Erscheinungs- und Ideenwelten als kulturell maßgebliche sowie identitäs-und gemeinschaftsstiftende Bestimmungsfaktoren in unserer Gesellschaft zu vermitteln. Aufgrund dieser Einsichten erscheint es mir notwendig, das Ziel des Religionsunterrichts und die Rolle der Schulreligionspädagogik als Friedenserziehung angesichts der religiösen Konflikte in Südkorea neu wahrzunehmen.
Kontinuierliche Verbesserungsprozesse (KVP) bilden ein Kerninstrument des Lean-Production-Management und Ganzheitlicher Produktionssystemen, welches die aktive Beteiligung aller Beschäftigter an der Verbesserung von Prozessqualität und Produktivität intendiert – auch Produktionsbeschäftigte sollen sich im Rahmen von Teamarbeit, KVP-Workshops oder des Ideenmanagements an KVP zum Wohl und wirtschaftlichen Erfolg des Betriebs beteiligen. Dass die Beteiligung der Beschäftigten an Prozessoptimierungen von den Beschäftigten als Aufgabe angenommen und im Sinne des Betriebs produktiv umgesetzt wird, ist aber nicht so selbstverständlich, wie es vom Betrieben erwartet wird. Vielmehr werden die Produktionsbeschäftigten durch das betriebliche Beteiligungsangebot vor eine widersprüchlich Anforderungssituation gestellt: einerseits könnte die aktive Beteiligung der Beschäftigten die Interessantheit und Einflussnahme auf die Gestaltung der eigenen Arbeit sowie die Wirtschaftlichkeit und somit die eigenen Arbeitsplatzsicherheit erhöhen; andererseits können KVP negative Auswirkungen für die Beschäftigten, wie bspw. Leistungsintensivierung und Arbeitsplatzrationalisierung zu Folge haben, vor denen sich die Beschäftigten schützen wollen. Ziel dieser Arbeit ist mittels einer vergleichenden, qualitativen Fallstudienanalysen in zwei österreichischen Industriebetrieben Aneignungs- und Umgangsformen der Beschäftigten mit KVP zu rekonstruieren. Die Daten wurden in einem Mixed-Methods-Erhebungsdesign von Beobachtungen von Arbeitsplätzen und KVP-Workshops, Interviews von Beschäftigten und Expertengesprächen erhoben. Es zeigte sich breites Spektrum von Aneignungsformen der Beschäftigten: Diese reichen von Nichtbeteiligung durch Ignorieren und demonstrativer Ablehnung, über skeptischer Zurückhaltung und Erkämpfen von Handlungsspielräumen bis hin zu proaktiver und vorbehaltloser Beteiligung. Die Differenzen der Aneignungsformen lassen sich darauf zurückführen, dass die Beschäftigten sich vor dem Hintergrund ihrer jeweiligen subjektiven Orientierungen (Beteiligungstypen) interessenbewusst mit den Gestaltungsbedingungen von KVP sowie Arbeits- und Betriebsorganisation auseinandersetzen. Stark verkürzt betrachtet: Status-quo-Orientierte verfolgen ein dominantes Interesse an Vermeidung von Verschlechterung der Arbeits- und Beschäftigungssituation und lehnen die Beteiligung an KVP eher ab. Für Mitgestaltungsorientierte steht die Leistung einer guten und sinnvollen Arbeit im Fokus ihres Handelns. Sie nutzen die Beteiligung an KVP, um die Bedingungen ihrer Arbeits- und Leistungssituation aktiv beeinflussen. Karriereorientierte nutzen die Beteiligung an KVP, um sich als förderungswürdiger Leistungsträger von der breiten Masser der Beschäftigten abzuheben. Auf der strukturellen Ebene der Gestaltung von KVP wirken selbstorganisierte Arbeitsteams mit breiten Tätigkeitszuschnitten und Handlungsspielräumen, unterstützende Führungskräfte sowie prozessnahe und problemlöseorientierte Kooperationsstrukturen zwischen indirekten Servicebereichen und Produktion sich positiv auf die Beteiligungsdisposition der Beschäftigten aus. Fehlen diese Bedingungen und herrscht eine hohe Expertendominanz bei Optimierungsprozessen, die eher zu Kostenreduzierung als zu nachhaltigen Problemlösung von Arbeits- und Produktionsprozessen geführt werden, werden die von den Beschäftigten generierten und artikulierten Optimierungspotenziale nur schlecht vom Betrieb angenommen und umgesetzt. Infolgedessen fühlen sie sich als Experten ihres Arbeitsplatzes nicht ausreichend ernstgenommen. Ungelöste Probleme bleiben weiter störend im Arbeitsprozess. Zentrales Ergebnis der Arbeit ist, dass pauschale Ablehnung der Beteiligung an beschäftigtengetragene Optimierungsprozesse sich nur bei Status-quo-Orientierten, die in stark restriktiven Gestaltungsbedingungen von KVP arbeiten, finden lässt. In allen anderen Konstellationen versuchen die Beschäftigten mit einer Haltung des arbeitspolitischen Pragmatismus die Gelegenheitsstrukturen der Beteiligungsprozesse zu nutzen, um – mal konservativer mal progressiver – ihre Interessen in und an der Arbeit zu verfolgen. Wirtschaftlichkeitsinteressen des Betriebs werden von den Beschäftigten nicht in Frage gestellt. Betriebliche Interessen und Orientierung an betrieblichen Normen sind ein – meist nicht dominanter, aber bedeutender - Teil des Arbeitsverständnisses der Beschäftigten. Entscheidend für die Beteiligung der Beschäftigten an KVP ist, wie der Betrieb letztlich seine Interessen umsetzt: in alltagpraktischer Anerkennung der Erfahrung und Kompetenzen der Beschäftigten mittels realer Beteiligung und Unterstützung bei Problemlösungen durch prozessnahe Kooperationsstrukturen – oder ohne sie und zu Lasten der Beschäftigten. ; Continuous improvement process (CIP) is an essential part of lean production management and integrated production systems. It intends the active participation of all employees in improving process quality and productivity. Workers on the shopfloor should also participate in teamwork and CIP workshops or idea management. By doing this, workers can contribute their capabilities for the well-being and economic success of the company. However, it is not taken for granted that the workers participation in process optimization is accepted as a duty to fulfill the interests of the company to increase the productivity - as it is mainly assumed by the company. Rather, the request to participate in CIP confronts the workers with a contradicting situation of demands: on the one hand, it offers workers the opportunity to increase the appeal of work by contributing their skills and capabilities beyond their actual, often monotonous tasks, and by influencing the design and conditions of their own work; In addition, the workers help to ensure the profitability of the company and thus also their jobs; on the other hand, CIP can have negative consequences for the workers, such as increase in performance requirements and job rationalization, from which employees want to protect themselves. The aim of this book is to reconstruct the forms of appropriation and handling of employees with CIP by using a comparative, qualitative case study analysis in two Austrian industrial companies. Data was collected in a mixed methods survey design from observations of workplaces and CIP workshops, interviews with workers, with executives and representatives of the planning departments. There were a wide range of forms of appropriation by the workers: These range from 'non-participation through ignoring or demonstrative rejection', to 'skeptical restraint' and 'struggling for influence', to 'proactive and unreserved participation'. The differences in the appropriations can be traced back to the fact that the workers have different subjective orientations (rated in types of participation orientation). With these different orientations and the awareness of their own interests, the workers deal with the several conditions of practices of CIP as well as the everyday conditions of work and organization. Status-quo-oriented workers have a dominant interest in avoiding deterioration in the work and employment situation and tend to reject participation in CIP. Contribution-oriented workers focus on fulfilling their performance of a good and meaningful work. They use their participation in CIP to influence actively the conditions of their work and performance situation. Career-oriented workers use the participation in CIP to improve their promotion opportunities by standing out from the broad mass of employees as a high-achiever. At the structural level of the CIP practices, there is a positive effect on the participation of the workers in practices with self-organized work teams with a greater scope for decision-making and self-responsible working, supportive first level management as well as process-related and problem-solving cooperation structures between indirect service departments and production. If there is a lack of these conditions and if there is a high dominance of planning experts in CIP who only focus on cost reduction rather than sustainable problem solving of work and production processes, the workers´ ideas will not be received sufficiently and put into practice. As a result, as experts in their workplace, workers feel that they are not being taken seriously enough. The central result of the study is that a pure rejection of participation in workers-based optimization processes can only be found among status-quo-oriented workers under the highly restrictive conditions of CIP and work. In all other constellations of subjective participation orientations and CIP practices, the workers use the opportunities of participation (given by structures of the participation processes) with an attitude of work policy pragmatism to pursue their interests in and at work - sometimes in a more conservatively, sometimes in more progressively way. The workers do not question the company's economic interests. Company interests and orientation towards company standards are a - mostly not dominant but important - part of the work-related self-conception of the workers. Essential for the participation of workers in CIP is how the company realize its interests: in everyday practical recognition of the experience and capabilities of the workers by providing real participation and supporting problem solving processes - or without them and at the expense of the worker.
Hintergrund International findet die Bedeutung psychischer Störungen seit vielen Jahren zunehmendpolitische und wissenschaftliche Aufmerksamkeit. Depressionen führen nicht nur zu einer Belastung des psychosozialen Befindens, sondern haben auch große Einschränkungen in der Lebensqualität und Arbeitsproduktivität zur Folge [7]. Eine Identifikation von Prädiktoren für die Remission depressiver Symptomatik erscheint aus diesem Grunde besonders wichtig. Material und Methoden Remittierte und Nicht-Remittierte Patienten wurden anhand des in der Literatur verwendeten Cut-off-Wertes 7 in der Hamilton-Depressionsskala in verschiedenen soziodemographischen, klinischen und weiteren Variablen gegenübergestellt. Insgesamt handelt es sich um eine Stichprobe mit 388 Patienten, von denen 205 an der Katamneseuntersuchung teilnahmen. Eingeschlossen wurden Patienten, die die Diagnose einer einzelnen oder rezidivierenden depressiven Episode (F32.x / F33.x / F38.x) oder einer Dysthymie (F34.1) nach ICD-10 erhalten haben. Ausgeschlossen wurden jene, die als komorbide Diagnosen eine Schizophrenie (F2x.x), eine organisch bedingte Störung (F0x.x) oder eine Intelligenzminderung (F7x.x) nach ICD-10 aufwiesen. Es wurden folgende Skalen verwendet: Beck-Depressions-Inventar (BDI), ein Fragebogen zur gesundheitlichen Lebensqualität(WHOQOL-BREF), die Hamilton-Depressionsskala (HAM-D), die globale Erfassung des Funktionsniveaus (GAF) sowie die Clinical Global Scale (CGI). Ein eigens kreierter Fragebogen fand zur Erfassung anamnestischer und weiterer Daten ebenfalls Anwendung. Ergebnisse und Diskussion Insgesamt remittierte die depressive Symptomatik bei 93 (= 45 %) Patienten. Die nicht-remittierte Gruppe war durchschnittlich 49.82 Jahre alt und damit jünger als die remittierten Patienten (55.17 Jahre alt). Fast doppelt so viel remittierte Patienten hatten einen Abschluss am Gymnasium. Dieses spiegelte sich auch in der derzeitigen beruflichen Situation wider: 75.5% der Arbeitslosen oder erwerbs- bzw. berufsunfähigen Patienten waren nicht-remittiert (p= .00, d= 2.578). Es erhielten signifikant (p≤ .0001) häufiger nicht-remittierte Patienten die Diagnose einer rezidivierenden Depression in Verbindung mit einer Komorbidität. Im Vergleich der Medikamentenverordnung wurden signifikant mehr trizyklische Antidepressiva in der nicht-remittierten Gruppe verschrieben. Dies deutet darauf hin, dass diese ältere Generation der Antidepressiva besonders bei einer therapieresistenten Depression als Mittel 2. Wahl zum Einsatz kommt. Hinsichtlich der Psychotherapie kam es zu einem überraschenden Ergebnis, da signifikant (p≤ .0001) häufiger die nicht-remittierten Patienten diese abgeschlossen hatten oder sich noch in einer laufenden Therapie befanden. Einerseits könnte es auf eine selektive Zuweisung in Psychotherapien hindeuten, wenn sich eine auf Medikamente nur unzulänglich ansprechende Symptomatik zeigt. Andererseits könnte man auch von einer Selbstselektion von Patienten ausgehen, welche sich subjektiv besser fühlten und deshalb eine Psychotherapie nicht beanspruchen wollten. Der hohe Stellenwert sozialer Beziehungen wurde anhand der Variablen Freizeitverhalten, sportliche Aktivitäten, Kontakt mit Freunden und Verwandten, Art der Kontakte sowie dem Vorhandensein eines Ansprechpartners bei Problemen deutlich. In der zusammenfassenden binären logistischen Regressionsanalyse wurden die bedeutsamsten Prädiktorvariablen extrahiert. Eine Nicht-Remission demzufolge erhöht die Chance auf die Zuführung in eine Psychotherapie um den Faktor 2.72, was vermuten lässt, dass gerade schwer behandelbare Patienten, wie es auch die Leitlinie [10] empfiehlt, neben der medikamentösen Therapie eine zusätzliche Psychotherapie benötigen. Des Weiteren erhöht eine Nicht-Remission die Chance auf eine höhere Anzahl an stationären Aufenthalten wegen einer Depression um den Faktor 1.34. Es konnten keine Studien gefunden werden, die die Anzahl an stationären Aufenthalten wegen einer Depression als negativen Prädiktor ansah. Es ist jedoch zu vermuten, dass Patienten zwar nicht schwerer erkrankt sind im Sinne der Symptomschwere, aber vielleicht spezifische Bewältigungsmuster zeigen, die immer wieder zu einer Dekompensation und anschließenden Rehospitalisierung führen. Eine stabile berufliche Situation geht mit einer erhöhten Chance auf eine Remission um 4.19 einher und beeinflusst die Remissionswahrscheinlichkeit positiv. Beides erbringt ein gesichertes Einkommen und damit wahrscheinlich auch eine bessere bzw. leichtere soziale Integration. Dass diese Integration eine wichtige Rolle spielt, zeichnete sich auch im Prädiktor "Vorhandensein eines Ansprechpartners bei Problemen" ab. Die Chance zu remittieren erhöhte sich um 3.58, wenn man bei Problemen einen Ansprechpartner hatte. ; Background For many years psychological diseases have increasingly gained economical as well as political relevance internationally. They do not merely affect the psychosocial state of health, nevertheless they also have an effect on the quality of life as well as the labor productivity [7]. The incidence rate of psychological diseases will increase during the next years according to the evaluation of the WHO. Regarding life expectancies, in 2020 the highest loss of potential life years will be caused by cardiovascular diseases, followed by diseases due to depression [22]. Therefore the identification of factors, which predict the remission of depressive symptoms, is of major importance. Methods and Material In the present analysis patients, who had received inpatient treatment in the Johanna-Odebrecht-Stiftung in 2007, were invited to a catamnesis interview. Remitted and non-remitted patients were defined by a cut-off value of ≤ 7 of the Hamilton Depression Scale. The sample included 388 patients in total, whereas N=205 patients actually participated in the catamnesis. Patients, who had been diagnosed a major depression (F32.x/ F33.x/ F38.x according to ICD-10) or dysthymia (F34.1) were involved. Whereas those that suffered from schizophrenia (F2x.x), mental retardation or an organic disease (F0x.x) were excluded. The following scales have been used for the assessment: The Beck Depression Inventar (BDI), a questionnaire for the state of health and the quality of life (WHOQOL-BREF), the Hamilton Depression Scale (HAM-D), the Global Assessment of Functioning (GAF), the Clinical Global Scale (CGI) as well as a questionnaire developed by the research team of the Johanna-Odebrecht-Stiftung. Discussion and Results As a result of the research a remission rate of 45% (n= 93) was detected. Highly significant results were found regarding the patients' age, which was 49.82 years on average in the non-remitted group compared to the remitted group with 55.17 years. Patients in the non-remitted group were also younger at the time of their initial manifestation of depressive symptoms (39.13 years vs. 46.48 years). Nearly twice as many remitted than non-remitted patients had a high school diploma. Further results concerned the patients' work life: 75% of the unemployed patients or those incapable of working were non-remitted (p=0.00, d= 2.578). Another highly significant result (p>0.0001) was the finding that non-remitted patients suffered more often from recurring depressive episodes combined with a comorbidity. It was also found that tricyclic antidepressants were significantly more often prescribed to non-remitted patients. The evidence shows that the older generation of antidepressants should be the second choice. Regarding psychotherapy there was a surprising result since significantly (p<0.0001) more patients of the non-remitted group completed therapy or continued consulting a psychotherapist. A possible reason for this might be selective referrals to psychotherapy, which especially those patients receive, whose symptoms respond very little to medical treatment. On the other hand there could be a possible self-selection by those patients, who subjectively feel better and hence see no need for psychotherapeutic treatment. The importance of social relationships was shown by the variables leisure behaviour, sports activities, social contact with family and friends, the type of contact as well as the availability of someone to discuss personal problems with. The most important predictor variables have been extracted in the summary report of the binary logistic regression. As a result of the regression non-remission increases the likelihood (OR= 2.72) to receive psychotherapy. Therefore it is assumed that therapy-resistant patients need medical as well as psychotherapeutic treatment. Additionally a non-remission increases the number of in-patient stays caused by a depression (OR= 1.34). No study found describes the number of in-patient stays due to depression to be a negative predictor. Whereas the number of previous depressive episodes seems to be a risk for non-remission. Supposedly those patients are not necessarily more severely ill regarding the severity of symptoms, but they might use particular coping strategies, that more likely lead to decompensation and rehospitalization. A stable work or pension situation increases the probability of a remission (OR= 4.19), meaning that a secure income comes along with a better or easier social integration. The chance of remission is about (OR= 3.85) higher when patients have got someone to discuss personal problems with. Conclusion: A stable and secure income, a reliable social network as well as a small number of in-patient stays will increase the likelihood of a remission. A non-remission will increase the chance of being referred to psychotherapeutic treatment on the other hand.
Fünfundzwanzig Jahre lang, von 1993 bis 2018, wirkte Sergio Morabito, der zur Saison 2020/2021 an die Wiener Staatsoper wechselt, als Dramaturg an der Staatsoper Stuttgart; ebenso lange inszeniert er bereits im Team mit dem Regisseur Jossi Wieler, in Stuttgart wie auch anderswo. Der vorliegende Band, der Texte Morabitos eben jener fünfundzwanzig Jahre versammelt, widersetzt sich einer Lektüre als biographische Chronologie oder Entwicklungsbogen einer Ästhetik – ungeachtet der Tatsache, dass ästhetische Entscheidungen aus den Arbeiten der 1990er Jahre, vielfach entstanden in Zusammenarbeit mit der Bühnenbildnerin Anna Viebrock, inzwischen in den Mainstream europäischer Regieästhetik eingegangen sind. Dies mag sich in erkennbaren visuellen Versatzstücken oder szenischen Verfahren niederschlagen, ihr Ausgangspunkt ist indessen vielmehr eine Haltung, zum eigenen Handwerk wie zum Material, die der Autor hier vorzuführen vermag. Die versammelten Texte ermöglichen konzentrierte Einblicke in das Denken und Arbeiten Morabitos. Obschon viele der Texte aus Programmbüchern stammen, sind sie eben kein Reigen zitierfähiger Feuilletonperlen. Sie erlauben ein Nachvollziehen von Arbeitsprozessen und Entscheidungen in Hinblick auf eine zeitgenössische Produktionsdramaturgie im Musiktheater – was bereits für sich als Verdienst gelten könnte –, gehen aber gerade in der Offenlegung ihres argumentativen Unterbaus darüber hinaus und sind im wiederkehrenden Befragen der eigenen Arbeitsbedingungen und Verortung auch eine grundsätzliche Auseinandersetzung mit Theatermachen. Die Spezifik des Musiktheaters, das für Morabito an eine Partitur und ihre Struktur gebunden ist, begünstigt eine solche Politik der Haltung zusätzlich. Der Band ist in drei Abschnitte gegliedert: zunächst ein allgemeinerer Auftakt, der das Terrain absteckt, dann eine Sammlung produktionsbezogener Texte, die sich mit Aspekten einzelner Opern beschäftigen, und schließlich ein Quartett übergreifender Essays, die Stoffe und Motive detailliert und kontextreich diskutieren. Morabito stellt ein knappes Vorwort voran, in dem er den ästhetischen Grundsatz des Verhaltens zu einer Vorlage an einem Zitat Richard Wagners zu Wilhelmine Schröder-Devrient illustriert: Der ästhetische Mehrwert, den Oper schaffen könne, liege in ihrer szenischen Umsetzung. Die drei sehr dicht formulierten Texte des ersten Teils, die sich zu aktuellen Debatten der titelgebenden 'Opernarbeit' aus dramaturgischer Sicht positionieren, sind im Ton programmatisch. Ihnen folgt ein notiertes Gespräch zwischen Morabito, Wieler und Albrecht Thiemann, das 2016 in Stuttgart stattfand und einige der zuvor formulierten Grundsatzthesen – etwa zur Arbeit mit Sänger*innen und zum Umgang mit der Historizität des Repertoires – an konkreten Beispielen veranschaulicht und auch Einblicke in Morabitos künstlerische Entwicklung erlaubt. Der Autor, das wird schnell deutlich, argumentiert präzise, belesen und mit Lust an der Auseinandersetzung. Die Frage, ob Opernregie deutlich sein müsse, kontrastiert er etwa mit der Definition aus dem Grimmschen Wörterbuch und markiert bereits an dieser Stelle die Größen sinnlicher und intellektueller Wahrnehmung, die bei der Lektüre immer wieder ins Auge springen werden. Was auch hier – zunächst Wagner, nun die Grimms – bereits auffällt, ist die Technik, eigene Positionen durch Zitate Anderer vorzuführen: eine argumentierende Sprezzatura, die auch beim Lesen Spaß macht. Einer dogmatischen Vereindeutigung stellt Morabito die von den Grimms als "mannigfaltig" (S. 9) beschriebene Deutlichkeit gegenüber und hebelt so en passant, quer zur Feuilletondebatte, die Dichotomie von Regietheater und sogenannter Werktreue aus, die als abstrakter Schaukampf mehr mit Ideologie als mit konkreter Theaterarbeit zu tun habe: Darstellungstechniken eines unpsychologischen Theaters würden nicht notwendigerweise vor "biederer Psychologisierung" (S. 17) feien, man könne andererseits mit den Mitteln einer "sogenannten psychologischen Schauspielerführung" (S. 17) auch anderes Theater machen. Worauf es jedes Mal ankomme, sei "einen Punkt jenseits der eigenen Ästhetik zu erreichen" (S. 17), womit einer visuell wiedererkennbaren Ästhetik als Selbstzweck bereits eine Absage erteilt wird. Diese Überlegung setzt sich fort in Ausführungen zur Spielplangestaltung als zentralem dramaturgischen Arbeitsfeld, etwa in dem Argument, dass ein Spielzeitmotto die Individualität ästhetischer Positionen –die zu ermöglichen für Morabito zu den Kernaufgaben des Stadt- und Staatstheaterbetriebs gehört– eher einebne in Hinblick auf eine Prämisse, statt jenes "Mannigfaltige" und damit auch die Unberechenbarkeit und Uneindeutigkeit künstlerischer Prozesse und ihrer Ergebnisse ins Zentrum zu stellen. Morabito führt bereits an dieser Stelle Walter Benjamins Begriff der Monade an, der sich gut auf die im zweiten Abschnitt des Buches versammelten produktionsbezogenen Texte anwenden lässt, die den Großteil der knapp 400 Seiten beanspruchen. Dass es die Aufgabe von Opernregie sei, die Widersprüche einer Partitur zu artikulieren und historisches Material, unabhängig von einer Autor*innenintention, wieder zum Sprechen zu bringen, lässt sich auch diesen produktionsbezogenen Miniaturen voranstellen, die unterschiedliche Aspekte hervorheben und ihre historischen Kontexte einbetten. Immer wieder erlebbar ist die philologische Genauigkeit in der präzisen Auffächerung von Materialien, die dann szenische Lesarten ermöglichen. Wer einige der Produktionen zu den hier versammelten zweiundzwanzig Texten kennt, kann mit zusätzlichem Gewinn im dramaturgischen Unterbau dieser Arbeiten schmökern. Kernrepertoire und Raritäten – Barock, klassische Moderne und immer wieder Belcanto – finden sich hier versammelt, wobei die Lese- und Arbeitstechniken sich zwischen hermeneutischer Werkimmanenz in Partitur- und Librettoanalyse und komparatistischer Kontextualisierung bewegen. Dies ist gut nachvollziehbar etwa am Text zum Rheingold, der dem Umgang mit Freia musikalisch und szenisch nachspürt und in der Sequenz ihrer Vermessung, und damit ihrer Objektivierung, eine ethische Problematisierung künstlerischen Schaffens beschreibt. Das Beleuchten eher marginaler Perspektiven – hier Fasolts affektiver Haltung – ist ein Plus vieler dieser Miniaturen, die Altbekanntes neu durchdenkbar machen. Später, in der Reflexion über die gemeinsame Arbeit mit Anna Viebrock und das gestalterische Potenzial ihre Bühnenräume, geht es um "das vom Aufmerksamkeitsradius zuvor nicht Erfasste" als Kristallisationspunkt (S. 279); das ließe sich auch für diese Texte als Prinzip ansetzen. Die Überlegungen zu La clemenza di Tito gehen anhand der Figur der Vitellia als aus der Zeit gefallener Tragödin dem Widerspruch zwischen der opera seria in der absolutistischen Prägung Metastasios und der späten Vertonung dieses Librettos durch Mozart nach. Im Zentrum stehe eine Transformation von Macht, die auch das Theater des 17. Jahrhunderts als "kollektiven, politischen Echoraum" (S. 46) betreffe. Die Verstrickung von Handlung und Meta-Ebene – eine Dramaturgie, die auf der Handlungsebene die eigenen Mechanismen thematisiert – ist eine weitere Dynamik, die Morabito wiederholt beleuchtet, so auch in seinen Ausführungen zu Tristan und Isolde. Einer der interessantesten Texte befasst sich mit Martín y Solers Una cosa rara (1786), einer Oper, die Lorenzo da Ponte als Librettisten aufweisen kann. Hier wird ebenfalls eine Zeitspanne für die Reflexion fruchtbar gemacht, jedoch nicht der Zeitraum zwischen Librettoentstehung und Vertonung (einer durch Caterino Mazzolà vorgenommenen Überarbeitung) wie bei La clemenza di Tito, sondern zwischen Stückvorlage und Librettoentstehung. Morabito spürt diesen Stückvorlagen – zunächst Luis Veléz de Gueveras La Luna de la Sierra aus den 1620er Jahren, dann Juvenals satirischem Oeuvre, das im Titel referenziert wird – nach und nutzt die verschiedenen Zeithorizonte, um Sitten- und Gesellschaftsvorstellungen und ihre Reibungsflächen sichtbar zu machen. Morabito arbeitet heraus, wie das Bergidyll der Vorlage in da Pontes Libretto einer urbanen Sozialhegemonie weicht. Der Plot um die Bäuerin Lilla, die sich gegen die Avancen zweier sozial höhergestellter Männer – des Infanten Giovanni und des Oberstallmeisters Corrado, beide mit einem Zugang zum staatlichen Gewaltmonopol ausgestattet – zur Wehr setzt und schließlich von der Königin Isabella, und damit der höchsten Verkörperung ebenjener repressiven Gewalt, als dea ex machina ins private Glück gehievt wird, wird so zum Knotenpunkt einer Betrachtung von spätabsolutistischer Geschlechterpolitik, Klassengefälle, kleinbürgerlichem Habitus und ideengeschichtlicher Bezugsgrößen. Theaterwissenschaftlich lohnenswert ist dieser Essay auch in seiner Beschreibung von Theater als Kunst des Zwischenraumes. Auch dies ist ein Bild, das im Laufe des Bandes mehrfach auftaucht und sich als Denkfigur vor allen Dingen zu den Texten, die sich mit Belcanto-Opern befassen, in Verbindung bringen lässt: Deren so zentral nicht-realistisches, "nicht-lineares" (S. 28) Erzählen eröffnet die Möglichkeit, inszenatorisch genau solche Zwischenräume zu schaffen. Auch einer der längeren Essays im dritten Abschnitt des Bandes, zum Repertoire Giuditta Pastas, kreist um die Spezifik von Belcanto-Dramaturgie. Ein Kabinettstückchen sind die "Kommentare zu Bellinis Norma", einer Oper, die ebenfalls noch dem Belcanto zuzurechnen und ein Kernwerk des Repertoires ist. Morabito kreiert hier einen ebensolchen "nicht-linearen" Zwischenraum, indem er die Kulte, die das Libretto von Felice Romani durchziehen – den von Norma praktizierten Kult der Mondgöttin und den von den Galliern besungenen Kult des Kriegsgottes Irminsul – als ungleichzeitige Weltalter beschreibt. Über die Dramenvorlage von Alexandre Soumet geht Morabito weiter zurück. Er behandelt François-René de Chateaubriands Les martyrs, um dann anhand früh- und hochmittelalterlicher Belege der Etymologie Irminsuls nachzuspüren und zeigt schließlich, mit Bezug auf Johann Jakob Bachofen, Norma als einen gynaitokratischen Gegenentwurf auf, der von späteren, romantischen Rezeptionen überlagert worden sei. Es sind diese dantesk anmutenden Gänge durch feinste Verästelungen, die jenseits strikter Wissenschaftsprosa Perspektiven für eine breitere theaterwissenschaftliche Betrachtung inspirieren. Als Leittext der produktionsbezogenen Monaden, der die schon angesprochene Verknüpfung von Inhalt und Meta-Reflexion vornimmt, kann Morabitos Auseinandersetzung mit Schönbergs Moses und Aron gelten. Ausgehend von der Figur Arons, der als Vermittler eine Scharnierfunktion zwischen Moses und Volk innehat, bezieht Morabito sich hier – in einem Nachdenken zwischen Dramaturgie und Philosophie – erneut auf Benjamin und dessen "Übersetzertext" und stellt anhand von Arons Wunderwirken ein "Denken der Verwandlung" (S. 129) einer fundamentalistischen Fixierung gegenüber, womit er auf einer zweiten Ebene auch die eigene Regietätigkeit als Vermittlungsebene zwischen Werk und Inszenierung in Form einer Verwandlung diskutiert: Die Opernform sei auf die Notwendigkeit der theatralischen Vermittlung angewiesen. Den Begriff der Verwandlung, als Transformation des eigenen Blicks durch ein "Vexierspiel zwischen den Diskursordnungen" (S. 279), steht auch der Hommage an das Schaffen Anna Viebrocks nahe, das hier mit konkreten Beispielen aus der gemeinsamen Theaterarbeit sehr gut fassbar wird. Dieses längere Kapitel mit dem sehr schönen Titel Wahnzimmer bildet den Auftakt für den abschließenden, dritten Abschnitt des Bandes. Die verbleibenden Texte befassen sich mit Dramaturgien des späten 18. und frühen 19. Jahrhunderts (Jommelli und Saverio Mattei, Belcanto und Giuditta Pasta) und mit dem komplexen, vielfach von antisemitischen Stereotypen durchzogenen Quellenkorpus zu Halévys La Juive, gegen dessen kategorisches Verdrängen Morabito sich stellt, um stattdessen gerade durch die Widersprüchlichkeit und Ambivalenz der Texte einen fortwirkenden Antisemitismus diskutieren zu können. Morabitos stupende Materialkenntnis und Genauigkeit in der von ihm immer wieder thematisierten 'Vermittlungsarbeit', die seine hier versammelten Texte durchziehen, lassen sich mit einem früh im Band auftauchenden Zitat Klaus Zeheleins zu Morabitos Anfangsjahren kommentieren, das Albrecht Thiemann wiedergibt: "es gebe da einen jungen Dramaturgen, der alles wisse" (S. 26). Stellenweise wünscht man sich beim Lesen ein wissenschaftliches Layout mit Fußnoten, das einen leichteren Zugriff auf die Übersetzung der zahlreichen Zitate in Originalsprache ermöglichen würde, ohne durch das Nachschlagen in den Endnoten im Lesen unterbrochen zu werden. Die präzise philologische Arbeit ist ohnehin als wissenschaftlich rezipierbar, freilich mit der Perspektivverschiebung, dass die Wissenschaft einer Partitur keine konzise szenische Erzählung abzuringen hat. Umso beeindruckender ist dieser nachhaltige Einblick in eine Musiktheaterästhetik, die eben keine vorgefasste ist, sondern sich auf jedes Werk, mit abgeschnittenen Rezeptionszöpfen, vorbehaltlos einzulassen versucht – als eine ästhetische Haltung quer zu erkennbaren Ästhetiken. Dass Morabito deutlich formuliert, dass Oper sich durch Kollaboration auszeichne, in der es nicht darum gehe, ein Konzept durchzudrücken, sondern mit Sänger*innen gemeinsam zu gestalten, soll an dieser Stelle nochmals explizit Erwähnung finden. Morabito plädiert aus der für ihn sinnfälligen künstlerischen Praxis heraus für eine "Verabschiedung des traditionellen Machtdiskurses" (S. 17), der bis heute das Musiktheater dominiere. Nicht die Verwirklichung der künstlerischen Vision einer Einzelperson auf Kosten aller anderen sei erstrebenswert, sondern vielmehr müsse die Multiplizierung und Dezentralisierung der Verantwortlichkeiten als Chance begriffen werden. Immer wieder sind es, auch an dieser Stelle, die Sänger*innen, die hier als Partner*innen in der szenischen Umsetzung beschrieben werden: Wie umfassend die dramaturgische Vorbereitung auch sei, man müsse immer bereit sein, sie in der Zusammenarbeit mit den Sänger*innen aufs Spiel zu setzen. Die Langlebigkeit der Ergebnisse dieser Haltung – die Stuttgarter Alcina von 1998 etwa war 2018 wieder im Spielplan zu finden, unverändert präzise und aktuell – stützen Morabitos Arbeitsweise. Macht man einen Schritt zurück bei der Lektüre dieses Buches und betrachtet die theoretischen Fixsterne, die immer wieder in Rahmungen aufscheinen, so kommt Benjamin sicherlich das meiste Gewicht zu. Auch Adorno ist eine stetige Referenzgröße. Alexander Kluge und Heiner Müller, Kleist, Heine und Fabri blitzen auf, ebenso Koselleck und Francesco Busoni. Musik- und Theaterwissenschaftler*innen – Morabito hat Angewandte Theaterwissenschaft studiert – werden insbesondere etablierte Fachvertreter*innen, häufig des Frankfurter Umfelds, wiedererkennen: Hans-Thies Lehmann und Günther Heeg, Sieghart Döhring und Anna Amalie Abert. Hier wird Morabitos eigener Kontext erfahrbar, das Erarbeiten seines Handwerks unter Michael Giehlen in der Ära Ruth Berghaus an der Oper Frankfurt der 1980er Jahre unter dem Einfluss der Frankfurter Schule. Das lädt zum Nachdenken darüber ein, wie sich eine Rezeption des Monaden-Begriffs nach Rudolf Münz und dessen Auseinandersetzung mit der Historizität leiblicher Ausdrucksformen einfügen würde. Auch die Belcantoforschungen von Heather Hadlock und Naomi André oder Butlers Phänomenologie-Rezeption würden Anschlusspunkte bieten. Eine der in diesem Zusammenhang treffendsten Beschreibungen des Arbeitens Morabitos, die an dieser Stelle den Schlusspunkt setzen soll, findet sich erneut im Text zu Anna Viebrocks Räumen: Die Frage der Inszenierungsarbeit sei nicht "Wie lösen wir das?" sondern "Worum geht es?" (S. 280).
Wäre die Gegenwart eine andere, hätte im Mai 2020 die achte Ausgabe der Konferenz "Theater und Netz", einer Initiative von nachtkritik.de und der Heinrich-Böll-Stiftung, stattgefunden. Stattdessen ergab sich für Theaterschaffende, Kritiker*innen und Publikum reichlich Gelegenheit, das Verhältnis von Theater und Netz in actu auszuloten: Durch die Ausgangsbeschränkungen befeuert, verlagerte sich das Theatergeschehen in die digitale Experimentierstube. Im Oktober erschien nun der Band Netztheater, der in 21 Beiträgen die Erfahrungen der vergangenen sechs Monate reflektiert –fundiert durch die Expertise der im Format "Theater und Netz" seit 2013 geleisteten Pionierarbeit. Die Kürze der zwei- bis siebenseitigen Beiträge, gepaart mit der Erfahrungsdiversität aus Herstellung, Rezeption und wissenschaftlicher Auseinandersetzung, hat entscheidende Vorteile: Hier wird nicht lange umständlich unter Ausrufung irgendeines "Post-" herumgeredet oder die beliebte Formel strapaziert, Theater müsse "neu gedacht" werden. Die Beitragenden verbindet die gemeinsame Sache und so kommen sie rasch zum Punkt. Als Hybrid aus theoretischen Positionen und reflektierender Praxis bündelt die Publikation praktisch verwertbares und weiterentwickelbares Wissen kompakt und beinahe in Echtzeit. Daher verhandelt diese Rezension die Beiträge nicht chronologisch, sondern führt einander ergänzende Perspektiven zu zentralen Aspekten wie Dramaturgie, Community, Interaktion etc. kommentierend zusammen: Der Band eröffnet mit einem Praxisbericht des geglückten Burgtheater-on-Twitter-Experiments #vorstellungsänderung, das tausende Mittweeter*innen auch abseits des Abopublikums rekrutierte. Projekte wie dieses geben Hoffnung, dass die Theater, die sich im Netz oft als singuläre kulturelle Leuchttürme gebärden, durchaus von den Praktiken der Sozialen Medien profitieren können: Like, share, comment, retweet sind schließlich nichts anderes als digitale Kürzel für gemeinschaftsstiftende Interaktionen, basierend auf Emotion, Zuspruch, Diskussion und Multiplikation. Vielleicht sind in Zukunft ja auch vermehrt offen und öffentlich geführte Dialoge zwischen Theaterhäusern zu erwarten? Netztheater geht davon aus, dass die Suche nach digitalen künstlerischen Ausdrucksformen sich nicht erst daraus ergibt, dass Hygieneregeln und Distanzierungsvorgaben die Modi des Zuschauens kurzfristig verändert haben. Auch tradierte Annahmen über das Publikum sind zu überprüfen. In ihrem kollaborativen Text "Das Theater der Digital Natives" beobachten Irina-Simona Barca, Katja Grawinkel-Claassen und Kathrin Tiedemann, dass die Digitalisierung längst "in Form von Alltagstätigkeiten und Wahrnehmungsweisen" (S.16) im Theater angekommen sei. Das Theater ist kein geschützter Ort, an dem die Zeit stehen geblieben ist. Vielmehr tragen die Zuschauer*innen die Welt, in der sie leben, unweigerlich in ihn hinein. Das betrifft auch Praktiken des Multitaskings bzw. des 'Second Screen', also die Gleichzeitigkeit mehrerer Interfaces und Informationsquellen. Jahrhundertelang war der zentralperspektivische Blick der Barockbühne prägend für die Organisation einer exklusiven Aufmerksamkeit im Theater. Wiewohl es also eine neue Erfahrung für die Theaterhäuser ist, "Nebenbeimedium zu sein" (S. 20), wie Judith Ackermann betont, ist es höchste Zeit, diese 'verstreute' Aufmerksamkeit im Inszenierungsprozess aktiv mitzudenken und gezielt einzusetzen. Dabei ist die Diversität des Publikums inklusive der unterschiedlich ausgeprägten Media Literacy zu beachten, denn nicht alle Zuschauer*innen werden sich augenblicklich z. B. in einer gamifizierten virtuellen Umgebung zurechtfinden: "Indem ich im digitalen Raum Zusatzinformationen – Hintergrundinfos zum Stück, zur Produktion – zu meinen Inszenierungen streue, kann ich zum Beispiel auch dem 'analogen Publikum' einen Mehrwert bieten, der es aber nicht verschreckt." (S. 22) Für eine Dramaturgie des Digitalen ist Aristoteles allenfalls partiell ein guter Ratgeber. Zu viele Komponenten sind neben 'der Story an sich' an der Architektur der Erzählung beteiligt. Einige Elemente des 'klassischen' Storytellings lassen sich psychologisch für den digitalen Raum begründen: Das Überschreiten der 'Schwelle' etwa wird als zentraler Moment markiert, zumal die Spielregeln für das Dahinterliegende noch nicht festgelegt sind – die Verständigung auf "Floskeln, Rollen und Situationen" (S. 71) hat erst zu erfolgen. Friedrich Kirschner, Professor für digitale Medien an der Ernst Busch Berlin, schlägt vor, die zur Vermittlung von "Rollen- und Erlebnissicherheit" (ebd.) dringend nötigen Ausverhandlungsprozesse im Rahmen der jeweiligen Inszenierung ästhetisch zu gestalten. Dabei setzt er auf ein Miteinander, "das im Gegensatz zu den treibenden Kräften der Plattformhalter auf Erkenntnis gerichtet ist; das Handlungsfähigkeit vermittelt anstelle von Determinismus" (S. 73). In diesem Sinne schlägt Ackermann überdies vor, "modular" zu denken, also "leichte Ein- und Ausstiegsmöglichkeiten" zu schaffen, "indem man immer wieder die Möglichkeit gibt dazuzustoßen" (S. 21). Wiederholt wird das Serielle als Chance für neue Theaterformen ausgewiesen, beispielsweise um "durch gemeinsames, geteiltes Wissen über einen langen Zeitraum […] eine Beziehung zu Figuren auf[zu]bauen, sie mit der eigenen Lebensrealität ab[zu]gleichen und mit Freund/innen [zu] diskutieren" (S. 72), wie Kirschner in "Teilhabe als Notwendigkeit: Theater als Raum pluraler Gemeinschaften" schreibt. Um diese Gemeinschaftsbildung ist es auch Christiane Hütter zu tun: Die Community ist das Herzstück des Theaters, weshalb die künstlerische Energie aktuell vor allem darauf zu verwenden sei, "dass Leute wiederkommen, dass sich Routinen und Rituale entwickeln, dass serielle Formate entstehen" (S. 45). Diese Community aufzubauen, "das ist ein Handwerk, das eine Strategie, Zeit und Inhalte benötigt" (S. 30), weiß auch Christian Römer, Referent für Kulturpolitik und Neue Medien der Heinrich-Böll-Stiftung, in seinem Plädoyer "Für ein Theater @home!". Essentieller Bestandteil dieser Strategie, die vorerst noch strategisch auf eine Gemeinschaft "vor der Bezahlschranke" setzen müsse, sei die "Arbeit an der eigenen Identität als Theater im Netz" (ebd.). "Ein Schaufenster in die eigene Vergangenheit stärkt die Bindung des Publikums an 'sein' Theater." (S. 29) Man möchte hinzufügen, dass die "Verbindung zur [eigenen] Geschichte" (ebd.) auch nach Innen identitäts- und strukturbildend wirken und so womöglich die ein oder andere Erschütterung abfangen kann, die die Theaterschaffenden gegenwärtig persönlich und als Gemeinschaft erleben. Wie zugkräftig Selbstmarketing bzw. 'Branding' in Sachen Follower*innenschaft ist, lässt sich beispielsweise bei erfolgreichen Influencer*innen beobachten. Der Dramatiker und Dramaturg Konstantin Küspert zeigt in "Sozialmediale Theaterräume: Die performative Parallelwelt von TikTok" überaus schlüssig auf, welche "Grundelemente theatraler Praxis" in Social-Media-Formaten zu finden sind: "TikToks müssen, um erfolgreich zu sein, praktisch immer eine Pointe haben, meistens überraschend und lustig, und damit grundsätzliche Elemente einer Narration – teilweise regelrechte Fünf-Akt-Strukturen oder Rekontextualisierungen im Miniformat – nachbauen." (S. 26) Auffällig sind auch Praktiken des Samplings, wie sie schon in Hans-Thies Lehmanns Postdramatische[m] Theater, das jüngst seinen zwanzigsten Geburtstag feierte, zu finden sind: Denn auch bei TikToks wird "reinszeniert, kontextualisiert und koproduziert" (ebd.). Aber manchmal ist es gerade das Ähnliche, das trennt. Man stelle sich etwa einen Burgschauspieler auf der Bühne eines Kölner Karnevalsvereines vor. So verlockend wasserdicht die von Küspert angestrengte Gleichung auch anmutet, lässt sich eigentlich nur in der konkreten Anwendung überprüfen, "was vom eigenen Formenrepertoire übersetzbar ist" (S. 84). Der schmerzliche Verlust öffentlicher Orte, zu denen auch das Theater als Raum der gesellschaftlichen Verständigung gehört, zieht sich leitmotivisch durch die Texte des Sammelbandes. "Die Corona-Krise ist eine Krise der Versammlung" (S. 35), bringt Dramaturg Cornelius Puschke diesen Umstand zu Beginn seines "Plädoyer[s] für 1000 neue Theater" auf den Punkt. Dass es sehr wohl auch im Internet Formen von Gemeinschaftsbildung gibt, die sich auf dezentrale Weise organisieren, beobachtet Christiane Hütter mit kritischem Interesse: "QAnon und Konsorten glänzen mit orchestriertem Storytelling, outgesourced an viele, mit einem übergeordneten World-building-Framework, das Inkonsistenzen erlaubt" (S. 41). Eine Aufgabe des Theaters könnte es sein, positive Gegenangebote zu entwerfen, die dieser Sehnsucht nach Gemeinschaft, Austausch und gemeinsamer Erzählung entsprechen. Wie aber können solche Dialog und Austausch befördernden Formate aussehen? Die interdisziplinäre Künstlerin und Game Designerin Christiane Hütter, aus deren Feder insgesamt drei Texte des Bandes und zwei Interviews stammen, entwirft zu diesem Zweck eine "Typologie von Interaktion, Kollaboration und Partizipation" in übersichtlich tabellarischer Form, denn häufig enttäuschten 'interaktive Stücke' durch "Pseudo-Interaktions-Möglichkeiten" oder "asymmetrische Interaktion" (S. 44). Angesichts der pandemiebedingten Einschnitte in die Möglichkeit, durch Handlungen 'stattzufinden', ist es eine der wichtigsten Herausforderungen an Inszenierungsprozesse, die Agency der Zuschauer*innen sinnvoll zu integrieren. Die Nachtkritikerin Esther Slevogt plädiert explizit dafür, die Webseiten der Theater als "Portale in den digitalen Raum" und "Interfaces" (S. 109) zu behandeln. Diese verstehen sich gegenwärtig eher als Sende- denn als Empfangskanäle; die einstigen Gästebücher sind längst in selbstverwaltete Facebook-Gruppen migriert und bilden hier den kulturkritischen Versammlungsort einer recht spezifischen Theaterklientel. Eine Brücke zwischen analog und virtuell, Inszenierungs- und Alltagsgeschehen könnten hybride Formate herstellen. Der Theaterregisseur Christopher Rüping beschreibt Hybridität durchaus als Challenge, weil "sich die kulturellen Praktiken des einen und des anderen so beißen". Eine Inszenierung, die so divergente Rezeptionsbedingungen berücksichtigt, sei entsprechend komplex im Herstellungsprozess und müsste "auf achtzehn Ebenen gleichzeitig" funktionieren: "Interaktivität, die nur im digitalen Raum stattfindet, während ich analog zuschaue und davon ausgeschlossen bin, ist merkwürdig." (S. 94) Zudem ist es auch für Darsteller*innen eine neue Erfahrung, auf die weder Ausbildung noch bisherige Praxis sie angemessen vorbereitet haben. So stellt Ackermann die berechtigte Frage: "Wie kann den Schauspieler/innen das Gefühl vermittelt werden, dass sie keinen Film machen, sondern dass sie mit Personen interagieren, die nicht Teil der performenden Gruppe sind – auch wenn diese Personen nicht physisch kopräsent sind?" (S. 21) 'Gemeinsames Erzählen' prägt die Entstehungsgeschichte unserer Kultur, Gesellschaft und Sozialisation. Keine Entwicklung ohne Kooperation, keine Innovation ohne Vorstellungsvermögen. Netztheater könnte ein System der jahrhundertelangen Professionalisierung von Theater neu in Bewegung bringen, weil es Expertisen unterschiedlicher Provenienz bedarf und den Grundgedanken von Crowdsourcing in Schaffensprozesse integriert. Aber sind wir wirklich bereit für künstlerische Formate mit offenem Ausgang? Widerspricht das nicht dem Prinzip von Inszenierung? Müsste man das Profil der Regie – der ja gerade im deutschen Sprachraum besondere Deutungshoheit zukommt – womöglich neu definieren? Aktionen von Zuschauer*innen, die aktiv am Handlungsverlauf mitschreiben, sind schwer zu antizipieren; die Interventionen von Trollen und Bots brechen unerwartet in den Handlungsverlauf ein. Aber vielleicht ist es angesichts der Erschütterungen von 2020 gar keine dumme Idee, statt vorgefertigter Handlungsbögen flexibel adaptierbare Aktionsmodelle zu entwerfen, mit denen auf den Einbruch des Unvorhergesehen reagiert werden kann. Frank Rieger vom Chaos Computer Club beforscht Mixed-Reality-Projekte bereits seit den 1990er-Jahren. "Hybride Räume, digitale und interaktive Formate" hätten bereits eine lange Geschichte, allerdings gäbe es immer wieder "unrealistische Annahmen über das, was die Technik am Ende leisten können wird" (S. 61). Mitunter behindere aber gerade die entgegengesetzte Annahme die Umsetzung: "Man kriegt ein staatliches Theater für eine große Produktion nur dazu, das auch im digitalen Raum zu machen, wenn die das gleiche Gefühl von ernsthafter Technik haben" (S. 94), weiß Regisseur Christopher Rüping aus eigener Erfahrung. Andere Internetformate bewiesen, dass es nicht immer schweres Gerät erfordert, denn "im digitalen Raum dieses Erlebnis [von Gemeinschaft] zu stiften" sei etwas, das "jedem mittelmäßigen Streamer gelingt" (ebd.). Die Ursache für solche Trugschlüsse sieht Rieger in der Inselexistenz, die viele Theater fristen. Der Branche fehle noch immer eine "breite Kultur des ehrlichen Erfahrungsaustausches, der Diskussion von technischen, inhaltlichen und Projektmanagement-Fehlern" (S. 62), sodass das Rad immer wieder neu erfunden werden müsse. Dem entgegenzuarbeiten beabsichtigt die im vergangenen Jahr gegründete Dortmunder Akademie für Digitalität und Theater. Gemäß ihrer Open-Source-Strategie will sie "Nerdkultur […] ins Theater reinbekommen" (S. 67) und die Erkenntnisse ihrer prototypischen Arbeit in Tutorials, Talks und Wikis zugänglich dokumentieren. In ihrer Auswertung der Netztheaterexperimente des ersten Pandemie-Halbjahres bemerken die Bandredakteur*innen Sophie Diesselhorst und Christian Rakow, dass "das Gros […] piratischen Charakter" hatte. "Es entstammte der Freien Szene oder ging auf Initiativen von Einzel-Künstler/innen zurück, die sich ihre eigene Infrastruktur bauten und einfache technische Lösungen jenseits des Stadttheater-Apparats fanden." (S. 89) Man kann annehmen, dass dieser Innovationsgeist zumindest teilweise der Not geschuldet war. Denn selbst Projekte an etablierten Häusern sind häufig von externen Zusatzförderungen abhängig. Um über den eigenen Guckkasten hinauszudenken, haben einige Theater bereits Kontakt zu freien Künstler*innen und Kollektiven aufgenommen. "Es gibt viele kleine Aufträge von Theatern, die sagen: 'Wir wissen nicht, wie es weitergeht. Wollen Sie etwas ausprobieren?'" (S. 97), schreibt die britische Kritikerin Alice Saville. Diese vorsichtige Kontaktaufnahme birgt die Chance, das Gespräch darüber zu beginnen, wie sich festgefahrene Strukturen künstlerisch und wirtschaftlich öffnen lassen. Eine Möglichkeit wäre, Theater künftig als "Agenturen für das Dramatische" zu denken, wie am 13.11.2020 bei der Onlinetagung "Postpandemisches Theater" vorgeschlagen wurde, die ebenfalls auf die Initiator*innen des Sammelbandes zurückgeht. Für die Pluralität und Interdisziplinarität der Branche steht übrigens auch, dass keine der Autor*innenbiographien einen linearen Verlauf aufweist, geschweige denn sich auf eine einzige Berufsbezeichnung zurückführen ließe. Eine der aktuellen Herausforderungen besteht darin, Jobprofile zu überdenken. In Christiane Hütters Entwurf für ein "Theater der Gegenwart" ändert sich die Organisationsstruktur auch auf der Leitungsebene: "Es geht in Zukunft vor allem auch darum, die Gesamtprozesse zu koordinieren, Projektmanagement zu machen, Herstellungsleitung für Situationen, Care-Arbeit fürs Team." (S.45) Ein Kernanliegen der Publikation ist das Plädoyer für eine 'vierte', digitale Sparte – wobei zu bemerken ist, dass das digitale Theater sich diesen vierten Platz vielerorts mit dem Theater für junges Publikum teilt. Dieser Befund ist symptomatisch, werden doch Digitalität und Jugend oft zusammengedacht. Berücksichtigt man die zeitliche Dimension –"in naher Zukunft wird es nur noch Digital Natives geben" (S. 16) – wird rasch klar, dass es sich um eine voreilige Schlussfolgerung handelt. Die sich andeutende Marginalisierung verheißt wenig Gutes für die so dringend nötigen Finanzierungsstrukturen und Fördermodelle, zumal auch die Verantwortung, diese 'vierte Sparte' zu gestalten, damit demselben Personenkreis zugesprochen wird. Folgerichtig wird immer wieder sachlich bemerkt, dass zum Aufbau einer künstlerischen Infrastruktur tatsächliche Ressourcen in Form von Zeit, Geld und neuen Stellenprofilen am Theater benötigt werden. Einige Häuser haben bereits erste Schritte gesetzt und beschäftigen neben Positionen wie Social Media oder – neudeutsch – Community Management nun auch Programmierer*innen. Das Staatstheater Augsburg, das sich bereits im Frühjahr "einen Namen als VR-Hochburg mit einem umfangreichen Spielplan an Virtual-Reality-Produktionen" (S. 99) machte, hat mit Beginn der Spielzeit 2020/21 Tina Lorenz als "Projektleitung für Digitale Entwicklung" eingestellt; das Schauspielhaus Zürich holte für seine Webserie Dekalog den Designer für Virtuelle Interaktion, Timo Raddatz, ins Boot. Für eine "Digitale Sparte" argumentiert auch Elena Philipp, die die Münchner Kammerspiele, das Staatstheater Augsburg und das Hebbel am Ufer als Case Studies ins Feld führt. Die Nutzung digitaler Technologien beschränkt sich aber naturgemäß nicht nur auf die künstlerische Außenwirkung, sondern bietet auch ganz praktische Lösungen: Produktionsvorgänge –und sogar der ökologische Fußabdruck –können beispielsweise durch 'virtuelle Bauproben', 3D-Modelle und die Nutzung von Extended Reality (XR) wesentlich erleichtert werden. Mit der routinemäßigen Nutzung digitaler Technologien stehen auch neue Inhalte in Aussicht. Derzeit erfahre die Form zu große Aufmerksamkeit, zitiert Philipp Tina Lorenz, die konkrete Vorschläge für inhaltliche Schwerpunkte abseits der tausendsten Neuauflage von Goethe und Schiller macht: "Noch ist das Medium die Message, aber wir müssen Geschichten für das digitale Zeitalter entwickeln, über die Gig Economy, Smart Cities oder darüber, wie Kommunikation, Aktivismus und soziale Bewegungen im 21. Jahrhundert funktionieren." (S. 102) Der Blick der Herausgeber*innen inkludiert auch Länder, deren staatliche Subventionsstrukturen weit weniger privilegiert beschaffen sind als im deutschsprachigen Raum. Alice Saville stellt in ihrem Beitrag "Keine Show ohne Publikum" einige Beispiele aus "Großbritanniens immersive[r] Theaterszene im Lockdown" vor, die ja aufgrund ihrer Organisationsform –weit mehr Touring Companies als feste Ensembletheater –ein gewisses Training in innovativer Raumgestaltung besitzt. Der Stadtplaner und Theaterleiter Trevor Davies berichtet von seinen Erfahrungen mit der hybriden Performancereihe "Wa(l)king Copenhagen", für die 100 Künstler*innen eingeladen wurden "ab dem 1. Mai 2020 über 100 Tage lang 100 kuratierte zwölfstündige Walks […] über stündliche Livestreams digital [zu] übertragen" (S. 54). Und die Kuratorin und Kritikerin Madly Pesti erzählt am Beispiel Estlands, bei dem sich die Einwohnerzahl und die Summe der jährlichen Theaterbesuche entsprechen, von der gelungenen Kooperation von Theaterhäusern und Rundfunk, die auf ein über Jahrzehnte gepflegtes Verhältnis zurückgeht: Da die Rechte der beteiligten Künstler*innen vom Estnischen Schauspielerverband vertreten wurden, konnte eine Sonderregelung für die Dauer des Ausnahmezustands verhandelt werden, um die künstlerischen Arbeiten im kulturellen Webportal des Nationalrundfunks kostenlos zugänglich zu machen. Angesichts des vergleichsweise neuen Terrains muss das Theater sich fragen, was es aus den Erfahrungen anderer Branchen lernen kann. Denkt man beispielsweise an die wirtschaftlichen Nöte des Onlinejournalismus und die mühsame Etablierung von Paywalls, ist es sinnvoll, frühzeitig über Verwertungsmodelle bzw. den Preis von 'gratis' nachzudenken. Es gilt zu prüfen, inwiefern Limitation (zeitlich, kapazitär, Ticketing), Exklusivität (Sonderformate, Blicke hinter die Kulissen, Stichwort Onlyfans) oder Partizipations- und Mitgestaltungsoptionen als wertsteigernde Maßnahmen praktikabel und tragfähig sind. Im Kontext von Big Data ist zudem branchenweit zu diskutieren, wie sich Theaterhäuser zu privatisierten Plattformen, die ja den digitalen Raum dominieren, verhalten sollen. Erschwerend kommt hinzu, dass die ungeklärte Rechtesituation im deutschsprachigen Raum auf Netztheaterexperimente nachgerade innovationsfeindlich wirkt. "Man kann nicht Theater im Internet machen und dann aber straight die Copyright-Gepflogenheiten des Analogen anwenden wollen" (S. 93), spricht die Dramaturgin Katinka Deecke im Interview ein Feld mit raschem Klärungsbedarf an. Wiewohl alle Texte von den Lehren aus spezifischen Best Practices leben – schließlich werden die neuen Ausdrucksformate von Pionieren "des Ausprobierens, Aneignens und Entdeckens" (S. 76) entwickelt – versammelt die Publikation in einem eigenen "Produktionen"-Kapitel gezielt Besprechungen einzelner Projekte. Sinnigerweise stammen diese Texte mehrheitlich von Menschen, die berufsbedingt einen größeren Überblick über die Rezeption der Szene besitzen: Kritiker*innen und Redakteur*innen. So kommt Elena Philipps Untersuchung des "Aufbau[s] von Online-Programmen an Theatern" beispielsweise zu dem Schluss, dass "begleitend zu einer Theaterästhetik" – beispielsweise "für Virtual-Reality-Umgebungen" – auch "das Publikum dafür entwickelt" (S. 101) werden müsse. Der Umgang mit neuer Technologie ist schließlich für alle Beteiligten zunächst eine Terra incognita. Sophie Diesselhorst berichtet vom Online-Zusammenspiel der "Netztheater-Experimente aus Schauspielschulen", etwa der vielbeachteten Produktion Wir sind noch einmal davongekommen der Münchner Theaterakademie August Everding, die sich das Artifizielle des Mediums spielerisch überhöht zunutze machte und vermittels kluger Discord-Regie die Videokästchen in Bewegung setzte. Schade, dass die zitierten Experimente nicht zur Nachschau verlinkt bzw. verfügbar sind. Ein Grund hierfür könnte neben der prinzipiellen Unverfügbarkeit einmalig ausgestrahlter Livestreams sein, dass auch andere Quellen knapp einen Monat nach Erscheinen der Publikation bereits der 'Transitorik' des Internets zum Opfer gefallen sind. "Virtuelle[n] Festivalauftritte[n]" widmet sich Esther Slevogt, allen voran dem Berliner Theatertreffen mit seinen streambegleitenden Sonderformaten, die mittels Chat und Videotelefonie erstmals Fachdiskurse, die sonst wenigen Eingeweihten vorbehalten sind, mitsamt den dazugehörigen Gesichtern im Internet teilten. Für das Festival Radar Ost entwarf das Künstlerduo CyberRäuber ein weboptimiertes 360-Grad-3D-Modell des Deutschen Theaters, innerhalb dessen in verschiedenen 'Räumen', inklusive der Unterbühne, Veranstaltungen im Videoformat eingesehen werden konnten. Rückgriffe auf analoge Formate – die Berliner Volksbühne entschied sich etwa für eine Magazinanmutung bei der Gestaltung ihres Festivals Postwest – können laut Slevogt durchaus inspirierend sein: Als "Transfererleichterung für das Denken immaterieller Räume" genüge mitunter eine simple Lageplanskizze, wie es schon 1995 die Association for Theatre in Higher Education der Universität Hawai'i bewies. Wenn es gilt "Übergangsschleusen von der analogen in die digitale Welt benutzer/innenfreundlich zu gestalten", votiert Slevogt ganz klar für "Pragmatismus" (S. 109). Netztheater räumt mit dem weitverbreiteten Missverständnis auf, dass das Digitale allenfalls ein Substitut für 'das Echte' sei. Es ist an der Zeit, sich von falsch verstandenen Authentizitätsdiskursen und einer Überbetonung der 'leiblichen Ko-Präsenz', die die Theaterwissenschaft – die ja damit eine ganz eigene Agenda vertrat – an das Theater herangetragen hat, zu verabschieden. Netztheater will niemandem etwas wegnehmen. Es will das tradierte Theater keineswegs abschaffen, nicht den intimen Moment der Begegnung zweier Menschen ersetzen. Es sucht vielmehr nach technologisch unterstützten Erzähl- und Interaktionsformaten, in denen solche Begegnungen ebenfalls möglich sind. Das Digitale hat unser Denken bis in seine neurologischen Strukturen hinein verändert, die Art, wie wir kommunizieren und interagieren, wie wir uns organisieren, uns in der Welt verorten. Es hat sich in unser Verhältnis zu unseren Körpern eingeschrieben, unseren Zugang zu Wissen erleichtert und auf Herrschaftswissen basierende Hierarchien abgeschafft oder zumindest verschoben. Die Fülle an Information ist nahezu unnavigierbar geworden, Fake News haben unser Vertrauen in glaubwürdige Quellen erschüttert. Das Internet hat eine Vielzahl von alternativen Wahrheiten und alternativen Realitäten geschaffen. Das ist beängstigend, zumal in Zeiten einer Pandemie. Das 18. Jahrhundert hat das Theater als Laboratorium gedacht und die Bühne als Ort, an dem Probehandeln möglich ist, um etwas über unser Menschsein zu erfahren. Auch das Netztheater ist ein solches Laboratorium, ausgestattet mit den Gerätschaften der Gegenwart, die etwa Aufschluss darüber geben können, wie unsere Wahrnehmung beschaffen ist oder wie sich Aufmerksamkeit organisieren lässt. "Theater ist die Institution mit dem ältesten Wissen über die gesellschaftliche Kraft des Spielens." (S. 15) Philosophie und Soziologie veranschlagen im Spiel die Grundlage unseres Menschseins. Es wäre fatal, die verfügbaren virtuellen Spielzeuge und technischen Gadgets jenen Player*innen zu überlassen, deren Interessen wirtschaftlich, militärisch oder politisch getrieben sind. Indem wir unser über die Jahrtausende gewachsenes Wissen über Theatralität und Inszenierungsformen einsetzen, um spielerisch zu experimentieren, erlernen wir den Umgang damit und finden heraus, welche Weltgestaltung mit ihnen möglich ist. Die Lektüre der Beiträge zeigt deutlich: Die vielfach beschworene Minimaldefinition des Theaters – A geht durch einen Raum während B zuschaut – beinhaltet keinerlei Spezifikation, dass B sich dabei im selben Zimmer befinden muss.
Background: The prevalence of type 2 diabetes mellitus (T2D) and the number of patients with comorbidities like hypertension, dyslipidemia and cardiovascular diseases are increasing worldwide. Evidence-based medicine uses the best available evidence from systematic research to make decisions about the care of individual patients. The systematisation and appraisal of evidence are done in care guidelines, which in turn aim to guide the application of effective diabetes prevention and care interventions in different age groups and settings. Patients with T2D need continuous and individualised care. They are therefore seen as the ideal target group for the use of digital health interventions like telemedicine. However, heterogeneous patient populations, telemedicine phenotypes and settings hamper the evaluation of digital health interventions. Comparing study results to provide evidence-based recommendations is further complicated by the diversity of applied study designs. Therefore, there is a need for a systematic review of the current state of research while considering the described variability. In line with this aim five research studies were conducted. Objective: The overall objective of this thesis was, to identify current needs of patients with diabetes (publication 1), to systematically analyse the effectiveness of different diabetes prevention and care interventions (publications 2+3) and to evaluate digital diabetes prevention and care interventions (publications 4+5). Material und Method: To analyse current needs of patients with diabetes, three substudies were conducted in the beginning (publication 1). They consisted of a standardised survey of experts to analyse existing chronic care programs, an expert workshop to identify patients' needs and an online survey to prioritise the categorised needs dimensions seen from the perspective of patients and health care providers. Two literature overviews were performed to analyse the best available evidence in diabetes prevention and care. An umbrella review analysed the available evidence to identify effective interventions of blood sugar regulation on cardiovascular risk (publication 2). Study quality was assessed using OQAQ (Overview Quality Assessment Questionnaire). Afterwards, a literature overview aimed to identify effective measures of population-based prevention and communication strategies to provide recommendations for policy makers on how to prevent diabetes in different age groups and settings (publication 3). In a next step, digital diabetes prevention and care interventions were summarised. To evaluate digital health interventions with more than one active function, a study protocol was developed. It describes the evaluation of a hypothetical gamification-based smartphone application for weight loss in overweight and obese adolescents (publication 4). As a last step, an umbrella review (publication 5) systematically analysed the effectiveness of telemedicine interventions in diabetes, dyslipidaemia and hypertension. Potentially relevant records had to analyse the effectiveness of telemedicine on clinical outcomes under real-life conditions in patients with one of the defined target diseases using either a systematic review or meta-analysis based on RCTs. Results of meta-analyses and their subgroup analyses were used to identify effective components or other characteristics (e.g. intensity or frequency of feedback). Overall certainty of outcomes was assessed using the Grading of Recommendations, Assessment, Development and Evaluation (GRADE) tool. Results and Implications: The standardised survey on current care models indicated that a lack of national guidelines, cost-ineffective and non-individualised health care as well as long waiting periods were criticised. Education of patients, communication within the team and with the patient, prevention and health promotion as well as the accessibility of services were significantly more important to patients when compared to health care providers. The identified differences in priorities support the early assessment of these preferences. The umbrella review on the potential of blood sugar regulation for the reduction of cardiovascular risk identified 44 records which were of good quality (OQAQ-median = 17). The results suggest that pharmacological and non-pharmacological interventions have the potential to improve cardiovascular outcomes. When deciding for a certain intervention as well as its intensity, baseline blood pressure and cardiovascular risks of the patient should be considered. Guidelines on cardiovascular prevention should take into account pathophysiological mechanisms as well as individual lifestyle interventions. While effective measures for individual level prevention including physical activity and diet programs were found, available evidence for population-based intervention was scarce and insufficient. The literature overview conducted afterwards identified evidence-based interventions for population-based prevention, including taxation of unhealthy products and specific prevention strategies in certain settings (e.g. kindergartens, schools). These strategies may contribute to the development of policies and governmental regulations for the prevention of diabetes in different age groups and settings. To evaluate a digital mobile health intervention consisting of more than one component, a study protocol for a single-centre, two-arm, triple-blinded, randomised controlled trial following the CONSORT recommendations was developed. The intervention consists of a smartphone application that provides both tracking and gamification elements for lifestyle change. The control group uses an identically designed application, which solely features the tracking of health information. It appears favourable to use RCTs for proof of concept assessments, to evaluate the effectiveness of an app or specific components in controlled settings. The fifth publication of this thesis shows that telemedicine may lead to significant and clinically relevant reductions of HbA1c (≤ -0,5 %) in patients with T2D. The identified reduction rates are comparable to those of non-pharmacological and even some pharmacological interventions. Extracted subgroup analyses showed that certain population and intervention characteristics seem to be associated with improved clinical benefits. This applies to interventions with a rather short duration ( 8,0 %) were identified as population characteristics favourable for clinically relevant improvements of HbA1c. In addition to the characteristics, future updates of guidelines should carefully consider the low levels of certainty as indicated by the low GRADE results. The present thesis provides a systematic overview of effective measures in diabetes prevention and care. Overall, there is a potential for the early and structured assessment of patients' preferences. The systematisation and appraisal of the best available evidence on the effectiveness of telemedicine in patients with diabetes and associated comorbidities revealed areas for the update of present guidelines. There is a need for methodologically robust studies on the effectiveness of telemedicine in specific populations and in consideration of combined digital health components. The results and identified research needs have the potential to motivate future studies.:Inhaltsverzeichnis I Abkürzungsverzeichnis III Abbildungsverzeichnis VI Tabellenverzeichnis VII Liste der entstandenen Publikationen VIII 1 Einführung in die Thematik 1 1.1 Diabetes 1 1.1.1 Epidemiologie 1 1.1.2 Krankheitstypen, Krankheitsstadien und Begleiterkrankungen 2 1.1.3 Diabetesprävention 5 1.1.4 Diabetesversorgung 6 1.2 Evidenzbasierte Medizin 9 1.3 Digitalisierung 14 1.4 Stand der Forschung 15 1.4.1 Unterstützungs- und Versorgungsprobleme 15 1.4.2 Individuelle und populationsbasierte Maßnahmen zur Diabetesprävention 16 1.4.3 Herausforderungen digitaler Diabetesprävention und -versorgung 22 1.5 Zieldefinition und Fragestellung 25 2 Thematischer Zusammenhang und Methodenüberblick 26 3 Individualising Chronic Care Management by Analysing Patients' Needs – A Mixed Method Approach 28 4 Blood Sugar Regulation for Cardiovascular Health Promotion and Disease Prevention 31 5 What should governments be doing to prevent diabetes throughout the life course? 34 6 Efficacy of gamification-based smartphone application for weight loss in overweight and obese adolescents: study protocol for a phase II randomized controlled trial 36 7 Mapping the Evidence on the Effectiveness of Telemedicine Interventions in Diabetes, Dyslipidemia, and Hypertension: An Umbrella Review of Systematic Reviews and Meta-Analyses 38 8 Diskussion und Ausblick 41 8.1 Einordnung der Ergebnisse 41 8.2 Limitationen und Methodenkritik 49 8.3 Wissenschaftliche Kontribution und Ausblick 50 9 Schlussfolgerung 51 10 Zusammenfassung 53 11 Summary 57 12 Literaturverzeichnis 60 13 Anhang 110 13.1 Wissenschaftliche Kontribution der Publikationen 110 13.2 Details zu Publikationen als Erstautor 112 13.3 Volltexte der entstandenen Veröffentlichungen 117 13.4 Curriculum Vitae 198 13.5 Danksagung 199 Anlage 1 200 Anlage 2 202 ; Hintergrund: Die Häufigkeit des Typ-2-Diabetes mellitus (T2D) sowie die Zahl von Patienten mit Begleiterkrankungen wie Hypertonie, Lipidstoffwechselstörungen und kardiovaskulären Erkrankungen sind weltweit ansteigend. Die evidenzbasierte Medizin nutzt die beste verfügbare Evidenz aus systematischer Forschung um Entscheidungen für die individuelle Patientenversorgung zu treffen. Die Aufarbeitung und Bewertung der Evidenz erfolgt in Versorgungsleitlinien, welche wiederum zur Verwendung wirksamer Maßnahmen der Diabetesprävention und -versorgung in verschiedenen Altersgruppen und Settings anleiten können. Patienten mit T2D bedürfen der kontinuierlichen und individualisierten Versorgung. Sie gelten daher als ideale Patientengruppe, um digitale Versorgungsformen wie Telemedizin zu nutzen. Heterogene Patientenpopulationen, Telemedizinanwendungen und Settings erschweren jedoch die Evaluation digitaler Gesundheitsanwendungen. Zusätzlich wird durch die Diversität der angewandten Studiendesigns ein Vergleich der Studienergebnisse, mit dem Ziel evidenzbasierte Empfehlungen zu formulieren, verkompliziert. Es fehlt daher an einer systematischen Aufarbeitung des Forschungsstands unter Berücksichtigung der geschilderten Variabilität. Mit diesem Ziel wurden fünf Forschungsarbeiten angefertigt. Fragestellung: Übergeordnetes Ziel der vorliegenden Arbeit war es, bestehende Unterstützungs- und Versorgungsprobleme von Patienten mit Diabetes zu identifizieren (Publikation 1), die Wirksamkeit verschiedener Maßnahmen der Prävention und Versorgung des Diabetes systematisch aufzubereiten (Publikationen 2+3) und digitale Diabetespräventions- und –versorgungsstrategien zu bewerten (Publikationen 4+5). Material und Methode: Mit dem Ziel, bestehende Unterstützungs- und Versorgungsprobleme von Patienten mit Diabetes zu analysieren, wurden zu Beginn drei Teilstudien durchgeführt (Publikation 1). Diese beinhalteten eine standardisierte Expertenbefragung zu bestehenden Versorgungsmodellen, einen Workshop zur Identifikation von Versorgungs- und Unterstützungsproblemen und die Durchführung einer mehrsprachigen Online-Befragung zur Priorisierung der kategorisierten Problembereiche aus Sicht der Patienten und Leistungserbringer. Zur Analyse der besten verfügbaren Evidenz zur Diabetesprävention und –versorgung wurden zwei Übersichtsarbeiten durchgeführt. Ein Umbrella Review untersuchte die verfügbare Evidenz effektiver Maßnahmen der Blutzuckerregulation auf das kardiovaskuläre Risiko (Publikation 2). Die Studienqualität wurde durch OQAQ (Overview Quality Assessment Questionnaire) bewertet. Im Anschluss hatte eine Literaturübersicht das Ziel, wirksame Maßnahmen der Verhältnisprävention sowie Kommunikations-strategien zu identifizieren, um Handlungsempfehlungen abzuleiten, wie politische Entscheidungsträger in verschiedenen Altersgruppen und Settings Diabetes verhindern können (Publikation 3). In einem nächsten Schritt wurden Ansätze der digitalen Diabetesprävention und –versorgung aufgearbeitet. Zur Evaluation von digitalen Interventionen mit mehr als einer aktiven Funktion wurde ein Studienprotokoll entwickelt. Dieses beschreibt die Evaluation einer (hypothetischen) spielbasierten mobilen Applikation zur Gewichtsreduzierung bei übergewichtigen und adipösen Jugendlichen (Publikation 4). Im letzten Schritt wurde ein Umbrella Review (Publikation 5) durchgeführt, um die Wirksamkeit von Telemedizin bei Patienten mit Diabetes, Lipidstoffwechselstörungen und Hypertonie systematisch zu erheben. Potentiell relevante Forschungsarbeiten mussten die Wirksamkeit (effectiveness) von Telemedizin auf klinische Outcomeparameter unter realweltlichen Bedingungen bei mindestens einer der definierten Erkrankungen in Form von systematischen Übersichtsarbeiten und Meta-Analysen auf Basis von RCTs untersucht haben. Ergebnisse von Meta-Analysen und deren Subgruppenanalysen wurden herangezogen, um effektive Funktionen oder andere Charakteristika (z.B. Intensität oder Häufigkeit von Feedback) zu identifizieren. Um das Vertrauen in den Effektschätzer der Subgruppenanalysen zu bewerten, wurde das GRADE-Schema (Grading of Recommendations Assessment, Development and Evaluation) angewandt. Ergebnisse und Schlussfolgerungen: Die standardisierte Befragung zu verfügbaren Versorgungsmodellen von Patienten mit Diabetes ergab, dass das Fehlen nationaler Versorgungsleitlinien, nicht kosteneffektive und nicht-individualisierte Versorgung sowie lange Wartezeiten häufig bemängelt wurden. Für die befragten Patienten waren im Vergleich zu den befragten Leistungserbringern die Patientenschulung, Kommunikation im Behandlungsteam und mit dem Patienten, die Prävention und Gesundheitsförderung, sowie die Verfügbarkeit der Versorgungsdienstleistungen signifikant wichtiger. Die identifizierten unterschiedlichen Prioritäten zwischen den an der Versorgung beteiligten Akteuren legen nahe, diese Präferenzen frühzeitig zu erfassen. Der Umbrella Review zum Potential der Blutzuckerregulation für Verbesserungen kardiovaskulärer Risiken identifizierte 44 Übersichtsarbeiten mit mehrheitlich guter Qualität (OQAQ-Median = 17). Unter Berücksichtigung unterschiedlicher Endpunkte legen die Erkenntnisse nahe, dass sowohl pharmakologische als auch nicht-pharmakologische Interventionen kardiovaskuläre Endpunkte verbessern können. Die Entscheidung für eine Intervention und ihre Intensität sollte neben dem Blutdruck auch das bestehende kardiovaskuläre Risiko zu Beginn der Behandlung berücksichtigen. Leitlinien im Bereich der kardiovaskulären Prävention sollten sowohl pathophysiologische Mechanismen als auch individuelle verhaltensorientierte Präventionsmaßnahmen einbeziehen. Während im Bereich der Verhaltensprävention wirksame Strategien, wie die Steigerung der körperlichen Aktivität und die Anpassung der Ernährungsgewohnheiten, identifiziert wurden, war die verfügbare Evidenz von populationsbasierten Maßnahmen der Verhältnisprävention im durchgeführten Umbrella Review begrenzt und nicht belastbar. Die im Anschluss durchgeführte Literaturübersicht konnte jedoch belastbare Evidenz zur Verhältnisprävention, wie die Besteuerung ungesunder Nahrungsmittel und spezifische Präventionsmaßnahmen in Settings (z.B. Kindergarten, Schule etc.), identifizieren. Diese Ansätze können dazu beitragen, regulatorische Maßnahmen zur Diabetesprävention in verschiedenen Altersgruppen und Settings zu entwickeln. Zur Evaluation einer mobilen digitalen Gesundheitsanwendung mit mehreren Funktionen wurde ein CONSORT-konformes Studienprotokoll für eine monozentrische, zweiarmige, dreifach verblindete, randomisierte, kontrollierte Studie entwickelt. Die Intervention bestand aus einer Smartphone-Applikation, die "Tracking" und spielerische Anregungen zur Lebensstiländerung verbindet. Die Kontrollgruppe erhielt eine Smartphone-Applikation mit identischem Design, die jedoch ausschließlich Tracking von Gesundheitsinformationen anbietet. Im Rahmen des frühen Wirksamkeitsnachweises scheinen RCTs hilfreich, um die Wirksamkeit einer App bzw. ausgewählter Funktionen klinisch kontrolliert zu testen. Die fünfte Publikation der vorliegenden Dissertation zeigt, dass Telemedizin den HbA1c bei Patienten mit T2D klinisch relevant (≤ -0,5 %) reduzieren kann. Die identifizierten Reduktionsraten sind mit jenen von etablierten lebensstilmodifizierenden und selbst einigen pharmakologischen Interventionen vergleichbar. Extrahierte Subgruppenanalysen legen nahe, dass bestimmte Populations- und Interventionscharakteristika mit einer gesteigerten Wirksamkeit assoziiert sind. Hierzu gehören Interventionen mit relativ kurzer Dauer ( 8,0 %) wurden als Patientencharakteristika identifiziert, bei denen Telemedizin zu klinisch relevanten und signifikanten Verbesserungen des HbA1c führte. Neben diesen Charakteristika sollten zukünftige Leitlinienupdates das geringe Vertrauen in die Effektschätzer, in Form der schlechten GRADE Bewertungen, berücksichtigen. Die vorliegende kumulative Dissertation liefert einen Beitrag zur systematischen Übersicht über wirksame Ansätze der Diabetesprävention und –versorgung. In der Gesamtschau zeigt sich ein Potential für die frühzeitige und strukturierte Berücksichtigung von Patientenpräferenzen. Durch die Aufbereitung und methodische Bewertung der verfügbaren Evidenz zur Wirksamkeit von Telemedizin bei Diabetes und assoziierten Begleiterkrankungen wurden Ansätze für die gezielte Aktualisierung bestehender Leitlinien identifiziert. Es besteht ein Bedarf für methodisch robuste Studien zur Wirksamkeit von Telemedizin in spezifischen Populationen und unter Berücksichtigung der Kombination digitaler Interventionsfunktionen. Die Ergebnisse und identifizierten Forschungsbedarfe haben das Potential, zukünftige Studien zu motivieren.:Inhaltsverzeichnis I Abkürzungsverzeichnis III Abbildungsverzeichnis VI Tabellenverzeichnis VII Liste der entstandenen Publikationen VIII 1 Einführung in die Thematik 1 1.1 Diabetes 1 1.1.1 Epidemiologie 1 1.1.2 Krankheitstypen, Krankheitsstadien und Begleiterkrankungen 2 1.1.3 Diabetesprävention 5 1.1.4 Diabetesversorgung 6 1.2 Evidenzbasierte Medizin 9 1.3 Digitalisierung 14 1.4 Stand der Forschung 15 1.4.1 Unterstützungs- und Versorgungsprobleme 15 1.4.2 Individuelle und populationsbasierte Maßnahmen zur Diabetesprävention 16 1.4.3 Herausforderungen digitaler Diabetesprävention und -versorgung 22 1.5 Zieldefinition und Fragestellung 25 2 Thematischer Zusammenhang und Methodenüberblick 26 3 Individualising Chronic Care Management by Analysing Patients' Needs – A Mixed Method Approach 28 4 Blood Sugar Regulation for Cardiovascular Health Promotion and Disease Prevention 31 5 What should governments be doing to prevent diabetes throughout the life course? 34 6 Efficacy of gamification-based smartphone application for weight loss in overweight and obese adolescents: study protocol for a phase II randomized controlled trial 36 7 Mapping the Evidence on the Effectiveness of Telemedicine Interventions in Diabetes, Dyslipidemia, and Hypertension: An Umbrella Review of Systematic Reviews and Meta-Analyses 38 8 Diskussion und Ausblick 41 8.1 Einordnung der Ergebnisse 41 8.2 Limitationen und Methodenkritik 49 8.3 Wissenschaftliche Kontribution und Ausblick 50 9 Schlussfolgerung 51 10 Zusammenfassung 53 11 Summary 57 12 Literaturverzeichnis 60 13 Anhang 110 13.1 Wissenschaftliche Kontribution der Publikationen 110 13.2 Details zu Publikationen als Erstautor 112 13.3 Volltexte der entstandenen Veröffentlichungen 117 13.4 Curriculum Vitae 198 13.5 Danksagung 199 Anlage 1 200 Anlage 2 202
Dieses Kapitel fasst die wichtigsten Erkenntnisse des Forschungsprojekts Stand des Wissens zu Schweizer Tramsystemen im Mischverkehr zusammen. Der Fokus liegt dabei auf der Beschreibung der aktuellen Situation der Tramsicherheit in der Schweiz sowie der Sicherheitspraxis und -massnahmen bei den entsprechenden Akteuren. Die Schweizer Regulation mit Relevanz für Tramsysteme ist grundsätzlich funktional, d. h. es werden Sicherheits- respektive Schutzziele vorgegeben, aber nicht, auf welchem Wege oder mit welchen Mitteln diese erfüllt werden müssen. Dabei soll der «Stand der Technik» berücksichtigt werden. Es wird also eher ein Rahmen vorgegeben, anstatt die Regelungen in allen Einzelheiten vorzuschreiben. Es gibt im schweizerischen Recht keine spezifisch auf Tramsysteme ausgerichteten Gesetze und Verordnungen. Trams gelten als Eisenbahnen, weshalb die Eisenbahngesetzgebung zur Anwendung kommt. Da Trams aber im Strassenraum verkehren, spielt auch die Strassenverkehrsgesetzgebung eine Rolle. Das Tram hat in der Schweiz vor allen anderen Strassenverkehrsteilnehmern Vortritt. Dieses Vortrittsrecht kann bei ungenügender Kenntnis anderer Verkehrsteilnehmer zu gefährlichen Situationen führen, beispielsweise bei über das mit dem motorisierten Verkehr geteilte Tramtrassee markierten Fussgängerstreifen ohne Lichtsignalanlage oder nicht signalgesteuerten Kreisverkehrsplätzen mit Tramquerung. Die Verantwortung für die Betriebssicherheit tragen in der Schweiz die Trambetreiber. Die Hersteller sind verantwortlich für die Sicherheit ihrer Produkte. Das Bundesamt für Verkehr überwacht, ob Betreiber und Hersteller diese Verantwortung wahrnehmen. Es gibt diverse verschiedene Quellen für Tramunfalldaten in der Schweiz, die sich hinsichtlich Auflösung, Detailgrad, Abdeckung, Standardisierung und öffentliche Verfügbarkeit stark unterscheiden. Hauptanalysequellen der verschiedenen Akteure sind die Unfalldatenbanken der Betreiber, die Unfalldatenbank des Bundesamtes für Strassen (von der Polizei erfasst Unfälle), die Ereignisdatenbank des Bundesamtes für Verkehr (durch die Betreiber gemeldete Ereignisse) und für Einzelereignisse die Unfalluntersuchungsberichte der Schweizerischen Sicherheitsuntersuchungsstelle. Zum Vergleich von Unfalldaten werden üblicherweise Kennzahlen verwendet. Dazu sind Daten zu Verkehrsleistung, Streckennetzkilometer, Linienlängen, Anzahl Kurse, Rollmaterial usw. notwendig. Für eine angemessen Berücksichtigung des Kontextes werden zudem Daten zu Verkehrsmengen des motorisierten Individualverkehrs und des Langsamverkehrs sowie zur Infrastruktur benötigt. Diese Kontextdaten sind nicht in einer einheitlichen Form verfügbar und ihre Beschaffung ist mit einem erheblichen Aufwand verbunden. Vergleiche der Sicherheitslage, beispielsweise für verschiedene Städte, haben aufgrund der Unterschiede in der Datenerfassung und möglicherweise fehlender Kontextinformationen immer eine begrenzte Aussagekraft. Die vier Tramnetze in der Schweiz weisen deutliche Unterschiede hinsichtlich Bevölkerungsdichte, Netztopologie und Betriebskonzept auf. Trotz dieser Unterschiede differiert die mittlere Streckenbelastung (mittlere Anzahl Trams auf einem Netzabschnitt pro Stunde) nur wenig. Bei den spezifischen Unfallzahlen, also beispielsweise Unfälle pro Kompositions-Kilometer, bestehen grosse Unterschiede zwischen den Netzen. Eine Untersuchung durch Dritte für die Jahre 2010–2012 ergab in Zürich eine deutlich höhere Anzahl schwere Unfälle pro Kompositions-Kilometer als in den anderen Netzen. Basel und Genf wiesen vergleichbare Werte, Bern deutlich die geringsten Werte auf. Die häufigste Ursache von Unfällen mit Trambeteiligung ist die Missachtung des Vortrittsrechts der Strassenbahn (bei etwa einem Drittel der Unfälle). Etwa ein Sechstel der Unfälle wird durch Missachtung von Lichtsignalanlagen verursacht, ein weiteres Sechstel geht auf Fehlverhalten von Fussgängern zurück. Häufigste Verursacher von Unfällen mit Trambeteiligung sind in allen vier Tramsystemen die Personenwagen. An zweiter Stelle finden sich die Fussgänger. Bei den Unfallfolgen sind aber die Fussgänger am stärksten betroffen, da sie im Gegensatz zu Insassen von Personenwagen praktisch ungeschützt sind. Letztere erleiden denn auch nur sehr selten schwere Verletzungen bei Kollisionen mit Trams. Eher wenig auffällig hinsichtlich des Unfallgeschehens sind Velofahrer, was an deren vergleichsweise geringer Anzahl liegen dürfte. Kommt es aber zu einem Unfall, sind die Folgen für Velofahrer ähnlich gravierend wie für Fussgänger. Die vier Tramnetze der Schweiz weisen eine ähnliche Anzahl Kreisverkehrsplätze auf, welche vom Tramtrassee gequert werden; bezogen auf die Netzlänge variiert die Kreisverkehrsdichte hingegen erheblich. Der Anteil der Tramkollisionen bei Kreisverkehrsplätzen an allen Tramkollisionen weist zwischen den Systemen grosse Unterschiede auf. Wird dieser Anteil hingegen ins Verhältnis zur Kreisverkehrsdichte auf dem Tramnetz gesetzt, werden die Unterschiede zwischen den drei Systemen Bern, Basel und Genf sehr viel kleiner. Dies ist interessant vor dem Hintergrund, dass vom Tram gequerte Kreisverkehrsplätze in Genf als grosses Problem wahrgenommen werden, in Bern und Basel hingegen nicht. In Zürich ist die Kreisverkehrsdichte auf dem Tramnetz sehr tief, und auch der Anteil Kreisverkehrs-Tramunfälle bleibt selbst in Relation zur Kreisverkehrsdichte deutlich unterhalb der anderen Systeme. Georeferenzierte Unfalldaten erlauben die räumliche Auswertung von Unfallorten und die Identifikation von Unfallschwerpunkten. Aufgrund der geringen Anzahl Tramunfälle ist es allerdings schwierig, die statistische Signifikanz von ermittelten Schwerpunkten zu überprüfen. Im Rahmen dieses Projektes wurden Daten der Verkehrsunfallstatistik des Bundesamtes für Strassen räumlich ausgewertet. Eine qualitative Analyse der ermittelten Unfallschwerpunkte zeigt, dass diese grösstenteils an vorhersehbaren Stellen liegen: bei Fussgängern in Innenstadtbereichen und Plätzen mit hohem Fussgängeraufkommen, also an Orten mit vielen Querungen der Tramgeleise durch Fussgänger; bei Motorfahrzeugen bei Kreuzungen mit hohem Verkehrsaufkommen und auf Streckenabschnitten mit Abbiegemöglichkeit über die Tramgeleise für den Parallelverkehr. Für die Schwerpunkte von Kollisionen mit Velo/Mofa lassen sich hingegen kaum einfache Erklärungen finden. Ein Vergleich von Unfallcluster-Analysen ohne und mit Gewichtung der Unfallfolgen (mittels Opferäquivalenten) zeigt, dass es sowohl Cluster mit grosser Unfallzahl und vergleichsweise geringen kumulierten Auswirkungen als auch solche mit eher kleiner Unfallzahl und hohen kumulierten Auswirkungen gibt. Daher scheint für Analysen von Unfallclustern die Berücksichtigung der Unfallfolgen angebracht, wobei die Gewichtung mittels Opferäquivalenten eine angemessene Methode ist. Die Aussagekraft der räumlichen Analysen bleibt aufgrund der geringen Unfallzahlen und der Verwendung von Daten aus mehreren Jahren beschränkt. Ergänzend zur Auswertung der Unfalldaten sollten daher immer detaillierte Fallanalysen bei Unfallschwerpunkten durchgeführt werden, welche Rückschlüsse auf tatsächliche Unfallursachen und mögliche Massnahmen erlauben. Es gibt in der Schweiz keine einheitliche Definition des Begriffs Beinaheunfall. Im Allgemeinen wird darunter eine Situation verstanden, in der das Fehlverhalten eines Beteiligten oder mehrerer Beteiligter einen gefährlichen Zustand hervorruft, welcher aber nicht in einen Unfall mündet. Der entsprechende Standort wird demzufolge als gefährlich empfunden, obwohl statistisch keine Unfallschwerpunkte nachzuweisen sind. Die häufigsten Umstände von Beinaheunfällen in der Schweiz sind aus Sicht der Trambetreiber fehlende physische Trennungen bei Eigentrassierungen, Konflikte mit Abbiegern auf Kreuzungen, die Nichtbeachtung der Lichtsignalanlage oder anderer Signale auf Kreuzungen und die Nichtbeachtung des Tramvortritts in Kreisverkehrsplätzen. Die Trambetreiber schliessen fehlerhafte Handlungen des eigenen Fahrpersonals zwar nicht aus, führen als Ursache für gefährliche Situationen und Beinaheunfälle aber hauptsächlich die fehlende Wahrnehmung des Trams seitens der anderen Verkehrsteilnehmer auf. Einerseits spielt der fehlende Sichtkontakt eine wichtige Rolle, andererseits wird insbesondere bei Fussgängern eine starke Tendenz bei der Ablenkung durch elektronische Geräte wie Smartphones oder Tablets (visuelle Ablenkung) und Kopfhörer (auditive Ablenkung) beobachtet. Im Mischverkehr sehen die Betreiber die Hauptverursacher gefährlicher Situationen in Velofahrern und Fussgängern – häufig in Innenstadtbereichen, wo der Langsamverkehr sehr hohe Dichten aufweist. Auf Abschnitten mit Eigentrassierung, wo in der Schweiz oft physische Abgrenzungen fehlen und zahlreiche Kreuzungsmöglichkeiten für andere Strassennutzer bestehen, sehen die Betreiber die Hauptverursacher in motorisierten Strassenfahrzeugen. In solchen Abschnitten werden gefährliche Situationen durch die hohe Geschwindigkeit des Trams verschärft. Die Erfassung von Unfalldaten geschieht in der Schweiz bei schweren Unfällen potenziell durch drei Stellen: den entsprechenden Trambetreiber, die zuständige Polizeibehörde und die Schweizerische Sicherheitsuntersuchungsstelle SUST. Die Erfassung von Ereignissen durch die Betreiber ist nicht vereinheitlicht, und auch bei den Polizeibehörden gibt es in der Praxis Abweichungen bei der Dateneingabe in die nationale MISTRA-Unfalldatenbank des Bundesamtes für Strassen. Durch eine einheitliche Erfassung wären Vergleiche zwischen den Tramnetzen möglich und es könnten trotz der geringen Unfallzahl aussagekräftige Datenanalysen durchgeführt werden. Wichtig erscheint in jedem Fall eine präzise Georeferenzierung der Unfalldaten. Es gibt ungenutzte Möglichkeiten zur Datenerfassung, welche sowohl in der Unfallanalyse als auch in der Prävention eingesetzt werden könnten. Beispiele sind der Einsatz von Frontkameras oder die georeferenzierte Erfassung von Schnellbremsungen. Allerdings gibt es dabei bedeutende rechtliche und technische Hürden. Die vorhandenen Unfalldaten werden vor allem durch die lokalen Polizeibehörden relativ umfassend ausgewertet. Um eine maximale Wirkung dieser Analysen sicherzustellen, ist eine enge Zusammenarbeit der Polizei mit den Trambetreibern und weiteren Akteuren (z. B. Tiefbauamt) von grosser Bedeutung. Der Personalschulung kommt bei der Unfallprävention eine grosse Bedeutung zu – entsprechend geniesst sie bei den Betreibern einen hohen Stellenwert. Nützliche Hilfsmittel sind Fotos und Videoaufnahmen von Unfällen und Beinaheunfällen oder Übersichten über gefährliche Situationen entlang einer Linie. Im Falle eines Unfalls helfen Checklisten und stellen eine einheitliche Handlungsweise sicher. Tramsicherheitskampagnen dienen insbesondere der Bewusstseinsbildung zum allgemeinen Tramvortritt und zu den Eigenschaften des Trams (Bremsweg). Eine klare Zielsetzung und anschliessende Evaluation der Wirkung ist empfehlenswert. Bei der Infrastrukturplanung sollten präventive Sicherheitsmassnahmen eine hohe Priorität geniessen und Teil von gestalterischen Lösungen sein. Dazu sollte die Erfahrung der Trambetreiber systematisch in den Infrastrukturplanungsprozess von Strassenräumen mit Trams einbezogen und adäquat berücksichtigt werden. Ein sicherer Trambetrieb ist stark von nicht direkt durch die Trambetreiber beeinflussbaren Elementen abhängig. Insbesondere haben die Gestaltung des Verkehrsraums und die Steuerung der Verkehrstechnik einen grossen Einfluss auf die Sicherheit. So können übersichtliche Kreuzungen mit klar den jeweiligen Spuren zugeteilten Lichtsignalen viele Probleme mit Abbiegern über das Tramtrassee verhindern. Eine gute Zusammenarbeit aller beteiligten Akteure ist für eine sichere und auch betrieblich geeignete Lösung solcher Situationen von zentraler Bedeutung. Beim Rollmaterial spielt insbesondere das Crashverhalten mit schweren Strassenfahrzeugen (Sicherheit der Traminsassen und insbesondere der Tramführerin) und mit Fussgängern (Sicherheit des Fussgängers) eine grosse Rolle. Wichtig ist, in einer frühen Engineering-Phase bereits sämtliche Schutz- und Sicherheitsfunktionen zu berücksichtigen, damit auf spätere «aufgesetzte» Lösungen verzichtet werden kann. This chapter summarises the main findings of the research project State of the art of Swiss tramways in mixed traffic zones. The focus is on the description of the current safety situation in Switzerland and the safety practices and measures of the relevant stakeholders. Swiss regulation with respect to tram safety is functional, i.e., safety and protection targets are prescribed, but not how they have to be achieved and what means must be used. Thereby, the state of the art of technology must be considered. In summary, regulation rather provides a frame than detailed prescriptions. In Swiss legislation, there are no specific laws or ordinances only concerning tram systems. By law, trams are considered as railways, therefor railway legislation applies. Because trams operate on streets, also road legislation is relevant. In Switzerland, trams have right of way over all other road users. This right of way can lead to dangerous situations in cases where other road are not aware of it. For example, in the case of zebra crossings marked over the tramway that is shared with motorised vehicles, pedestrians might assume that they have right of way over trams because they do have right of way over cars in the exact same location. Another example are roundabouts crossed with tram tracks, where cars do not expect to have to yield while they are on the ring road of the roundabout. Responsibility for operational safety is borne by the tram operators and for product safety by manufacturers in Switzerland. The Federal Office of Transport supervises whether operators and producers perform the associated duties correctly. There are several sources for tram accident data in Switzerland. They differ strongly with respect to resolution, level of detail, coverage, standardisation and public availability. Main data sources for safety analyses are the accident databases of the operators, the accident database of the Federal Roads Office (accidents investigated by the police), the incident database of the Federal Office of Transport (incidents reported by operators), and the investigation reports by the Swiss Transportation Safety Investigation Board (concerning single incidents). To compare accident data, ratio measures are used usually. This requires data on service provided, network length, line length, number of vehicles in operation, type of rolling stock, etc. Furthermore, for adequate consideration of context, data is needed on traffic volumes of both motorised transport and human powered mobility. These context data are not available in standardised form and their acquisition is costly. Comparison of safety situation, e.g., in different cities, have limited validity due to differences in data recording and possibly lack of context information. The four tram networks in Switzerland are considerably different with regard to population density, network topology, and operating concepts. Nevertheless, the average network load (average number of trams on a section per hour) is similar in all networks. Looking at accident ratios, e.g., accidents per tram kilometre, there are large differences between the networks. A study for the years 2010–2012 showed a considerably higher number of severe accidents per tram kilometre in Zurich than in the other three networks. Ratios for Basel and Geneva were similar, while Berne clearly had the lowest value. The most common cause of accidents is disrespect of the tram's right of way (roughly one third of all accidents involving trams). About a sixth of tram accidents are caused by disrespect of traffic lights (by other road users), another sixth by misconducts of pedestrians. The main source of accidents involving trams are, in all four networks, cars. They are followed second by pedestrians. However, if consequences of accidents are considered, pedestrians are affected strongest because they are unprotected. Passengers of cars, on the other hand, only rarely suffer from severe injuries from accidents involving a tram. Accidents involving trams and bicycles are less common, which is mainly due to the smaller number of bicycles in overall street users. In case of accidents involving a tram, the consequences for cyclists are similarly grave as for pedestrians. The four tram networks in Switzerland have a similar number of roundabouts crossed by a tramway. However, relating to tram network length, the roundabout (with tramway) density is very different. The ratio of accidents at roundabouts involving a tram and this roundabout density is similar in Basel, Berne and Geneva. This is interesting given that roundabouts crossed by a tramway are considered a big safety issue in Geneva, but not so much in Basel and Berne. In Zurich, the roundabout density is much lower, as is the number or roundabout-related accidents. Accident data with georeferences allow for the spatial analysis of accident locations and the identification of accident hot spots. However, due to the low number of tram accidents, it is difficult to test for statistical significance of such analyses. In the present project, data form the accident database of the Federal Roads Office have been analysed spatially. The qualitative analysis of the identified accident hot spots shows that they are mostly in predictable locations: in the case of pedestrians, in inner city areas and squares with a high number of pedestrian traffic, thus, in locations with frequent crossings of the tramway by pedestrians; in the case of cars, at intersections with high traffic volumes and on sections where cars cross over tram tracks when turning. Hot spots of accidents with bicycles, on the other hand, cannot be easily explained. A comparison of accident cluster analyses without and with weighting of accident consequences (with victim equivalent values) shows that there are both clusters with high accident numbers and low cumulative consequences and clusters with relatively low accident numbers but high cumulative consequences. Therefore, it seems adequate to use weighting of accident consequences for accident cluster analyses. The explanatory power of spatial accident analyses remains limited due to the small number of accidents and the use of data from several years. Therefore, complementary to the examination of accident data, individual case analyses should be conducted to conclude about accident sources and adequate measures. In Switzerland, there is no standard definition of the term "near accident". Commonly, a near accident is understood to be a situation where the malpractice of one or several involved parties leads to a dangerous state, without this state resulting in an actual accident. The respective location is therefore perceived as dangerous, even though no statistical accident hot spot can be determined. From the perspective of tram operators, the most common circumstances of near accidents in Switzerland are lack of physical separation in sections with reserved tracks, conflicts with turning vehicles on intersections, disrespect of traffic lights or road signs and disrespect of tram right of way in roundabouts. The operators do not rule out the possibility of malpractice by their drivers, but they do see the cause of dangerous situations and near accidents mainly in the lack of tram perception by other road users. On the one hand, this involves insufficient visibility conditions (e.g., caused by obstacles), on the other hand, operators observe an increase in distracted pedestrians, mainly due to electronic equipment such as smartphones or tablets (visual distraction) and headphones (auditory distraction). In mixed traffic, operators see pedestrians and cyclists as the main causers of tram accidents, often in inner city areas with high density of human powered mobility users. On reserved tracks, where there is often no physical separation between the tramway and other road users and many crossing possibility of the latter exist, the operators see car users as the main causers of tram accidents. In such locations, dangerous situations are aggravated due to the high tram speed. The recording of accident data in Switzerland is mainly conducted by three parties: the tram operator, the local police, and the Swiss Transportation Safety Investigation Board (in severe cases). Recording of events by the operators is not standardized, and there are also differences in recording practices of police authorities and their data input into the national road accident database of the Federal Roads Office. A standardised and consistent recording would facilitate comparisons between tram networks and enable more significant analyses. In any case, precise georeference for accident data is crucial for later spatial analyses. There are unused possibilities of data acquisition that could be used for accident analysis as well as prevention. For example, this includes using frontal cameras in tram vehicles or the georeferenced recording of emergency braking manoeuvres. However, there are serious legal and technical barriers to be considered. Existing accident data is analysed in detail mostly by local police authorities. In order to ensure the impact of such analyses, tight cooperation between police authorities, tram operators, and further stakeholders (e.g., civil engineering department of the respective city) is crucial. Drivers' education is highly relevant for accident prevention. Accordingly, operators assign a high priority to it. Useful tools are pictures or videos of accidents or near accidents or overviews of dangerous locations along a line. In the case of an actual accident, check lists help to ensure consistent actions. In infrastructure planning, preventive safety measures should be included from the beginning as part of design solutions and be given a high priority. For this, it is important to include the experience and knowledge of tram operators in respective infrastructure design and planning teams. Safe operation of a tram system depends on many aspects that cannot be influenced directly by tram operators. Particularly, the design of public and road space and traffic operation and management have a high impact on tram safety. For example, clear intersection layouts with unambiguously attributed traffic lights per traffic lane can prevent many problems frequently occurring with cars turning across the tramway. Therefore, tight collaboration between all stakeholders is a key to safe operation of trams that also consider the quality of operation. Concerning rolling stock, the crash behaviour of trams with heavy road vehicles such as trucks (safety of tram passengers and particularly driver) and with pedestrians (safety of pedestrians) is particularly important. Generally, it is crucial to include all safety requirements and targets in an early engineering phase in order to avoid later, "attached" measures.
Overview and introduction "Which organizational forms produce science? Expansion, diversity, and cooperation in Germany's higher education and science system embedded within the global context, 1900-2010". Already the title of my dissertation manifests an approach that examines the topic of the development of scientific productivity in the German higher education and science landscape from different perspectives: levels, dimensions, and an extensive timeframe. Deriving from and contributing to the international research project "Science Productivity, Higher Education, Research and Development, and the Knowledge Society" (SPHERE), my research focuses on the investigation of the influence of higher education development and science capacity-building on scientific knowledge production, globally, comparatively, and considerable depth for Germany, a key science producer for well over a century. Focusing mainly on the different structures and institutional settings of the German higher education and science system, the dissertations shows how these affected and contributed to the long-term development of scientific productivity worldwide. The historical, comparative, and in-depth analyses are especially important in light of advancing globalization and internationalization of science, stronger networks of scientists worldwide, and the emergence of the "knowledge society". The research design combines macro- and meso-level analyses: the institutionalized and organizational settings in which science is produced. Since information about single authors was limited in availability, extensive micro-level analyses were not possible here, yet the research articles analyzed were all written and published by individuals working in organizations, which are in the center of analysis here. By reference to the dimensions expansion, diversity, and cooperation, I elaborated the frame of my investigation, and sorted my research questions, including country, organizational field and form, and organizational levels. The structure of this work (see outline) addresses these themes and the observed timeframe spans the years from 1900 to 2010 – more than a century (see section 1.2). My main goal was to investigate how and why scientists publish their research results in peer-reviewed journal articles. The point is to emphasize the importance of scientific findings/discoveries, because non-published results are non-existent for the scientific community. From the ways and in which formats scientists publish their work, we can deduce how science is organized (within and across disciplines). My dissertation analyzes publications in peer-reviewed journals, because they are the most important format – alongside patents in applied fields – to disseminate new knowledge in science, technology, engineering, mathematics, and health (hereafter STEM+ fields). Articles not only record new knowledge, but also contribute to the reputation of researchers and their organizations. Journal publications in reputable journals with peer-review have become the "gold standard" measure of scientific productivity. Within the last several decades, the scientization of many dimensions of societal life proceeded, and the generation of new knowledge increasingly became the focus of political, economic, and social interests – and research policymaking. Therefore, it is important to identify the institutionalized settings (organizations/organizational forms) in which science can best be produced. Here, the diverse types of organizations that produce science – mainly universities, research institutes, companies, government agencies and hospitals – were identified and differences and similarities of these organizational forms were analyzed on the basis of their character, goals, tasks, and the kinds of research their members produce. In a first step, I show why I structured my work at the interface of higher education research, science studies, and bibliometrics (see chapters 2 and 5). Analyzing publications is still the key task of bibliometrics, but the results are used by many other actors as well: higher education managers, politicians, and scientists themselves to make claims about the quality of science, to compare each other, or to influence the structure, organization, and output of the higher education and science system. While it is difficult to make direct statements about the quality of research on the basis of simply counting the number of research articles a scientist publishes, the quality of journals is used as a proxy to compare across disciplines. To measure quality, other parameters are necessary. Thus, here statements focus on the quantity of science produced, not on the intrinsic quality of the analyzed research articles, the specific research achievements of individual scholars, organizations or organizational forms, or even countries. Nevertheless, output indicators elaborated here definitely show the huge expansion of scientific production and productivity, the stability of the research university over time as the most important science producer in Germany, but also rising differentiation and diversification of the organizational forms contributing to overall scientific output. Furthermore, the start of a considerable and on-going rise in national and international collaborations can be dated to the early 1990s. The chapter about the multidisciplinary context (see chapter 2) discusses the relationship between higher education research and science studies in Germany as well as the special position of scientific knowledge in comparison to other forms of knowledge. Scientific knowledge is generated, distributed, and consumed by the scientific community. To get an overview about the most important studies in the field, and to contextualize my work within the already existing empirical studies, I describe the current state of research in chapter 3. Research questions Section 1.2 provides a detailed description of my research questions: Which organizational forms produce science? 1. How has worldwide and European scientific productivity developed between 1900 and 2010 in comparison? 2. How has the German higher education and science system been embedded in the global developments of higher education and science over time? 3. How has scientific productivity in Germany developed between 1900 and 2010? 4. Among all science-producing organizational forms, what do the key organizational forms contribute to scientific productivity? 5. Which organizational forms provide the best conditions for scientific productivity? 6. Which single organizations produce the most research in Germany? 7. What is the impact of increasing internationalization of research on national and international cooperation, measured in publications in scientific journals? Theoretical framework Theoretically (see chapter 4), I apply a neo-institutional (NI) framework to explore and explain both the tremendous expansion of higher education and science across the world and considerable differences across time and space in the institutional settings, organizational forms, and organizations that produce scientific research in Germany. Sociological NI focuses on understanding institutions as important in guiding social action and shaping processes of social development. Such an approach emphasizes the development, functioning, and principles of institutions. Milestones in NI describe the nexus of organization and society supposing that organizational structures express myths and reflect ideals institutionalized in their environment. While capturing, copying, and asserting these, structural similarity (institutional isomorphism) between organizations in society will be established. The concept of "organizational field" emphasizes relationships between organizations within an environment. Organizational fields (communities) consist of all relevant organizations. In section 4.1.2 I discuss the differences between institutions and organizations and the difficulty of a distinction of the terms, especially in German-speaking sociology, which does not distinguish clearly between these terms. Fundamentally, NI approaches differ in the dimensions or pillars and levels of analysis they privilege (see figure 5, p. 80), but they share fundamental principles and the theoretical framework. Thus NI is particularly suitable for a multi-level analysis of scientific productivity across time and space. The historical development of the German higher education and science system must analyzed considering also global developments, because on the one hand it had an enormous impact on the development of other systems worldwide, and, on the other hand, global trends affect the on-going institutionalization and organization(s) of science in Germany. Intersectoral and international cooperation is growing and becoming increasingly important, leading to diverse networks within and between higher education and science systems worldwide. The classical, national case study is hardly longer possible, because macro units like countries are highly interdependent, embedded in global, regional and local relationships, such that borders between the global and the national dimension are increasingly blurred. Nevertheless, countries are units with clearly defined boundaries and structures, thus they can be handled as units to compare. The theoretical perspectives and different levels of analysis addressed here are displayed in Figure 5. I apply the "world polity" approach as a broader lense with which to make sense of the truly global arena of higher education and science (macro level). The focus of this perspective is on global and international structures and processes, which developed over time. Through this perspective, I explore global diffusion and formal structures of formal principles and practical applications. Combining historical and sociological institutionalism helps to focus on developments and processes over time on the meso level, to explain how institutions have developed and change(d). The concepts of "critical junctures" and path dependencies are useful to explain these processes over time. To describe the transformation of knowledge production over the entire twentieth century, and to analyze different organizational forms that produce science in Germany, two prevalent theoretical concepts are discussed: Mode 1 versus Mode 2 science, and the Triple-Helix model to describe the relationship between science, industry and state. In "The New Production of Knowledge" Michael Gibbons and his colleagues describe the transformation of knowledge from an academic, disciplinary, and autonomous – "traditional" – organization of science (Mode 1) with a focus on universities as the key organizational form, to a more applied, transdisciplinary, diverse, and reflexive organization of science (Mode 2) that features a more diverse organization of science, relying on a broader set of organizations producing knowledge. Within the literature, debates center on whether this new model has replaced the old, and which of these models best describes the contemporary organization of science (here: the STEM+ fields). In turn, the Triple-Helix model preserves the historical importance of the universities. This approach assumes that future innovations emerge from a relationship between universities (production of new knowledge), industry (generation of wealth), and state (control). Data and methods In these analyses, only peer reviewed journal publications were used – as the best indicator for measuring the most legitimated, authoritative produced science. This focus enabled an investigation of publications in-depth and over a 110 year timeframe. Research articles in the most reputable, peer-reviewed, and internationally reputable journals are the gold standard of scientific output in STEM+. The data I used is based on a stratified representative sample of published research articles in journals in STEM+-fields. My measure relies on the key global source for such data, the raw data from Thomson Reuters' Web of Science Science Citation Index Expanded (SCIE) (the other global database is Elsevier's Scopus, which also indexes tens of thousands of journals), which was extensively recoded. Methodologically, my approach is based on a combination of comparative institutional analysis across selected countries and historically of the German higher education and science system, and the systematic global evaluation of bibliometric publication data (see chapter 6). The SCIE includes more than 90 million entries (all types of research), mainly from STEM+-fields. I focus on original research articles, because this type of publication contains certified new knowledge. The SPHERE dataset covers published research articles from 1900 to 2010. From 1900 to 1970, we selected data in 5-year-steps in the form of a stratified representative sample. From 1975 onwards full data is available for every year. Depending on the research question, either five or ten-year steps were analyzed. A detailed description of the sampling and weighting of the data can be found in chapter 6. In consideration of the criteria above, I analyzed 17,568 different journals (42,963 journals were included into the database if we count the same journals in different years), and a total of 5,089,233 research articles. To prepare the data for this research, it had to be extensively cleaned and coded. Very often our international research team found missing information on the country level and/or on the level of organizations/organizational forms. From June 2013 to December 2015, research in the archives of university libraries was necessary to manually add missing information, particularly organization location and author affiliations. In the field of bibliometrics, we find different methods to count publications. In this work, I mainly apply the "whole count" approach (see table 1, p. 126). This decision is based on the assumption that every author, organization, or country contributed equally to a publication. An overestimation of publications can't be precluded, because research articles are counted multiple times, if a paper is produced in co-authorship, which has been rising worldwide over the past several decades. The absolute number of publications (worldwide, Europe, Germany) is based on a simple counting of research articles (without duplicates, in cases of co-authored articles). Summary of the most important results The empirical part of my work is divided into three parts. In the following sections, I will present the most important findings. The global picture – higher education and science systems in comparison The central question of my research project was "which organizational forms produce science"? For a better understanding and classification of the results of my case study, I embedded the German higher education and science system into the European and global context. I answered the questions "how did the worldwide and European scientific productivity developed between 1900 and 2010 in comparison", and "how was/is the German higher education and science system embedded in global developments of higher education and science over time" as follows: First, I show that the worldwide scientific growth followed a pure exponential curve between 1900 and 2010 (see figures 3 and 10; pp. 50, 147) – and we can assume that this strong upward trend continues today. The massive expansion of scientific production had and still has a tremendous influence on societal developments, beyond simply economic and technical developments, but rather transforming society. I show that higher education and science systems worldwide exhibit communalities, which have led to similar developments and expansion of scientific productivity. The comparison of important European countries (Germany in comparison with Great Britain, France, Belgium and Luxembourg) uncovered the contribution of the development and spread of modern research universities and the extraordinary and continued rise in publication output (see section 7.2; Powell, Dusdal 2016, 2017a, 2017b in press). Within the global field of science, three geographical centers of scientific productivity have emerged over the twentieth century: Europe, North America, and Asia. Their relative importance fluctuates over time, but today all three centers continue to be the key regions in the production of scientific research in STEM+ journals. Especially in Asia, the growth rates have risen massively in recent years (Powell et al. 2017 in press). Second, I investigated that all countries worldwide invest more into research and development (R&D) (figure 9, p. 140). These investments have a clear impact on the scientific productivity of nations, yet there are important differences between countries in absolute production and productivity rates. Alongside direct investments in R&D or the application of patents in STEM+-fields that influence the expansion of science, the capacity for producing more knowledge fundamentally depends on rising student enrolments, a growing number of researchers, the widening of research activities into various arenas of society, the development of products, and the (re-)foundation of universities (Powell, Baker, Fernandez 2017 in press). As part of the higher education expansion and massification during the 1960s and 70s, the numbers of researchers and students rose tremendously. The growth of scientific publications thus results from the on-going institutionalization of higher education and science systems worldwide. The growth of publications is also explained by the steady growth in the number of researchers working within these growing – and increasingly interconnected – systems. Third, I could reject the argument of Derek J. de Solla Price that the pure exponential growth of scientific literature has to flatten or would slow-down several decades after the advent of "big science" (see paragraph 2.4; figure 4 and 10; p. 53, 147). Although radical historical, political, economical, and technical events (see figure 11, p. 150) led to punctual short-term decreases in publication outputs, the long-term development of universities and other organizational forms producing science led to sustained growth of scientific publications, with the numbers of publications rising unchecked over the long twentieth century. In 2010, the worldwide scientific productivity in leading STEM+ journals was about one million articles annually. Fourth, I could show that the absolute numbers have to be put into perspective and standardized in relation to the investments in R&D, the size of the higher education and science systems, the number of inhabitants (see figure 12, p. 159), and the number of researchers (table 3, p. 162; figure 13, p. 164). The initial expansion of scientific publications in STEM+-fields is based on a general growth of higher education and science systems. The different institutional settings and organizational forms that produce science have an impact on scientific productivity. The selected country case studies – Germany, Great Britain, France, Belgium and Luxembourg – demonstrate that systems with strong research universities are highly productive; they seem to provide conditions necessary for science. As a result, not only the number and quality of researchers is important, but also the institutional and organizational settings in which they are employed. Fifth, in international comparison, Germany continues to contribute significantly to scientific productivity in STEM+ fields. With an annual growth rate of 3.35%, Germany follows the United States and Japan. In 2014, German governments invested €84.5 billion in R&D – 2.9% of overall GDP. The EU-target of 3% by 2020 was barely missed. In 2010, Germany produced 55,009 research articles (see table A5). In comparison to Great Britain, France, Belgium and Luxemburg, Germany still leads in scientific output in Europe –comparing just the absolute numbers. The size of the country itself and the institutionalization of the higher education and science systems influence publication outputs, of course, with these absolute numbers in relation to other key indicators showing a different picture. Standardized by the number of inhabitants, Germany published less articles per capita than Belgium and Great Britain. The number of researchers amounted to 327,997 (FTE) in 2010. The ratio of inhabitants to scientists was 1,000:4. Among these countries studied in-depth, Luxembourg and Great Britain had more researchers per capita than did Germany. The interplay of the organizational forms of science in Germany between 1900 and 2010 On the basis of the analysis of the global and European contexts, and development of worldwide scientific productivity over time in chapter 7, I started the in-depth case study of Germany. Bridging this overview and the following in-depth analyses is a chapter on the institutionalization of the German higher education and science system (see chapter 8). Here, I described the most important institutions and organizations and the organizational field – universities, extra-university research institutes and universities of applied sciences. Furthermore, I discussed the differences between West and East Germany during their division (1945–1990). Summarizing the most important results shows that the development of publications in Germany follows global and European trends (on a lower scale) (see figure 16, p. 208). Over time, Germany experienced pure exponential growth of scientific publications and a rising diversity of organizational forms that contribute to scientific productivity (see sections 9.1 and 9.3). I answered the following three research questions: "how has the scientific productivity in Germany developed between 1900 and 2010", "among all science producing organizational forms, what do the key organizational forms contribute to scientific productivity", "which organizational forms provide the best conditions for scientific productivity", and "which single organizations are the most research intense in Germany"? First, the growth curve of scientific publications in Germany turns out as expected – it shows pure exponential graph, comparable with the worldwide and European development of scientific productivity between 1900 and 2010. Here, too, cataclysmic events such as the two world wars and the Great Depression as well as reunification had only short-term (negative) impact (figure 11, p. 150) on scientific productivity, without even a medium-term slow-down or flattening of the curve. By 2010, the total number of publications in STEM+ fields by researchers in German organizations topped 55,000 in one year alone. Second, a detailed examination and comparison of the development of scientific productivity in West Germany and East Germany between 1950 and 1990 showed that the growth rate of Germany (altogether) was based mainly on steady growth of scientific publications in West Germany (see figure 17, p. 211). The growth curve of the former GDR was quite flat and proceeded on a very low level. As a result, I conclude that the GDR's higher education and science system, based on its academy model, did not provide conditions for scientific productivity as optimally as did the BRD. Third, a detailed analysis of the "key classical" organizational forms of science – universities and extra-university research institutes – show that universities were and are the main producers of scientific publications in STEM+ from 1975 to 2010 (see figure 18, p. 217). On average, university-based researchers produced 60% of all articles and defended their status against other organizational forms, which leads to the rejection of the Mode 2 hypothesis. Non-university publications reached an average of 40%. But that does not mean that other organizational forms were not producing science as well. The percentage share of articles is ultrastable and shows only marginal variations. The thesis that the proportion of university publications should decrease over time can be rejected for the period from 1975 to 2010. This suggests that scientific productivity of universities is actually rising, since despite decreasing financial support (R&D) in favor of extra-university research institutes, the universities produced more research articles with less resources over time. Fourth, although not only scientists within universities and research institutes publish their research in scientific journals, jointly these organizational forms have produced more than three-quarters of all research articles since 1980. Already in the earlier years, they produced a large number of scientific articles. Other organizational forms also generate scientific knowledge (for an extensive description of the organizational form matrix, see table 4, pp. 222f.). Especially scientists in firms, government agencies, and hospitals publish articles in peer-reviewed journals in STEM+ (see figures 19 and 20; pp. 220, 246). Indeed, the universities have been the driving force of scientific productivity for more than a century. With their specific orientation to basic research and their linkage of research and teaching, they provide conditions that facilitate the production of science. Universities are among the oldest institutions with a high degree of institutionalization. All other organizational forms (academies, associations, infrastructures, laboratories, military, museums and non-university education) were identified in the dataset played only a minor role and were summarized in the category "further types". Fifth, the analysis of the ten most research-intensive single organizations in Germany in the year 2010 confirmed the results. Only universities and institutes were part of this group. A summary of publications of single institutes under their umbrella organizations shows that the institutes of the Max Planck Society and of the Helmholtz Association are the leading science producers in Germany, outpacing the scientific productivity of universities, but only when aggregating the contributions of dozens of individual institutes (see table 5, p. 259f). An analysis of single institutes shows that these research institutes cannot compete with universities, because of their size and the number of researchers. The Charite – Universitätsmedizin Berlin, a hybrid organization, is another leading science producer in Germany. National and international cooperation of scientific research Finally, increasing internationalization of research has impacted on national and international cooperation. leading to collaboratively-written publications in scientific journals. Through advancing globalization, national and international scientific cooperation increased in volume and importance. International cooperation in STEM+ is facilitated by the reputation of the research organization and of the co-authors, higher visibility within the scientific community and more possibilities for interdisciplinary research as well as better or more specialized facilities. Today, more than a third of all research articles worldwide are produced in scientific collaboration; only around a quarter are single-authored articles. In contrast to Humboldt's principle "in Einsamkeit und Freiheit" (in loneliness and freedom), research is no longer done by one scientist, but is much more likely the result of collaboration. Research networks are increasingly important, and researchers share their common interests on a research question, publishing their results in joint publications. Researchers, organizations, and indeed countries differ in the ways they organize their research and thus how they enable research and collaboration. This depends on location, size, higher education and science system, the organizational field and organizations. Here, varying patterns of scientific cooperation were presented, showing a massive increase in scientific collaboration in (inter)national co-authorships over time. Until the 1990s, researchers in all investigated countries (France, Germany, Great Britain, USA, Japan, China, Belgium, Luxembourg) published their research articles mainly as single-authored papers. Only since the 1990s have co- and multi-authored publications risen (considerably): In 2000, only a third of all publications were published by one author. In 2010, the proportion reached its lowest level with only one-fifth of all papers single-authored (see table 6, pp. 279f). Countries differ considerably in their amount of collaboratively-written research articles. References Powell, J. J. W. & Dusdal, J. (2016). Europe's Center of Science: Science Productivity in Belgium, France, Germany, and Luxembourg. EuropeNow, 1(1). http://www.europenowjournal.org/2016/11/30/europes-center-of-science-science-productivity-in-belgium-france-germany-and-luxembourg/. Last access: 13.12.2016. Powell, J. J. W. & Dusdal, J. (2017a): Measuring Research Organizations' Contributions to Science Productivity in Science, Technology, Engineering and Math in Germany, France, Belgium, and Luxembourg. Minerva, (). Online first. DOI:10.1007/s11024-017-9327-z. Powell, J. J. W. & Dusdal, J. (2017b in press). The European Center of Science Productivity: Research Universities and Institutes in France, Germany, and the United Kingdom. IN Powell, J. J. W., Baker, D. P. & Fernandez, F. (Hg.) The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing. Powell, J. J. W., Baker, D. P. & Fernandez, F. (2017 in press). The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing. Powell, J. J. W., Fernandez, F., Crist, J. T., Dusdal, J., Zhang, L. & Baker, D. P. (2017 in press). The Worldwide Triumph of the Research University and Globalizing Science. IN Powell, J. W., Baker, D. P. & Fernandez, F. (Hg.) The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing. ; Überblick und Einleitung Bereits der Titel meiner Dissertation "Welche Organisationsformen produzieren Wissenschaft? Expansion, Vielfalt und Kooperation im deutschen Hochschul- und Wissenschaftssystem im globalen Kontext, 1900-2010" verspricht, dass sich dem Thema der Entwicklung wissenschaftlicher Produktivität in Deutschland aus verschiedenen Perspektiven (Analyseebenen, Dimensionen und Zeitrahmen) genähert werden soll. Eingebettet in das international vergleichende Forschungsprojekt Science Productivity, Higher Education, Research and Development, and the Knowledge Society (SPHERE) rückt meine Dissertation die Analyse des Einflusses der Hochschulentwicklung und der wissenschaftlichen Kapazitätsbildung auf die wissenschaftliche Wissensproduktion in den Vordergrund. Es interessiert mich, wie die im deutschen Hochschul- und Wissenschaftssystem vorherrschenden Strukturen und institutionellen Settings die langfristige Entwicklung wissenschaftlicher Produktivität beeinflusst und verändert haben. Besonders vor dem Hintergrund einer voranschreitenden Globalisierung und Internationalisierung der Wissenschaft, einer weltweiten Vernetzung von Wissenschaftlern und der Herausbildung einer Wissensgesellschaft. Die Annäherung an den Forschungsgegentand erfolgt auf der Makro- und Mesoebene: den institutionalisierten und organisationalen Settings, in denen Wissenschaft produziert wurde und wird. Da Informationen zu einzelnen Autoren nicht zur Verfügung standen, können keine Aussagen auf der Mikroebene getroffen werden, wenngleich Publikationen natürlich immer von Individuen verfasst werden und nicht von den hier untersuchten Ländern oder Organisationsformen und Einzelorganisationen. Anhand der Dimensionen Expansion, Vielfalt und Kooperation wird der Untersuchungsrahmen abgesteckt und eine Ordnung der Fragestellung vorgenommen, an denen die Struktur der Arbeit ausgerichtet ist. Der Zeitrahmen der Arbeit umfasst die Jahre 1900 bis 2010, also mehr als ein Jahrhundert (siehe Abschnitt 1.2). Ziel dieser Arbeit ist es darzulegen, warum Wissenschaftler ihre Ergebnisse in Form von Zeitschriftenartikeln publizieren. Es geht unter anderem darum, die Wichtigkeit wissenschaftlicher Erkenntnisse hervorzuheben, da nicht publizierte Ergebnisse für die Wissenschaft nicht existieren und sich aus der Art und Weise, wie publiziert wird, die Organisation der Forschung innerhalb und übergreifend einer Disziplin oder eines Fachs ableiten lässt. In den in dieser Arbeit untersuchten Fächergruppen Mathematik, Ingenieur-, Natur- und Technikwissenschaften sowie Medizin (im Folgenden angelehnt an die englische Abkürzung STEM (Science, Technology, Engineering and Mathematics) plus Medicine als STEM+ bezeichnet) spielen Publikationen in peer reviewed Zeitschriften eine wichtige Rolle – neben Patenten in den angewandteren Fächergruppen sind sie heutzutage das wichtigste Publikationsformat. Sie dienen nicht nur der Dokumentation generierten Wissens, sondern sind auch ein Anzeiger für die Reputation eines Forschers und dienen der Messung wissenschaftlicher Produktivität. Zeitschriftenpublikationen in hochklassigen Zeitschriften, die einem peer review Verfahren unterliegen, können als gold standard zur Messung wissenschaftlicher Produktivität herangezogen werden. In den letzten Jahrzehnten kam es zu einer zunehmenden Verwissenschaftlichung vieler gesellschaftlichen Teilbereiche und die Generierung wissenschaftlichen Wissens rückte immer weiter ins Zentrum des politischen und wirtschaftlichen Interesses, unabhängig davon, wo es produziert wurde. Aus diesem Grund werden die Orte und institutionellen Settings (Organisationen, Organisationsformen) wissenschaftlicher Produktivität (hauptsächlich Universitäten, außeruniversitäre Forschungsinstitute, Unternehmen, Behörden und Ressortforschungseinrichtungen und Krankenhäuser) identifiziert und voneinander abgegrenzt. Indem ihre Gemeinsamkeiten und Unterschiede anhand ihrer Aufgaben und Ziele sowie der Art der Forschung diskutiert werden. In einem ersten Schritt lege ich dar, warum ich diese Arbeit an der Schnittstelle zwischen Hochschul- und Wissenschaftsforschung und der Bibliometrie angelegt habe (siehe Kapitel 2 und 5). Publikationsanalysen werden zwar immer noch als Hauptaufgabe der Bibliometrie gesehen, aber ihre Ergebnisse werden auch von anderen Akteuren wie Hochschulmanagern, Politikern und Wissenschaftlern genutzt, um einerseits Aussagen über die Qualität der Wissenschaft zu treffen, aber auch um sich miteinander zu vergleichen oder steuernd in die Struktur und Organisation einzugreifen und Aussagen über den Output des Hochschul- und Wissenschaftssystems zu treffen. Direkte Aussagen über die Qualität der Forschung auf Basis der Anzahl an Zeitschriftenartikeln, die ein Wissenschaftler publiziert, können nicht getroffen werden, es kann aber über die Qualität einer Zeitschrift (Impactfactor) ein Proxi gebildet werden, mit dessen Hilfe Vergleiche zwischen Disziplinen getroffen werden können. Um wissenschaftliche Produktivität zu messen, müssten ergänzende Parameter hinzugezogen werden. Aus diesem Grund werden in dieser Arbeit lediglich Aussagen über die Quantität wissenschaftlicher Produktivität getroffen, nicht aber über die Qualität der untersuchten Zeitschriftenartikel, die Forschungsleistung einzelner Wissenschaftler, Organisationen oder Organisationsformen und einzelner Länder. Nichtdestotrotz zeigen Indikatoren zur Messung wissenschaftlichen Outputs eine große Expansion wissenschaftlicher Produktivität, eine Stabilität der Universitäten im Zeitverlauf und die Wichtigkeit Deutschlands als Wissensschaftsproduzent sowie eine steigende Differenzierung und Diversifizierung der Organisationsformen. Zudem können die 1990er Jahre als Startpunkt steigender nationaler und internationaler Kooperationen gesehen werden. In Kapitel 2 zum multidisziplinären Kontext der Arbeit zeige ich, in welcher Beziehung sich die Hochschul- und Wissenschaftsforschung in Deutschland zueinander befinden. Wissenschaftliches Wissen nimmt eine Sonderstellung im Vergleich zu anderen Wissensformen ein, da es unter bestimmten Bedingungen, die von der wissenschaftlichen Gemeinschaft selbst bestimmt werden, generiert und verbreitet wird. Um einen Überblick über die wichtigsten Studien innerhalb meines Feldes zu bekommen, und um meine Arbeit in den empirischen Kontext zu rücken, beschreibe ich in Kapitel 3 dieser Arbeit den aktuellen Forschungsstand. Forschungsfragen Abschnitt 1.2 stellt einen detaillierten Überblick über die dieser Arbeit zugrunde liegenden Forschungsfragen bereit: Welche Organisationsformen produzieren Wissenschaft? 1. Wie hat sich die wissenschaftliche Produktivität weltweit und im europäischen Vergleich zwischen 1900 und 2010 entwickelt? 2. Wie war/ist das deutsche Hochschul- und Wissenschaftssystem in die globalen Entwicklungen der Hochschulbildung und Wissenschaft im Zeitverlauf eingebettet? 3. Wie hat sich die wissenschaftliche Produktivität in Deutschland zwischen 1900 und 2010 entwickelt? 4. Unter allen Wissenschaft produzierenden Organisationsformen, was tragen die "klassischen" Formen zur wissenschaftlichen Produktivität bei? 5. Welche Organisationsformen stellen die besten Bedingungen für wissenschaftliche Produktivität bereit? 6. Welche Einzelorganisationen gehören zu den forschungsstärksten in Deutschland? 7. Welchen Einfluss hat die zunehmende Internationalisierung der Forschung auf nationale und internationale Kooperationen in Form von Publikationen in Zeitschriftenartikeln? Theoretischer Rahmen Theoretisch (siehe Kapitel 4) basiert meine Arbeit auf einem neu-institutionellen (NI) Ansatz zur Untersuchung und Erklärung der Expansion des Hochschulwesens und der Wissenschaft weltweit. Trotz des allgemeinen Wachstums wissenschaftlicher Produktivität bestehen beträchtliche Unterschiede zwischen den institutionellen Settings, Organisationsformen und einzelner Organisationen, die maßgeblich zur wissenschaftlichen Produktivität beitragen. Der soziologische NI konzentriert sich auf das Verständnis von Institutionen und Organisationen. Institutionen sind ein wichtiger Baustein, um soziales Handeln und Prozesse der Gesellschaftsentwicklung zu verstehen. Organisationen und Institutionen stehen in einer wechselseitigen Beziehung zueinander. Die zentralen Annahmen des NI wurden von Walter Powell, Paul DiMaggio und Richard Scott formuliert. Meilensteine: der Zusammenhang von Organisation und Gesellschaft und die Annahme, dass formale Organisationsstrukturen Mythen zum Ausdruck bringen, die in ihrer gesellschaftlichen Umwelt institutionalisiert sind. Indem Organisationen diese Mythen erfassen, kopieren und zeremoniell zur Geltung bringen, werden Strukturähnlichkeiten (Isomorphien) zwischen Organisationen und der Gesellschaft hergestellt. Das Konzept der "organisationalen Felder" dient der Beschreibung der Beziehung zwischen verschiedenen Organisationen und beinhaltet alle relevanten Organisationen, die sich mit ihrer gesellschaftlichen Umwelt auseinander setzen. In Abschnitt 4.1.2 werden die Unterschiede zwischen den Begriffen Institutionen und Organisationen diskutiert, da diese besonders in der deutschsprachigen Soziologie nicht trennscharf genutzt werden. Grundsätzlich unterscheiden sich Ansätze institutioneller Theorie in ihrer Anwendungsebene, sie sind aber durch ihren Überbau miteinander verschränkt. Folglich ist der NI als theoretische Basis besonders gut geeignet, um eine Mehrebenenanalyse der wissenschaftlichen Produktivität zeit- und ortsübergreifend durchzuführen. Die historische Entwicklung des deutschen Hochschul- und Wissenschaftssystems kann nicht ohne eine Berücksichtigung der globalen Entwicklungen durchgeführt werden, da es einerseits einen enormen Einfluss auf die Entwicklung anderer Systeme weltweit hatte/hat und andererseits globale Entwicklungen die Institutionalisierung und Organisation der Wissenschaft in Deutschland beeinflussen. Intersektorale und internationale Kooperationen sind im Zeitverlauf angewachsen, werden immer wichtiger und führen zu ausgeprägten Netzwerken innerhalb und zwischen Hochschul- und Wissenschaftssystemen weltweit. Aufgrund einer zunehmenden Verzahnung einzelner Länder und den damit einhergehenden Wechselwirkungen zwischen den unterschiedlichen Analyseebenen (makro, meso, mikro) ist eine klassische, nationalstaatliche Analyse nicht mehr zielführend. Nichtsdestotrotz können Länder als vergleichbare Einheiten gesehen werden, da sie über klar definierte Grenzen und Strukturen verfügen. Die unterschiedlichen theoretischen Perspektiven und Analyseebenen werden in Abbildung 5 genauer beschrieben. Der theoretische Ansatz der "Weltkultur" bietet eine breitere Linse des soziologischen NI auf die globale Arena. Der Fokus liegt auf globalen und internationalen Strukturen und Prozessen, die sich über lange Zeit entwickelt haben. Mit Hilfe dieser Perspektive können globale Diffusion und formale Strukturen der Entkopplung von formalen Grundsätzen und praktischer Anwendung erklärt werden. Zusammen nehmen der historische und soziologische Institutionalismus zeitliche Entwicklungen und Prozesse in den Blick, die erklären, wie Institutionen entstehen und sich verändern. Die Konzepte critical junctures und Pfadabhängigkeit sollen helfen diese Prozesse auf der Mesoebene zu verstehen. Um die Transformation der Wissensproduktion im Zeitverlauf des 20. Jahrhunderts zu verstehen und um zu analysieren, welche Organisationsformen an der Produktion wissenschaftlichen Wissens beteiligt waren, werden zwei theoretische Konzepte herangezogen: Modus 1 versus Modus 2 Wissenschaft und das Triple-Helix Modell zur Beschreibung der Beziehung zwischen Wissenschaft, Industrie und Staat. In The New Production of Knowledge beschreiben Michael Gibbons und seine Kollegen den Wandel der Wissenschaft von einer akademischen, disziplinären und autonomen, traditionellen, Organisation der Wissenschaft (Modus 1) mit einem Schwerpunkt auf Universitäten als wichtigste Organisationsform, hin zu einer anwendungsorientierteren, transdisziplinären, diversen und reflexiven Organisation der Wissenschaft (Modus 2), die eine diversere Organisation der Wissenschaft unterstützt und auf einem breiteren organisationalen Setting der Wissensproduktion beruht. Innerhalb der Literatur wird diskutiert, ob das neue Modell das alte ersetzen soll und welches der Modelle die gegenwärtige Organisation der Wissenschaft am besten beschreibt. Im Gegensatz hierzu bleibt beim Triple-Helix Modell die historische Rolle der Universitäten erhalten. Der Ansatz geht davon aus, dass zukünftige Innovationen aus einer Beziehung von Universitäten (Wissensproduktion), Industrie (Generierung von Wohlstand) und dem Staat (Kontrolle) resultieren. Daten und Methoden In dieser Arbeit werden ausschließlich Publikationen in peer reviewed Zeitschriften als Kennzeichen wissenschaftlicher Produktivität herangezogen. Dieser Schwerpunkt ermöglicht mir eine tiefgreifende Analyse von Publikationen über einen Zeitraum von mehr als einem Jahrhundert. Zeitschriftenartikel in hochklassigen und möglichst internationalen Journalen bilden den gold standard wissenschaftlichen Outputs in den hier untersuchten Mathematik, Ingenieur-, Natur- und Technikwissenschaften sowie der Medizin (STEM+). Meine Daten basieren auf einem stratifizierten, repräsentativen Sample (siehe ausführlich Kapitel 6) publizierter Zeitschriften, die als Rohdaten aus Thomson Reuters Web of Science Science Citation Index Expanded (SCIE) zur Analyse zur Verfügung stehen (eine vergleichbare Datenbank stellt Elseviers Scopus bereit). Methodologisch wird eine Kombination aus einer vergleichenden institutionelle Analyse ausgewählter Länder, eine historische Untersuchung des deutschen Hochschul- und Wissenschaftssystems und eine systematische, globale Auswertung bibliometrischer Publikationsdaten angestrebt. Der SCIE umfasst mehr als 90 Millionen Einträge (gespeichert werden nahezu alle Typen wissenschaftlichen Outputs), hauptsächlich aus den oben genannten Fächergruppen. Diese Arbeit beschränkt sich auf originale Zeitschriftenartikel (Originalmitteilungen), da lediglich dieser Publikationstyp zertifiziertes und neues Wissen enthält. Der SPHERE Datensatz umfasst publizierte Zeitschriftenartikel aus den Jahren 1900 bis 2010. Von 1900 bis 1970 wurden die Daten in 5-Jahres-Schritten mittels einer geschichteten Zufallsstichprobe ausgewählt. Ab 1975 stehen die Daten vollständig und ab 1980 in Jahresschritten zur Verfügung. Abhängig von der untersuchten Fragestellung werden die Daten in 5-Jahres- oder 10-Jahres-Schritten analysiert. Eine detaillierte Beschreibung des Samplings und der Gewichtung der Daten kann den Abschnitten 6.2.2 und 6.8 entnommen werden. Unter Berücksichtigung dieser Kriterien werden 17.568 unterschiedliche Zeitschriften (42.963 Zeitschriften, wenn dieselbe Zeitschrift in unterschiedlichen Jahren mehrfach berücksichtigt wird) und 5.089.233 Forschungsartikel untersucht. Um die Daten für die Analyse aufzubereiten muss eine intensive Vorarbeit geleistet werden. Sie werden umfassend (nach-)kodiert und bereinigt. Besonders häufig sind Fehler oder fehlende Informationen auf Ebene der Länder und/oder der Organisationen/Organisationsformen, in denen die Forschung betrieben wurde. Im Zeitraum von Juni 2013 bis Dezember 2015 habe ich die Originalzeitschriften und -artikel in Online-Zeitschriftendatenbanken oder Archiven verschiedener Universitätsbibliotheken eingesehen, begutachtet und mit Hilfe einer Excel-Tabelle katalogisiert und fehlende Informationen, wenn vorhanden, ergänzt. In der Bibliometrie werden verschiedene Vorgehensweisen diskutiert, wie Publikationen gezählt werden können. Die Analysen dieser Arbeit basieren hauptsächlich auf der whole count Methode (siehe Tabelle 1). Die Entscheidung basiert auf der Annahme, dass jeder Autor, jede Organisation, oder jedes Land gleichermaßen zu einer Publikation beigetragen hat. Folglich kann es zu einer Verzerrung bzw. Überschätzung der Ergebnisse kommen, da Zeitschriftenartikel mehrfach gezählt werden, wenn sie in Form von Forschungskooperationen publiziert wurden. Um die absolute Anzahl an Publikationen (weltweit, Europa, Deutschland) zu ermitteln, wird die Gesamtzahl an Artikeln pro Jahr (ohne Duplikate) berechnet. Zusammenfassung der wichtigsten Ergebnisse Der empirische Teil meiner Arbeit ist in drei Teile untergliedert. Die folgenden Abschnitte fassen die jeweils wichtigsten Ergebnisse zusammen. The Global Picture – Hochschul- und Wissenschaftssysteme im Vergleich Im Mittelpunkt meiner Dissertation steht die Frage, welche Organisationsformen Wissenschaft produzieren. Um die Ergebnisse der detaillierten Fallstudie einordnen und bewerten zu können, erfolgt zunächst eine Einbettung in den globalen und europäischen Kontext. Die forschungsleitenden Fragen, wie hat sich die wissenschaftliche Produktivität weltweit und im europäischen Vergleich zwischen 1900 und 2010 entwickelt und wie war/ist das deutsche Hochschul- und Wissenschaftssystem in die globalen Entwicklungen der Hochschulbildung und Wissenschaft im zeitverlauf eingebettet, wird folgendermaßen beantwortet: In einem ersten Schritt wird gezeigt, dass das weltweite wissenschaftliche Wachstum zwischen 1900 und 2010 exponentiell verlief und dieser Trend vermutlich bis heute anhält (siehe Abbildungen 3 und 10, S. 50, 147). Die massive Ausdehnung wissenschaftlichen Wissens hatte und hat auch heute noch einen großen Einfluss auf gesellschaftliche Entwicklungen, die nicht auf den wirtschaftlichen und technischen Fortschritt beschränkt sind. Ich werde darstellen, dass Hochschul- und Wissenschaftssysteme weltweite Gemeinsamkeiten aufweisen, die zu einer ähnlichen Entwicklung und Ausweitung wissenschaftlicher Produktivität geführt haben. Im Vergleich wichtiger europäischer Länder (Deutschland im Vergleich mit Großbritannien, Frankreich, Belgien und Luxemburg), kann gezeigt werden, dass zwischen der weltweiten Ausweitung der Wissenschaft, dem Anstieg an Publikationen und der Expansion von modernen Forschungsuniversitäten ein Zusammenhang besteht (siehe Abschnitt 7.2; Powell, Dusdal 2016, 2017a; 2017b im Druck). So wurde ein globales Feld der Wissenschaft aufgespannt, das als übergeordneter Rahmen fungiert. Drei geografische Zentren wissenschaftlicher Produktivität werden im Zeitverlauf identifiziert: Europa, Nordamerika und Asien. Sie haben zu unterschiedlichen Zeitpunkten an Bedeutung gewonnen oder verloren, doch zum heutigen Zeitpunkt tragen sie alle zur wissenschaftlichen Produktivität in den untersuchten Fächergruppen bei. Allerdings sind besonders in Asien die Wachstumsraten massiv angestiegen (Powell et al 2017 im Druck). Zweitens investieren alle Länder weltweit in Forschung und Entwicklung (FuE) (siehe Abbildung 9, S. 140). Diese Investitionen haben einen Einfluss auf ihre wissenschaftliche Produktivität. Zwischen einzelnen Ländern sind zum Teil große Unterschiede in der absoluten Publikationszahl und der relativen wissenschaftlichen Produktivität feststellbar. Nicht nur Investitionen in FuE tragen zur Expansion der Wissenschaft bei, sondern auch die Anmeldung von Patenten, höhere Studierendenzahlen, eine gestiegene Anzahl an Forschern, die Ausweitung von Forschungsaktivitäten in viele gesellschaftliche Teilbereiche, die Entwicklung von Forschungsprodukten und Neugründungen von Universitäten (Powell, Baker, Fernandez 2017 im Druck). Im Zuge der Hochschulexpansion und der Massifizierung der Hochschulbildung in den 1960er und 70er Jahren sind besonders die Studierendenzahlen und die Anzahl der Wissenschaftler extrem angestiegen. Es kam also zur Ausweitung des kompletten Hochschul- und Wissenschaftssystems und nicht nur zu einer Erhöhung der Anzahl an Publikationen. Im Umkehrschluss kann ein Teil des Anstiegs wissenschaftlicher Publikationen auf eine steigende Anzahl an Wissenschaftlern zurückgeführt werden. Drittens kann die von Derek J. de Solla Price aufgestellte These, dass das exponentielle Wachstum wissenschaftlicher Literatur irgendwann abflachen müsse, wiederlegt werden (siehe Abschnitt 2.4; Abbildungen 4 und 10, S. 53, 147). Obwohl einschneidende historische, politische, wirtschaftliche und technologische Ereignisse sowie Ereignisse bezogen auf die Hochschulen und Wissenschaft (siehe Abbildung 11, S. 150) kurzfristig zu einer Verringerung der Publikationszahlen geführt haben, wurde die Wachstumskurve nicht nachhaltig beeinflusst. Im Jahr 2010 wurden weltweit fast eine Million Zeitschriftenartikel in den Natur- und Technikwissenschaften sowie der Medizin publiziert. In Abschnitt 7.2.2 zeige ich, dass die Anzahl der publizierten Zeitschriftenartikel im Verhältnis zu den Ausgaben für FuE, der Größe der Hochschul- und Wissenschaftssysteme und der Anzahl der Einwohner (siehe Abbildung 12, S. 159) und Wissenschaftler (siehe Tabelle 3, S. 162; Abbildung 13, S. 164) relativiert werden müssen. Die anfängliche extreme Expansion der wissenschaftlichen Publikationen in den Mathematik, Ingenieur-, Natur- und Technikwissenschaften sowie der Medizin basiert auf einem allgemeinen Wachstum der Hochschul- und Wissenschaftssysteme (siehe oben). Unterschiedliche institutionelle Settings und Organisationsformen, in denen Wissenschaft produziert wird, haben einen Einfluss auf die wissenschaftliche Produktivität. Anhand der ausgewählten Fallbeispiele (Deutschland, Großbritannien, Frankreich, Belgien und Luxemburg) werde ich darlegen, dass Hochschul- und Wissenschaftssysteme, die über forschungsstarke Universitäten verfügen, höchst produktiv sind. Es kommt also nicht nur darauf an, wie viele Wissenschaftler innerhalb eines Systems beschäftigt werden, sondern auch darauf, in welchen institutionellen Settings sie arbeiten. Fünftens, im internationalen Vergleich trägt Deutschland immer noch erheblich zur wissenschaftlichen Produktivität in den untersuchten Fächern bei. Mit einer Wachstumsrate von 3,35% Prozent folgt Deutschland den USA und Japan. Im Jahr 2014 wurden in Deutschland 84,5 Mrd./€ für FuE von der Regierung bereitgestellt. Dies entspricht einem Anteil von 2,9 Prozent des BIP. Somit wurde der EU-Richtwert von 2020 von 3 Prozent lediglich knapp verfehlt. Im Jahr 2010 wurden in Deutschland insgesamt 55.009 Zeitschriftenartikel in den STEM+-Fächern publiziert (siehe Tabelle A5 im Anhang). Im Vergleich der absoluten Zahlen mit Großbritannien, Frankreich, Belgien und Luxemburg nimmt das Land die Spitzenposition ein. Die Größe des Hochschul- und Wissenschaftssystems hat somit einen Einfluss auf die Publikationsleistung. Werden die Zahlen in einem nächsten Schritt mit anderen Schlüsselindikatoren in Beziehung gesetzt, verändert sich die Leistung der miteinander verglichenen Systeme zum Teil erheblich. Gemessen an der Einwohnerzahl werden in Deutschland weniger Zeitschriftenartikel publiziert als in Belgien oder Großbritannien. Die Anzahl der beschäftigten Wissenschaftler betrug in Deutschland im selben Jahr 1000:4. Nur in Luxemburg und Großbritannien ist das Verhältnis von Wissenschaftlern zur Einwohnerzahl größer. Das Zusammenspiel der Organisationsformen der Wissenschaft in Deutschland von 1900 bis 2010 Auf Basis der Analysen zum globalen und europäischen Kontext der Entwicklung wissenschaftlicher Produktivität im Zeitverlauf (siehe Kapitel 7) folgt eine tiefgreifende, institutionelle Analyse des deutschen Hochschul- und Wissenschaftssystems (siehe Kapitel 8). Sie dient als Ein- und Überleitung zur detaillierten empirischen Auswertung der Daten zum deutschen Hochschul- und Wissenschaftssystem. Hier werden die wichtigsten Institutionen und Organisationen sowie das organisationale Feld der Wissenschaft (Universitäten, Fachhochschulen, außeruniversitäre Forschungseinrichtungen) vorgestellt. Zudem diskutiere ich die Unterschiede zwischen Ost- und Westdeutschland zur Zeit des geteilten Deutschlands (1945-1990). Eine Zusammenfassung der wichtigsten Ergebnisse zeigt, dass die Entwicklung der Publikationszahlen in Deutschland dem weltweiten und europäischen Trend (im kleineren Umfang) folgt (siehe Abbildung 16, S. 208). Es kam sowohl zu einer Expansion des wissenschaftlichen Wissens in Form eines exponentiellen Anstiegs an Publikationen, als auch zu einer Erhöhung der Vielfalt wissenschaftlicher Produktivität im Zeitverlauf (siehe Abschnitte 9.1 und 9.3). Die folgenden vier Forschungsfragen werden beantwortet: Wie hat sich die wissenschaftliche Produktivität in Deutschland zwischen 1900 und 2010 entwickelt? Unter allen Wissenschaft produzierenden Organisationsformen, was tragen die "klassischen" Formen zur wissenschaftlichen Produktivität bei? Welche Organisationsformen stellen die besten Bedingungen für wissenschaftliche Produktivität bereit? Welche Einzelorganisationen gehören zu den forschungsstärksten in Deutschland? Wie oben beschrieben, verläuft das Wachstum wissenschaftlicher Produktivität in Deutschland zwischen den Jahren 1900 und 2010 exponentiell. Die Kurve ist vergleichbar mit der weltweiten und europäischen Entwicklung, wenn auch in kleinerem Umfang. Zwar hatten auch hier verschiedene Ereignisse, wie der Zweite Weltkrieg, die Weltwirtschaftskrise oder die Wiedervereinigung, einen kurzfristigen Einfluss, allerdings kam es zu keiner Verlangsamung oder Abflachung des Wachstums (siehe Abbildung 11, S. 150). Bis ins Jahr 2010 wuchs die Anzahl der publizierten Zeitschriftenartikel in Deutschland auf 55.009 an. Zweitens, zeigt eine detaillierte Betrachtung der wissenschaftlichen Produktivität Westdeutschlands im Vergleich zu Ostdeutschland, dass der Anstieg der gesamtdeutschen Publikationszahlen auf einem Anstieg der Zahlen in Westdeutschland basiert (siehe Abbildung 17, S. 211). Zwischen 1950 und 1990 verlief die Kurve der wissenschaftlichen Produktivität in der DDR flach und auf einem niedrigen Niveau. Hieraus kann geschlossen werden, dass das Hochschul- und Wissenschaftssystem der DDR, aufbauend auf seinem Akademiemodell, keine guten Bedingungen für wissenschaftliche Forschung bereitgestellt hat. Drittens, zeigt die detaillierte Analyse der "klassischen" Organisationsformen der Wissenschaft, Universitäten und außeruniversitäre Forschungsinstitute, dass Universitäten im Zeitraum von 1975 bis 2010 in den STEM+-Fächern die Hauptproduzenten wissenschaftlicher Zeitschriftenartikel waren und sind (siehe Abbildung 18, S. 217). Im Untersuchungszeitraum beträgt der prozentuale Anteil der universitätsbasierten Forschung im Mittel 60 Prozent. Somit verteidigen sie ihren Status als wichtigste Organisationsform gegenüber anderen. Die Modus 2 Hypothese, dass es im Zeitverlauf zu einem Absinken des prozentualen Anteils der Universitäten kommen muss, wird verworfen. Der Anteil der Nicht-Universitäten liegt hingegen im Durchschnitt bei 40 Prozent. Obwohl die Richtigkeit der folgenden Aussage nicht empirisch überprüft werden kann, wird davon ausgegangen, dass es sich tatsächlich sogar um einen Anstieg wissenschaftlicher Produktivität der Universitäten im Zeitverlauf handelt. Unter Berücksichtigung einer Verschiebung der zur Verfügung stehenden finanziellen Mittel für FuE zugunsten der außeruniversitären Forschungsinstitute haben die Universitäten im Zeitverlauf mit weniger Forschungsgeldern immer mehr wissenschaftliche Zeitschriftenartikel publiziert. Viertens, obwohl nicht nur Wissenschaftler innerhalb von Universitäten und Forschungsinstituten Zeitschriftenartikel veröffentlichen, haben diese beiden Organisationsformen zusammen mehr als drei Viertel aller Publikationen seit den 1980er Jahren verfasst. Aber auch schon in den Jahren zuvor ist ihr gemeinsamer Anteil sehr hoch. Zu den wichtigsten Wissenschaftsproduzenten gehören neben ihnen die (Industrie-)Unternehmen, Behörden und Ressortforschungseinrichtungen und Krankenhäuser (für eine ausführliche Beschreibung der Matrix der Organisationsformen siehe Tabelle 4, S. 222f und Abbildungen 19 und 20, S. 220, 246). Dennoch sind die Universitäten die treibende Kraft wissenschaftlicher Produktivität seit mehr als einem Jahrhundert. Mit ihrer speziellen Ausrichtung auf Grundlagenforschung stellen sie die besten Bedingungen für wissenschaftliche Forschung bereit und gehören zu den ältesten Institutionen mit einem hohen Institutionalisierungsgrad. Universitäten sind widerstandsfähig gegenüber Veränderungen und critical junctures haben keinen negativen Einfluss auf ihre wissenschaftliche Produktivität. Alle anderen im Datensatz gefundenen oder aus der Theorie abgeleiteten Organisationsformen (Akademien, Vereine/Gesellschaften, wissenschaftliche Infrastrukturen, Laboratorien, Militär, Museen und nichtuniversitäre Bildungseinrichtungen) spielen nur eine untergeordnete Rolle und wurden in der Gruppe "sonstige" Organisationsformen zusammengefasst. Fünftens, eine Auswertung der zehn forschungsstärksten Einzelorganisationen Deutschlands im Jahr 2010 bestätigt die oben beschriebenen Ergebnisse, da lediglich Universitäten und außeruniversitäre Forschungsinstitute dieser Spitzengruppe zugehören. Eine Zusammenfassung der Publikationen der Institute unter ihrer Dachorganisation zeigt, dass die Institute der Max-Planck-Gesellschaft und der Helmholtz-Gemeinschaft maßgeblich zur Produktion wissenschaftlichen Wissens in Deutschland beitragen. Sie übertreffen zusammengezählt die Publikationstätigkeit einzelner Universitäten bei weitem (siehe Tabelle 5, S. 259f). Eine Einzelauswertung der Institute zeigt aber auch, dass sie allgemein genommen, aufgrund ihrer Größe und der Anzahl der Wissenschaftler, nicht mit den Universitäten konkurrieren können. Zudem gehört die hybride Organisation, die Charité – Universitätsmedizin Berlin zu den führenden zehn Wissenschaftsproduzenten im deutschen Hochschul- und Wissenschaftssystem. Nationale und internationale Kooperationen wissenschaftlicher Forschung Im letzten empirischen Kapitel der Arbeit wird auf der Makroebene die Frage beantwortet, welchen Einfluss die zunehmende Internationalisierung der Forschung auf nationale und internationale Kooperationen in Form von Publikationen in wissenschaftlichen Zeitschriften hat. Durch die voranschreitende Globalisierung und Internationalisierung haben nationale und internationale Kooperationen stark zugenommen. Zu den wichtigsten Gründen für (internationale) Kooperationen in den Mathematik, Ingenieur-, Natur- und Technikwissenschaften sowie der Medizin zählen unter anderen die Reputation der Forschungsorganisation und der Mitautoren, eine höhere Sichtbarkeit innerhalb der wissenschaftlichen Gemeinschaft, mehr Möglichkeiten für interdisziplinäre Forschung oder auch eine bessere Ausstattung der Labore. Heute sind bereits ein Drittel aller Forschungsartikel weltweit das Ergebnis wissenschaftlicher Kooperationen und lediglich ein Viertel wird von einem Autoren verfasst. Übertragen auf die Organisation der Forschung bedeutet der von Humboldt geprägte Leitsatz "in Einsamkeit und Freiheit", dass wissenschaftliche Forschung nicht mehr in alleiniger Verantwortung eines Wissenschaftlers durchgeführt wird, sondern das Ergebnis von Kooperationen ist. Netzwerke werden immer wichtiger, um gemeinsame Interessen zu teilen, an einer Fragestellung zu arbeiten sowie die aus der Forschung gewonnenen Erkenntnisse gemeinsam zu publizieren. Wissenschaftler, Organisationen und Länder unterscheiden sich dahingehend, wie sie ihre Forschung organisieren und folglich auch darin, wie sie ihre wissenschaftliche Zusammenarbeit gestalten. Diese Wege sind abhängig von der geografischen Lage und Größe des Hochschul- und Wissenschaftssystems, dem organisationalen Feld und den Einzelorganisationen. In dieser Arbeit werden unterschiedliche Muster wissenschaftlicher Zusammenarbeit präsentiert. Die Ergebnisse zeigen einen massiven Anstieg wissenschaftlicher Kooperationen in Form von gemeinsamen Publikationen im Zeitverlauf. Bis in die 1990er Jahre hinein publizierten die Wissenschaftler in den hier untersuchten Länder (Frankreich, Deutschland, Großbritannien, USA, Japan, China, Belgien und Luxemburg) hauptsächlich in Alleinautorenschaft. Erst danach kam es zu einem Anstieg an Kooperationen: Im Jahr 2000 wurden lediglich 37 Prozent aller Artikel von einem Autor verfasst. Im Jahr 2010 erreichte der Anteil einen Tiefststand von lediglich einem Fünftel Alleinautorenschaften (siehe Tabelle 6, S. 279f). Allerdings unterschieden sich die Länder hinsichtlich ihres Anteils an Ko-Autorenschaften zum Teil deutlich voneinander. Literatur Powell, J. J. W. & Dusdal, J. (2016). Europe's Center of Science: Science Productivity in Belgium, France, Germany, and Luxembourg. EuropeNow, 1(1). http://www.europenowjournal.org/2016/11/30/europes-center-of-science-science-productivity-in-belgium-france-germany-and-luxembourg/. Zugriff: 13.12.2016. Powell, J. J. W. & Dusdal, J. (2017a): Measuring Research Organizations' Contributions to Science Productivity in Science, Technology, Engineering and Math in Germany, France, Belgium, and Luxembourg. Minerva, (). Online first. DOI:10.1007/s11024-017-9327-z. Powell, J. J. W. & Dusdal, J. (2017b im Druck). The European Center of Science Productivity: Research Universities and Institutes in France, Germany, and the United Kingdom. IN Powell, J. J. W., Baker, D. P. & Fernandez, F. (Hg.) The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing. Powell, J. J. W., Baker, D. P. & Fernandez, F. (2017, im Druck). The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing. Powell, J. J. W., Fernandez, F., Crist, J. T., Dusdal, J., Zhang, L. & Baker, D. P. (2017, im Druck). The Worldwide Triumph of the Research University and Globalizing Science. IN Powell, J. W., Baker, D. P. & Fernandez, F. (Hg.) The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing.