Lärm gehört zu den größten Umwelt- und Gesundheitsproblemen unserer Zeit und folgt somit an zweiter Stelle nach der Luftverschmutzung. In der Europäischen Union (EU) sind rund 40 Prozent der Bevölkerung Lärm ausgesetzt, der die Grenze der Belästigung von 55 dB überschreitet. Die Motivation zu dieser Arbeit ist daher einerseits die hohe Dringlichkeit der Lärmbekämpfung aufgrund der großen Gesundheitsgefahr und andererseits die schlechte Qualität der Lärmkarten, die in der Praxis zur Information der breiten Öffentlichkeit verwendet werden. Diese sogenannten strategischen Lärmkarten bilden die Grundlage zur Bewertung von Umgebungslärm und für die Öffentlichkeitsbeteiligung, das heißt sie sind das Kommunikations- und Informationsmittel. Hauptinhalt der Karten ist die Schallimmission, dargestellt anhand des Lärmindexes Lden für Straßen-, Schienen-, Flug- und Industrielärm, der jeweils einzeln in einer Karte darzustellen ist. Lden ist der gewichtete A-bewertete äquivalente Dauerschallpegel für alle Tage eines Jahres. Er wird anhand von farbigen Isophonen, das sind Linien gleicher Lärmbelastung, in 5-dB-Klassen dargestellt. Die zu verwendenden Farben sind in der der Verordnung über die Lärmkartierung, festgeschrieben und in einer DIN definiert. Das vorgegebene Schema entspricht jedoch nicht dem aktuellen Forschungsstand der kartografischen Gestaltung. Bestehend aus einer Abfolge von Hellgrün, Mittelgrün, Dunkelgrün, Gelb, Ocker, Orange, Rot, Dunkelrot, Lila, Hellblau und Dunkelblau, ist es qualitativ und die Farben aufgrund des Fehlens einer systematischen Helligkeits- und Sättigungsverteilung nicht den ansteigenden Werten der dB-Skala zuzuordnen. Ziel der vorliegenden Arbeit war daher, die Lärmkarten, wie sie entsprechend der END zur Öffentlichkeitsbeteiligung verwendet werden, zu analysieren und für den wichtigsten Karteninhalt, die Schallimmissionen, ein neues Farbschema zu entwickeln. Neben einer qualitativen kartografischen Analyse, einer Bestandsanalyse der Lärmkarten der 27 deutschen Ballungsräume, die zur Lärmkartierung verpflichtet sind, und einer Task-Analyse, wurden in einer Anforderungsanalyse die Voraussetzungen für die Entwicklung des neuen Farbschemas bestimmt und in einem nutzerorientierten, iterativen Prozess ein neues Farbschema zur Darstellung der Schallimmissionen entwickelt. Bedingt durch die Farbwahrnehmung und bei genauerer Betrachtung des Anwendungsfalles, der Darstellung der Schallimmissionen, werden die Herausforderungen zur Erstellung eines Farbschemas klar. Die Schallimmissionen werden zwar in 5-dB-Klassen dargestellt, aber der zugrundeliegende Schalldruckpegel ist ein logarithmisches Maß, dadurch tragen höhere Werte stärker zu einem Mittelwert bei und die dargestellte Wertespanne ist sehr groß. Um eine sinngemäße Interpretation zu ermöglichen, müssen diese daher auch in der Darstellung stärker betont werden, was durch einen starken Anstieg der Sättigung der Farben für hohe Werte erreicht wurde. Da Lärmkarten die Lärmbelastung darstellen, ist es für eine verbesserte Interpretation sinnvoll, Farben zu wählen, die mit der Belastung assoziativ sind. Aus diesem Grund wurde von der kartografischen Konvention abgewichen und ein Schema mit zwei Farbtonübergängen gewählt. Insgesamt besteht das entwickelte Farbschema aus zehn Farben, die drei Wirkungsklassen bilden. Jeder Wirkungsklasse ist ein Farbton zugeordnet - Blaugrün, Orange und Lila - der assoziativ mit dem Grad der Belästigung und dem Gesundheitsrisiko ist und somit die Interpretation erleichtert. Da es pro Farbton somit nur drei bis vier Helligkeitsstufen gibt, werden die Unterscheidbarkeit und die Zuordnung der Farben zur Legende erleichtert. Durch die Vermeidung von Ampelrot und –grün konnte die Eignung für Menschen mit Farbenfehlsichtigkeiten stark gesteigert werden. Um die Farbtöne in eine visuelle Hierarchie zu bringen, wurden die Helligkeit und die Sättigung systematisch variiert. Die Helligkeit ist am größten bei der vierten Farbe und nimmt in Richtung beider Enden ab, die Sättigung hingegen nimmt v. a. zum unteren Ende der Skala, d. h. in Richtung der hohen Werte, stark zu. Durch dieses "bipolare" Schema wird eine Betonung der Regionen erreicht, die von größtem Interesse sind: die positiven, ruhigeren Bereiche und die Bereiche hoher Belastung. Das Schema wurde in vier Nutzerstudien evaluiert, die Ergebnisse flossen jeweils in die Weiterentwicklung ein. Die Ergebnisse der ersten Studie zeigten, dass es signifikante Einflüsse des Farbschemas auf die Interpretation der Lärmbelastung gibt. Weitere Studien ergaben, dass die verwendeten Farben unterscheidbar sowie assoziativ mit der Belastung sind und dass großeWertespannen besser anhand konträrer Farben, wie beispielsweise Komplementärfarben dargestellt werden, was sehr für das Farbschema mit Farbtonübergängen spricht. Es zeigt sich, dass die Farben auch für Menschen mit Farbenfehlsichtigkeit unterscheidbar sind. Der Anwendungsfall zur Entwicklung waren deutsche Straßenlärmkarten, daher wurden die Anwendbarkeit in anderen EU-Ländern und die Übertragbarkeit auf andere Lärmquellen untersucht. Zur Übertragbarkeit auf andere Lärmquellen sowie auf Daten aus Crowdsourcing müssen die Anforderungen und darauf aufbauend die Darstellung an die spezifischen Charakteristika der Werte angepasst werden, wie zum Beispiel die Wiederholungsrate, die Dauer, oder die Häufigkeit von Messungen. Über das Farbschema hinaus ergab die Analyse u. a., dass zur Vermittlung einer wahrnehmungsgetreuen Lärminformation psychoakustische Aspekte der Wahrnehmung integriert werden müssen, denn physikalische Parameter, wie Lden, scheinen dafür nicht auszureichen und kein ausreichendes Bild einer tatsächlich wahrgenommenen Lärmsituation zu liefern. ; Noise is one of the most serious environmental and health risks, a close runner-up to air pollution. Roughly 40 percent of the population in the European Union (EU) are exposed to a noise level of 55 dB, which is at the verge of annoyance. Therefore, the motivation for this research project was the acuteness for noise abatement due to high health risk, on the one hand, and the lack of quality that can be observed in noise maps used for public information on the other hand. These so-called strategic noise maps have to be drawn up every five years according the EU Environmental Noise Directive (END, RL 2002/49/EG). They form the basis for noise assessment and public participation and, therefore, they are a major tool of communication and information. The main map content is sound immission, presented by means of the noise index Lden for road traffic, train noise, airport noise, and industrial noise; each noise source has to be presented in a separate map. Lden is the A-weighted equivalent continuous sound level for all days of a year. It is represented by means of colored isophones, which are areas of equal noise pollution, in 5 dB steps. The colors that have to be used are established in the German regulation about noise mapping, and defined in a German standard. However, this predefined color scheme does not conform to the latest standard in cartographic research and science. Being composed of a sequence from light green, green, dark green, yellow, light brown, orange, red, dark red, purple, light blue, and dark blue it is counterintuitive because a systematic change of lightness and saturation is missing. Also, the colors cannot be matched with the increasing values of the dB-scale. The aim of this research effort, therefore, is to analyze END-conform noise maps and to develop a color scheme for the most important map content, the sound immission. Besides a qualitative, cartographic analysis the author undertook a status analysis of the maps published by the 27 agglomerations, which are legally obliged to draw up noise maps, an analysis of the tasks users carry out in accordance with their aims, and a requirements analysis for noise maps. The requirements are the foundation for the user-centered and iterative color design process to develop a new color scheme for the presentation of noise immission. Looking at the vast number of cartographic research on color-design the development of a color scheme might seem trivial. However, due to color perception and the specific case of application challenges become clear. Noise immission is presented in 5-dB-classes, but the underlying sound pressure is logarithmic. The effect is that higher values contribute more to the energetic mean value and the span between extreme values is big. To support that colors are logically assignable to the characteristics of noise data, higher values have to be highlighted. This is achieved by an increase of saturation for higher values. To facilitate interpretation it makes sense to choose colors that are associative with the presented noise pollution. That was the reason for choosing a color scheme with two color transitions against cartographic custom. In total the color scheme consists of ten colors and three color hues – blue-green, orange, and purple. The color hues symbolize three levels of noise exposure as well as health risk and support recognition. For each hue there are only three to four lightness steps, which supports distinguishability and the matching of colors in the map with colors in the legend. Through avoidance of red and green the scheme's suitability for people with color vision deficiencies was achieved. A systematic change of saturation and lightness supports a visual hierarchy of the presentation. The fourth color is the lightest while lightness decreases at both ends of the scale. Saturation, in contrast, increases for higher values. By means of this "bipolar" scheme areas of interest are highlighted, which are quiet areas as well as highly polluted areas. The scheme is evaluated in four user studies following an iterative design. Thereby results of the studies are considered for the further development of the scheme. Results of the first study show that color schemes have an influence on the interpretation of noise maps. The other studies prove that the colors of the scheme can be distinguished, also by users with color vision deficiencies, and are associative with the level of pollution. Studies also show that contrary colors with a high color or lightness contrast are appropriate to represent a big span between extreme values. This is the argument for the proposed scheme with two hue transitions. The case of application for the development of this new color scheme were German traffic noise maps, therefore the adaptability of results for other EU member states and for other noise sources was evaluated. Results show that there is no effect between place of residence and color association. Consequently, the color scheme can also be used in countries other than Germany. To be used for other noise sources as well as data from crowdsourcing, requirements and presentation styles have to be adapted to the specific data characteristics, such as repetition rate, duration, or the frequency of metering. Beyond insights for the color scheme the analysis revealed that the presentation of physical parameters like Lden is not sufficient to represent noise information that is in line with the individual perception of affected people. Therefore, psychoacoustic aspects have to be integrated to a greater degree.
Wäre die Gegenwart eine andere, hätte im Mai 2020 die achte Ausgabe der Konferenz "Theater und Netz", einer Initiative von nachtkritik.de und der Heinrich-Böll-Stiftung, stattgefunden. Stattdessen ergab sich für Theaterschaffende, Kritiker*innen und Publikum reichlich Gelegenheit, das Verhältnis von Theater und Netz in actu auszuloten: Durch die Ausgangsbeschränkungen befeuert, verlagerte sich das Theatergeschehen in die digitale Experimentierstube. Im Oktober erschien nun der Band Netztheater, der in 21 Beiträgen die Erfahrungen der vergangenen sechs Monate reflektiert –fundiert durch die Expertise der im Format "Theater und Netz" seit 2013 geleisteten Pionierarbeit. Die Kürze der zwei- bis siebenseitigen Beiträge, gepaart mit der Erfahrungsdiversität aus Herstellung, Rezeption und wissenschaftlicher Auseinandersetzung, hat entscheidende Vorteile: Hier wird nicht lange umständlich unter Ausrufung irgendeines "Post-" herumgeredet oder die beliebte Formel strapaziert, Theater müsse "neu gedacht" werden. Die Beitragenden verbindet die gemeinsame Sache und so kommen sie rasch zum Punkt. Als Hybrid aus theoretischen Positionen und reflektierender Praxis bündelt die Publikation praktisch verwertbares und weiterentwickelbares Wissen kompakt und beinahe in Echtzeit. Daher verhandelt diese Rezension die Beiträge nicht chronologisch, sondern führt einander ergänzende Perspektiven zu zentralen Aspekten wie Dramaturgie, Community, Interaktion etc. kommentierend zusammen: Der Band eröffnet mit einem Praxisbericht des geglückten Burgtheater-on-Twitter-Experiments #vorstellungsänderung, das tausende Mittweeter*innen auch abseits des Abopublikums rekrutierte. Projekte wie dieses geben Hoffnung, dass die Theater, die sich im Netz oft als singuläre kulturelle Leuchttürme gebärden, durchaus von den Praktiken der Sozialen Medien profitieren können: Like, share, comment, retweet sind schließlich nichts anderes als digitale Kürzel für gemeinschaftsstiftende Interaktionen, basierend auf Emotion, Zuspruch, Diskussion und Multiplikation. Vielleicht sind in Zukunft ja auch vermehrt offen und öffentlich geführte Dialoge zwischen Theaterhäusern zu erwarten? Netztheater geht davon aus, dass die Suche nach digitalen künstlerischen Ausdrucksformen sich nicht erst daraus ergibt, dass Hygieneregeln und Distanzierungsvorgaben die Modi des Zuschauens kurzfristig verändert haben. Auch tradierte Annahmen über das Publikum sind zu überprüfen. In ihrem kollaborativen Text "Das Theater der Digital Natives" beobachten Irina-Simona Barca, Katja Grawinkel-Claassen und Kathrin Tiedemann, dass die Digitalisierung längst "in Form von Alltagstätigkeiten und Wahrnehmungsweisen" (S.16) im Theater angekommen sei. Das Theater ist kein geschützter Ort, an dem die Zeit stehen geblieben ist. Vielmehr tragen die Zuschauer*innen die Welt, in der sie leben, unweigerlich in ihn hinein. Das betrifft auch Praktiken des Multitaskings bzw. des 'Second Screen', also die Gleichzeitigkeit mehrerer Interfaces und Informationsquellen. Jahrhundertelang war der zentralperspektivische Blick der Barockbühne prägend für die Organisation einer exklusiven Aufmerksamkeit im Theater. Wiewohl es also eine neue Erfahrung für die Theaterhäuser ist, "Nebenbeimedium zu sein" (S. 20), wie Judith Ackermann betont, ist es höchste Zeit, diese 'verstreute' Aufmerksamkeit im Inszenierungsprozess aktiv mitzudenken und gezielt einzusetzen. Dabei ist die Diversität des Publikums inklusive der unterschiedlich ausgeprägten Media Literacy zu beachten, denn nicht alle Zuschauer*innen werden sich augenblicklich z. B. in einer gamifizierten virtuellen Umgebung zurechtfinden: "Indem ich im digitalen Raum Zusatzinformationen – Hintergrundinfos zum Stück, zur Produktion – zu meinen Inszenierungen streue, kann ich zum Beispiel auch dem 'analogen Publikum' einen Mehrwert bieten, der es aber nicht verschreckt." (S. 22) Für eine Dramaturgie des Digitalen ist Aristoteles allenfalls partiell ein guter Ratgeber. Zu viele Komponenten sind neben 'der Story an sich' an der Architektur der Erzählung beteiligt. Einige Elemente des 'klassischen' Storytellings lassen sich psychologisch für den digitalen Raum begründen: Das Überschreiten der 'Schwelle' etwa wird als zentraler Moment markiert, zumal die Spielregeln für das Dahinterliegende noch nicht festgelegt sind – die Verständigung auf "Floskeln, Rollen und Situationen" (S. 71) hat erst zu erfolgen. Friedrich Kirschner, Professor für digitale Medien an der Ernst Busch Berlin, schlägt vor, die zur Vermittlung von "Rollen- und Erlebnissicherheit" (ebd.) dringend nötigen Ausverhandlungsprozesse im Rahmen der jeweiligen Inszenierung ästhetisch zu gestalten. Dabei setzt er auf ein Miteinander, "das im Gegensatz zu den treibenden Kräften der Plattformhalter auf Erkenntnis gerichtet ist; das Handlungsfähigkeit vermittelt anstelle von Determinismus" (S. 73). In diesem Sinne schlägt Ackermann überdies vor, "modular" zu denken, also "leichte Ein- und Ausstiegsmöglichkeiten" zu schaffen, "indem man immer wieder die Möglichkeit gibt dazuzustoßen" (S. 21). Wiederholt wird das Serielle als Chance für neue Theaterformen ausgewiesen, beispielsweise um "durch gemeinsames, geteiltes Wissen über einen langen Zeitraum […] eine Beziehung zu Figuren auf[zu]bauen, sie mit der eigenen Lebensrealität ab[zu]gleichen und mit Freund/innen [zu] diskutieren" (S. 72), wie Kirschner in "Teilhabe als Notwendigkeit: Theater als Raum pluraler Gemeinschaften" schreibt. Um diese Gemeinschaftsbildung ist es auch Christiane Hütter zu tun: Die Community ist das Herzstück des Theaters, weshalb die künstlerische Energie aktuell vor allem darauf zu verwenden sei, "dass Leute wiederkommen, dass sich Routinen und Rituale entwickeln, dass serielle Formate entstehen" (S. 45). Diese Community aufzubauen, "das ist ein Handwerk, das eine Strategie, Zeit und Inhalte benötigt" (S. 30), weiß auch Christian Römer, Referent für Kulturpolitik und Neue Medien der Heinrich-Böll-Stiftung, in seinem Plädoyer "Für ein Theater @home!". Essentieller Bestandteil dieser Strategie, die vorerst noch strategisch auf eine Gemeinschaft "vor der Bezahlschranke" setzen müsse, sei die "Arbeit an der eigenen Identität als Theater im Netz" (ebd.). "Ein Schaufenster in die eigene Vergangenheit stärkt die Bindung des Publikums an 'sein' Theater." (S. 29) Man möchte hinzufügen, dass die "Verbindung zur [eigenen] Geschichte" (ebd.) auch nach Innen identitäts- und strukturbildend wirken und so womöglich die ein oder andere Erschütterung abfangen kann, die die Theaterschaffenden gegenwärtig persönlich und als Gemeinschaft erleben. Wie zugkräftig Selbstmarketing bzw. 'Branding' in Sachen Follower*innenschaft ist, lässt sich beispielsweise bei erfolgreichen Influencer*innen beobachten. Der Dramatiker und Dramaturg Konstantin Küspert zeigt in "Sozialmediale Theaterräume: Die performative Parallelwelt von TikTok" überaus schlüssig auf, welche "Grundelemente theatraler Praxis" in Social-Media-Formaten zu finden sind: "TikToks müssen, um erfolgreich zu sein, praktisch immer eine Pointe haben, meistens überraschend und lustig, und damit grundsätzliche Elemente einer Narration – teilweise regelrechte Fünf-Akt-Strukturen oder Rekontextualisierungen im Miniformat – nachbauen." (S. 26) Auffällig sind auch Praktiken des Samplings, wie sie schon in Hans-Thies Lehmanns Postdramatische[m] Theater, das jüngst seinen zwanzigsten Geburtstag feierte, zu finden sind: Denn auch bei TikToks wird "reinszeniert, kontextualisiert und koproduziert" (ebd.). Aber manchmal ist es gerade das Ähnliche, das trennt. Man stelle sich etwa einen Burgschauspieler auf der Bühne eines Kölner Karnevalsvereines vor. So verlockend wasserdicht die von Küspert angestrengte Gleichung auch anmutet, lässt sich eigentlich nur in der konkreten Anwendung überprüfen, "was vom eigenen Formenrepertoire übersetzbar ist" (S. 84). Der schmerzliche Verlust öffentlicher Orte, zu denen auch das Theater als Raum der gesellschaftlichen Verständigung gehört, zieht sich leitmotivisch durch die Texte des Sammelbandes. "Die Corona-Krise ist eine Krise der Versammlung" (S. 35), bringt Dramaturg Cornelius Puschke diesen Umstand zu Beginn seines "Plädoyer[s] für 1000 neue Theater" auf den Punkt. Dass es sehr wohl auch im Internet Formen von Gemeinschaftsbildung gibt, die sich auf dezentrale Weise organisieren, beobachtet Christiane Hütter mit kritischem Interesse: "QAnon und Konsorten glänzen mit orchestriertem Storytelling, outgesourced an viele, mit einem übergeordneten World-building-Framework, das Inkonsistenzen erlaubt" (S. 41). Eine Aufgabe des Theaters könnte es sein, positive Gegenangebote zu entwerfen, die dieser Sehnsucht nach Gemeinschaft, Austausch und gemeinsamer Erzählung entsprechen. Wie aber können solche Dialog und Austausch befördernden Formate aussehen? Die interdisziplinäre Künstlerin und Game Designerin Christiane Hütter, aus deren Feder insgesamt drei Texte des Bandes und zwei Interviews stammen, entwirft zu diesem Zweck eine "Typologie von Interaktion, Kollaboration und Partizipation" in übersichtlich tabellarischer Form, denn häufig enttäuschten 'interaktive Stücke' durch "Pseudo-Interaktions-Möglichkeiten" oder "asymmetrische Interaktion" (S. 44). Angesichts der pandemiebedingten Einschnitte in die Möglichkeit, durch Handlungen 'stattzufinden', ist es eine der wichtigsten Herausforderungen an Inszenierungsprozesse, die Agency der Zuschauer*innen sinnvoll zu integrieren. Die Nachtkritikerin Esther Slevogt plädiert explizit dafür, die Webseiten der Theater als "Portale in den digitalen Raum" und "Interfaces" (S. 109) zu behandeln. Diese verstehen sich gegenwärtig eher als Sende- denn als Empfangskanäle; die einstigen Gästebücher sind längst in selbstverwaltete Facebook-Gruppen migriert und bilden hier den kulturkritischen Versammlungsort einer recht spezifischen Theaterklientel. Eine Brücke zwischen analog und virtuell, Inszenierungs- und Alltagsgeschehen könnten hybride Formate herstellen. Der Theaterregisseur Christopher Rüping beschreibt Hybridität durchaus als Challenge, weil "sich die kulturellen Praktiken des einen und des anderen so beißen". Eine Inszenierung, die so divergente Rezeptionsbedingungen berücksichtigt, sei entsprechend komplex im Herstellungsprozess und müsste "auf achtzehn Ebenen gleichzeitig" funktionieren: "Interaktivität, die nur im digitalen Raum stattfindet, während ich analog zuschaue und davon ausgeschlossen bin, ist merkwürdig." (S. 94) Zudem ist es auch für Darsteller*innen eine neue Erfahrung, auf die weder Ausbildung noch bisherige Praxis sie angemessen vorbereitet haben. So stellt Ackermann die berechtigte Frage: "Wie kann den Schauspieler/innen das Gefühl vermittelt werden, dass sie keinen Film machen, sondern dass sie mit Personen interagieren, die nicht Teil der performenden Gruppe sind – auch wenn diese Personen nicht physisch kopräsent sind?" (S. 21) 'Gemeinsames Erzählen' prägt die Entstehungsgeschichte unserer Kultur, Gesellschaft und Sozialisation. Keine Entwicklung ohne Kooperation, keine Innovation ohne Vorstellungsvermögen. Netztheater könnte ein System der jahrhundertelangen Professionalisierung von Theater neu in Bewegung bringen, weil es Expertisen unterschiedlicher Provenienz bedarf und den Grundgedanken von Crowdsourcing in Schaffensprozesse integriert. Aber sind wir wirklich bereit für künstlerische Formate mit offenem Ausgang? Widerspricht das nicht dem Prinzip von Inszenierung? Müsste man das Profil der Regie – der ja gerade im deutschen Sprachraum besondere Deutungshoheit zukommt – womöglich neu definieren? Aktionen von Zuschauer*innen, die aktiv am Handlungsverlauf mitschreiben, sind schwer zu antizipieren; die Interventionen von Trollen und Bots brechen unerwartet in den Handlungsverlauf ein. Aber vielleicht ist es angesichts der Erschütterungen von 2020 gar keine dumme Idee, statt vorgefertigter Handlungsbögen flexibel adaptierbare Aktionsmodelle zu entwerfen, mit denen auf den Einbruch des Unvorhergesehen reagiert werden kann. Frank Rieger vom Chaos Computer Club beforscht Mixed-Reality-Projekte bereits seit den 1990er-Jahren. "Hybride Räume, digitale und interaktive Formate" hätten bereits eine lange Geschichte, allerdings gäbe es immer wieder "unrealistische Annahmen über das, was die Technik am Ende leisten können wird" (S. 61). Mitunter behindere aber gerade die entgegengesetzte Annahme die Umsetzung: "Man kriegt ein staatliches Theater für eine große Produktion nur dazu, das auch im digitalen Raum zu machen, wenn die das gleiche Gefühl von ernsthafter Technik haben" (S. 94), weiß Regisseur Christopher Rüping aus eigener Erfahrung. Andere Internetformate bewiesen, dass es nicht immer schweres Gerät erfordert, denn "im digitalen Raum dieses Erlebnis [von Gemeinschaft] zu stiften" sei etwas, das "jedem mittelmäßigen Streamer gelingt" (ebd.). Die Ursache für solche Trugschlüsse sieht Rieger in der Inselexistenz, die viele Theater fristen. Der Branche fehle noch immer eine "breite Kultur des ehrlichen Erfahrungsaustausches, der Diskussion von technischen, inhaltlichen und Projektmanagement-Fehlern" (S. 62), sodass das Rad immer wieder neu erfunden werden müsse. Dem entgegenzuarbeiten beabsichtigt die im vergangenen Jahr gegründete Dortmunder Akademie für Digitalität und Theater. Gemäß ihrer Open-Source-Strategie will sie "Nerdkultur […] ins Theater reinbekommen" (S. 67) und die Erkenntnisse ihrer prototypischen Arbeit in Tutorials, Talks und Wikis zugänglich dokumentieren. In ihrer Auswertung der Netztheaterexperimente des ersten Pandemie-Halbjahres bemerken die Bandredakteur*innen Sophie Diesselhorst und Christian Rakow, dass "das Gros […] piratischen Charakter" hatte. "Es entstammte der Freien Szene oder ging auf Initiativen von Einzel-Künstler/innen zurück, die sich ihre eigene Infrastruktur bauten und einfache technische Lösungen jenseits des Stadttheater-Apparats fanden." (S. 89) Man kann annehmen, dass dieser Innovationsgeist zumindest teilweise der Not geschuldet war. Denn selbst Projekte an etablierten Häusern sind häufig von externen Zusatzförderungen abhängig. Um über den eigenen Guckkasten hinauszudenken, haben einige Theater bereits Kontakt zu freien Künstler*innen und Kollektiven aufgenommen. "Es gibt viele kleine Aufträge von Theatern, die sagen: 'Wir wissen nicht, wie es weitergeht. Wollen Sie etwas ausprobieren?'" (S. 97), schreibt die britische Kritikerin Alice Saville. Diese vorsichtige Kontaktaufnahme birgt die Chance, das Gespräch darüber zu beginnen, wie sich festgefahrene Strukturen künstlerisch und wirtschaftlich öffnen lassen. Eine Möglichkeit wäre, Theater künftig als "Agenturen für das Dramatische" zu denken, wie am 13.11.2020 bei der Onlinetagung "Postpandemisches Theater" vorgeschlagen wurde, die ebenfalls auf die Initiator*innen des Sammelbandes zurückgeht. Für die Pluralität und Interdisziplinarität der Branche steht übrigens auch, dass keine der Autor*innenbiographien einen linearen Verlauf aufweist, geschweige denn sich auf eine einzige Berufsbezeichnung zurückführen ließe. Eine der aktuellen Herausforderungen besteht darin, Jobprofile zu überdenken. In Christiane Hütters Entwurf für ein "Theater der Gegenwart" ändert sich die Organisationsstruktur auch auf der Leitungsebene: "Es geht in Zukunft vor allem auch darum, die Gesamtprozesse zu koordinieren, Projektmanagement zu machen, Herstellungsleitung für Situationen, Care-Arbeit fürs Team." (S.45) Ein Kernanliegen der Publikation ist das Plädoyer für eine 'vierte', digitale Sparte – wobei zu bemerken ist, dass das digitale Theater sich diesen vierten Platz vielerorts mit dem Theater für junges Publikum teilt. Dieser Befund ist symptomatisch, werden doch Digitalität und Jugend oft zusammengedacht. Berücksichtigt man die zeitliche Dimension –"in naher Zukunft wird es nur noch Digital Natives geben" (S. 16) – wird rasch klar, dass es sich um eine voreilige Schlussfolgerung handelt. Die sich andeutende Marginalisierung verheißt wenig Gutes für die so dringend nötigen Finanzierungsstrukturen und Fördermodelle, zumal auch die Verantwortung, diese 'vierte Sparte' zu gestalten, damit demselben Personenkreis zugesprochen wird. Folgerichtig wird immer wieder sachlich bemerkt, dass zum Aufbau einer künstlerischen Infrastruktur tatsächliche Ressourcen in Form von Zeit, Geld und neuen Stellenprofilen am Theater benötigt werden. Einige Häuser haben bereits erste Schritte gesetzt und beschäftigen neben Positionen wie Social Media oder – neudeutsch – Community Management nun auch Programmierer*innen. Das Staatstheater Augsburg, das sich bereits im Frühjahr "einen Namen als VR-Hochburg mit einem umfangreichen Spielplan an Virtual-Reality-Produktionen" (S. 99) machte, hat mit Beginn der Spielzeit 2020/21 Tina Lorenz als "Projektleitung für Digitale Entwicklung" eingestellt; das Schauspielhaus Zürich holte für seine Webserie Dekalog den Designer für Virtuelle Interaktion, Timo Raddatz, ins Boot. Für eine "Digitale Sparte" argumentiert auch Elena Philipp, die die Münchner Kammerspiele, das Staatstheater Augsburg und das Hebbel am Ufer als Case Studies ins Feld führt. Die Nutzung digitaler Technologien beschränkt sich aber naturgemäß nicht nur auf die künstlerische Außenwirkung, sondern bietet auch ganz praktische Lösungen: Produktionsvorgänge –und sogar der ökologische Fußabdruck –können beispielsweise durch 'virtuelle Bauproben', 3D-Modelle und die Nutzung von Extended Reality (XR) wesentlich erleichtert werden. Mit der routinemäßigen Nutzung digitaler Technologien stehen auch neue Inhalte in Aussicht. Derzeit erfahre die Form zu große Aufmerksamkeit, zitiert Philipp Tina Lorenz, die konkrete Vorschläge für inhaltliche Schwerpunkte abseits der tausendsten Neuauflage von Goethe und Schiller macht: "Noch ist das Medium die Message, aber wir müssen Geschichten für das digitale Zeitalter entwickeln, über die Gig Economy, Smart Cities oder darüber, wie Kommunikation, Aktivismus und soziale Bewegungen im 21. Jahrhundert funktionieren." (S. 102) Der Blick der Herausgeber*innen inkludiert auch Länder, deren staatliche Subventionsstrukturen weit weniger privilegiert beschaffen sind als im deutschsprachigen Raum. Alice Saville stellt in ihrem Beitrag "Keine Show ohne Publikum" einige Beispiele aus "Großbritanniens immersive[r] Theaterszene im Lockdown" vor, die ja aufgrund ihrer Organisationsform –weit mehr Touring Companies als feste Ensembletheater –ein gewisses Training in innovativer Raumgestaltung besitzt. Der Stadtplaner und Theaterleiter Trevor Davies berichtet von seinen Erfahrungen mit der hybriden Performancereihe "Wa(l)king Copenhagen", für die 100 Künstler*innen eingeladen wurden "ab dem 1. Mai 2020 über 100 Tage lang 100 kuratierte zwölfstündige Walks […] über stündliche Livestreams digital [zu] übertragen" (S. 54). Und die Kuratorin und Kritikerin Madly Pesti erzählt am Beispiel Estlands, bei dem sich die Einwohnerzahl und die Summe der jährlichen Theaterbesuche entsprechen, von der gelungenen Kooperation von Theaterhäusern und Rundfunk, die auf ein über Jahrzehnte gepflegtes Verhältnis zurückgeht: Da die Rechte der beteiligten Künstler*innen vom Estnischen Schauspielerverband vertreten wurden, konnte eine Sonderregelung für die Dauer des Ausnahmezustands verhandelt werden, um die künstlerischen Arbeiten im kulturellen Webportal des Nationalrundfunks kostenlos zugänglich zu machen. Angesichts des vergleichsweise neuen Terrains muss das Theater sich fragen, was es aus den Erfahrungen anderer Branchen lernen kann. Denkt man beispielsweise an die wirtschaftlichen Nöte des Onlinejournalismus und die mühsame Etablierung von Paywalls, ist es sinnvoll, frühzeitig über Verwertungsmodelle bzw. den Preis von 'gratis' nachzudenken. Es gilt zu prüfen, inwiefern Limitation (zeitlich, kapazitär, Ticketing), Exklusivität (Sonderformate, Blicke hinter die Kulissen, Stichwort Onlyfans) oder Partizipations- und Mitgestaltungsoptionen als wertsteigernde Maßnahmen praktikabel und tragfähig sind. Im Kontext von Big Data ist zudem branchenweit zu diskutieren, wie sich Theaterhäuser zu privatisierten Plattformen, die ja den digitalen Raum dominieren, verhalten sollen. Erschwerend kommt hinzu, dass die ungeklärte Rechtesituation im deutschsprachigen Raum auf Netztheaterexperimente nachgerade innovationsfeindlich wirkt. "Man kann nicht Theater im Internet machen und dann aber straight die Copyright-Gepflogenheiten des Analogen anwenden wollen" (S. 93), spricht die Dramaturgin Katinka Deecke im Interview ein Feld mit raschem Klärungsbedarf an. Wiewohl alle Texte von den Lehren aus spezifischen Best Practices leben – schließlich werden die neuen Ausdrucksformate von Pionieren "des Ausprobierens, Aneignens und Entdeckens" (S. 76) entwickelt – versammelt die Publikation in einem eigenen "Produktionen"-Kapitel gezielt Besprechungen einzelner Projekte. Sinnigerweise stammen diese Texte mehrheitlich von Menschen, die berufsbedingt einen größeren Überblick über die Rezeption der Szene besitzen: Kritiker*innen und Redakteur*innen. So kommt Elena Philipps Untersuchung des "Aufbau[s] von Online-Programmen an Theatern" beispielsweise zu dem Schluss, dass "begleitend zu einer Theaterästhetik" – beispielsweise "für Virtual-Reality-Umgebungen" – auch "das Publikum dafür entwickelt" (S. 101) werden müsse. Der Umgang mit neuer Technologie ist schließlich für alle Beteiligten zunächst eine Terra incognita. Sophie Diesselhorst berichtet vom Online-Zusammenspiel der "Netztheater-Experimente aus Schauspielschulen", etwa der vielbeachteten Produktion Wir sind noch einmal davongekommen der Münchner Theaterakademie August Everding, die sich das Artifizielle des Mediums spielerisch überhöht zunutze machte und vermittels kluger Discord-Regie die Videokästchen in Bewegung setzte. Schade, dass die zitierten Experimente nicht zur Nachschau verlinkt bzw. verfügbar sind. Ein Grund hierfür könnte neben der prinzipiellen Unverfügbarkeit einmalig ausgestrahlter Livestreams sein, dass auch andere Quellen knapp einen Monat nach Erscheinen der Publikation bereits der 'Transitorik' des Internets zum Opfer gefallen sind. "Virtuelle[n] Festivalauftritte[n]" widmet sich Esther Slevogt, allen voran dem Berliner Theatertreffen mit seinen streambegleitenden Sonderformaten, die mittels Chat und Videotelefonie erstmals Fachdiskurse, die sonst wenigen Eingeweihten vorbehalten sind, mitsamt den dazugehörigen Gesichtern im Internet teilten. Für das Festival Radar Ost entwarf das Künstlerduo CyberRäuber ein weboptimiertes 360-Grad-3D-Modell des Deutschen Theaters, innerhalb dessen in verschiedenen 'Räumen', inklusive der Unterbühne, Veranstaltungen im Videoformat eingesehen werden konnten. Rückgriffe auf analoge Formate – die Berliner Volksbühne entschied sich etwa für eine Magazinanmutung bei der Gestaltung ihres Festivals Postwest – können laut Slevogt durchaus inspirierend sein: Als "Transfererleichterung für das Denken immaterieller Räume" genüge mitunter eine simple Lageplanskizze, wie es schon 1995 die Association for Theatre in Higher Education der Universität Hawai'i bewies. Wenn es gilt "Übergangsschleusen von der analogen in die digitale Welt benutzer/innenfreundlich zu gestalten", votiert Slevogt ganz klar für "Pragmatismus" (S. 109). Netztheater räumt mit dem weitverbreiteten Missverständnis auf, dass das Digitale allenfalls ein Substitut für 'das Echte' sei. Es ist an der Zeit, sich von falsch verstandenen Authentizitätsdiskursen und einer Überbetonung der 'leiblichen Ko-Präsenz', die die Theaterwissenschaft – die ja damit eine ganz eigene Agenda vertrat – an das Theater herangetragen hat, zu verabschieden. Netztheater will niemandem etwas wegnehmen. Es will das tradierte Theater keineswegs abschaffen, nicht den intimen Moment der Begegnung zweier Menschen ersetzen. Es sucht vielmehr nach technologisch unterstützten Erzähl- und Interaktionsformaten, in denen solche Begegnungen ebenfalls möglich sind. Das Digitale hat unser Denken bis in seine neurologischen Strukturen hinein verändert, die Art, wie wir kommunizieren und interagieren, wie wir uns organisieren, uns in der Welt verorten. Es hat sich in unser Verhältnis zu unseren Körpern eingeschrieben, unseren Zugang zu Wissen erleichtert und auf Herrschaftswissen basierende Hierarchien abgeschafft oder zumindest verschoben. Die Fülle an Information ist nahezu unnavigierbar geworden, Fake News haben unser Vertrauen in glaubwürdige Quellen erschüttert. Das Internet hat eine Vielzahl von alternativen Wahrheiten und alternativen Realitäten geschaffen. Das ist beängstigend, zumal in Zeiten einer Pandemie. Das 18. Jahrhundert hat das Theater als Laboratorium gedacht und die Bühne als Ort, an dem Probehandeln möglich ist, um etwas über unser Menschsein zu erfahren. Auch das Netztheater ist ein solches Laboratorium, ausgestattet mit den Gerätschaften der Gegenwart, die etwa Aufschluss darüber geben können, wie unsere Wahrnehmung beschaffen ist oder wie sich Aufmerksamkeit organisieren lässt. "Theater ist die Institution mit dem ältesten Wissen über die gesellschaftliche Kraft des Spielens." (S. 15) Philosophie und Soziologie veranschlagen im Spiel die Grundlage unseres Menschseins. Es wäre fatal, die verfügbaren virtuellen Spielzeuge und technischen Gadgets jenen Player*innen zu überlassen, deren Interessen wirtschaftlich, militärisch oder politisch getrieben sind. Indem wir unser über die Jahrtausende gewachsenes Wissen über Theatralität und Inszenierungsformen einsetzen, um spielerisch zu experimentieren, erlernen wir den Umgang damit und finden heraus, welche Weltgestaltung mit ihnen möglich ist. Die Lektüre der Beiträge zeigt deutlich: Die vielfach beschworene Minimaldefinition des Theaters – A geht durch einen Raum während B zuschaut – beinhaltet keinerlei Spezifikation, dass B sich dabei im selben Zimmer befinden muss.
Forschungskonzept Das Nachhaltigkeitsleitbild der Agenda 21 und die damit verknüpften Rollenerwartungen an die Privatwirtschaft sind ein Bezugsrahmen der vorliegenden Doktorarbeit. Die Agenda 21, ein zentrales Dokument der UN-Konferenz für Umwelt und Entwicklung (UNCED 1992), und Dokumente der Folgekonferenzen weisen der Privatwirtschaft eine zentrale Rolle bei der Verwirklichung nachhaltiger Entwicklung zu: Wirtschaftsunternehmen sollen Wertschöpfung auf der Grundlage umweltverträglichen Umgangs mit natürlichen Res-sourcen erreichen. Als verantwortungsvolle Unternehmen sollen sie die Interessen ihrer Anspruchsgruppen berücksichtigen, und diese Gruppen sollen ihrerseits die Privatwirt-schaft bei der Realisierung nachhaltiger Entwicklung unterstützen. Regierungsunabhängige Umweltorganisationen erwarten von der Privatwirtschaft umwelt-verträglichen Umgang mit natürlichen Ressourcen und üben entsprechend Druck auf Unternehmen aus. Die Literatur dokumentiert jedoch Konflikte zwischen dem Rollenver-ständnis der Privatwirtschaft und den Erwartungen internationaler Organisationen und zivilgesellschaftlicher Anspruchsgruppen. Seitens der Unternehmen bestehen Zweifel, ob die Anforderungen dieser Akteure angemessen sind und inwieweit sie die ihnen zuge-wiesene Verantwortung übernehmen sollen. Auf diese Problematik bezieht sich die vor-liegende, 2006 bis 2008 durchgeführte qualitative empirische Untersuchung. Das Ziel der Forschungsarbeit war, den Wissensstand zum Umgang kleiner bis mittelgro-ßer Produktionsunternehmen mit ihren Rohstoff liefernden natürlichen Ressourcen zu erweitern - ihrer Rolle in Marktketten, ihrer Beziehungen zu Stakeholdern und die Berück-sichtigung natürlicher Ressourcen durch ihr Management. Als Beispiel ausgewählt wur-den Holzmöbel erzeugende Unternehmen (Möbelhersteller), eine mittelständische Bran-che der holzverarbeitenden Industrie. Da Möbelproduktion hohe Wertschöpfung aus Roh-holz ermöglicht, erschien dieses Beispiel aufschlussreich im Hinblick auf die allgemeine Annahme der Agenda 21, hohe ökonomische Wertschöpfung aus Holz lasse Impulse für nachhaltige Waldwirtschaft erwarten. Die Untersuchung wurde in Regionen mit unter-schiedlichen gesellschaftlichen, volkswirtschaftlichen und insbesondere forst- und holz-wirtschaftlichen Rahmenbedingungen durchgeführt. Forschungsfragen waren: Wie stellt sich "Forst" aus der Sicht von Möbelherstellern dar? In welcher Beziehung stehen Möbelhersteller zu ihren Anspruchsgruppen und wie kom-munizieren sie "Forst" gegenüber diesen Gruppen? Wie berücksichtigen Möbelhersteller "Forst" in ihren Entscheidungen? Der Verfasser stellt diese Forschungsfragen unter den Oberbegriff "Forstrationalität". Das Konstrukt "Forstrationalität" umreißt, wie Entscheidungsträger in der Holzindustrie Wald-bewirtschaftung als ihre Rohstoffbasis wahrnehmen und in Entscheidungen einbeziehen. Es umfasst alle Aspekte der Wahrnehmung und Interpretation sowie des Verhaltens holz-verarbeitender Industrieunternehmen bezüglich ihrer Rohstoffquelle "Forst". Grundlagen hierfür sind Theorien der Ressourcenabhängigkeit (Pfeffer und Salancik 1978/2003; Steimle, 2008) und des Sensemaking (Weick 1995, 2001). Informationen zur Beantwortung der Forschungsfragen wurden in drei Zentren der Möbel-industrie mit unterschiedlichen gesellschaftlichen und forstlichen Rahmenbedingungen in Brasilien und in Deutschland gewonnen: in Rio Branco do Acre (RBA) im brasilianischen Amazonasgebiet; in São Bento do Sul (SBS) in Südbrasilien und in Nordrhein-Westfalen (NRW) in Deutschland. Die drei Regionen in zwei Ländern vergleichende Feldforschung stellte besondere Anforderungen an die Forschungsmethodik. Vorgehen und Aufbau der Erhebungsinstrumente waren in den drei Regionen identisch: Grundlegendes empirisches Wissen vermittelten Inhaltsanalysen von Fachzeitschriften der Möbelwirtschaft (1) sowie die Auswertung von Sekundärinformationen (2). Telefonische Leitfadeninterviews mit Ex-perten (3) beleuchteten die Unternehmensumfelder und gaben allgemeine Hinweise zum Verhalten von Entscheidungsträgern der Möbelindustrie. Das Spektrum der "Forstrationa-litäten" der Entscheidungsträger erschloss sich im persönlichen Kontakt bei Betriebsbesu-chen; in jeder Region wurden zwei Hersteller von Massivholzmöbeln und ein Hersteller von Möbeln aus Holzwerkstoffen ausgewählt (4). Ergebnisse der Fachzeitschriftenanalyse Die quantitative Inhaltsanalyse von Fachzeitschriften diente dazu, das Gesamtspektrum der für den Wirtschaftszweig Möbelindustrie relevanten Fachthemen kennen zu lernen und die relative Bedeutung der Themenfelder "Umweltschutz" sowie "Waldressour-cen/Forstwirtschaft" einzuschätzen. Zusammenfassend konnten folgende Schlüsse gezo-gen werden: 1. Die Themenfelder "Umwelt" und "Forst" interessieren in der Möbelindustrie, erhalten aber in der Fachpresse weniger Raum als Themenfelder wie Wirtschaft, Technologie und Wettbewerb. 2. Im Themenfeld "Umwelt" sind in Deutschland wie in Brasilien Aspekte des eigenen Produktionsstandortes (innerbetrieblicher Umweltschutz) die bedeutendsten Themen der Möbelindustrie. 3. In der brasilianischen Möbelindustrie stehen "forst"-bezogene Aspekte stärker im Fo-kus als in Deutschland. Ergebnisse der regionalen Fallstudien Ergebnisse der Untersuchungsphasen (2) bis (4) stellt die Dissertation in Form von drei regionalen Fallstudien mit identischer Gliederung vor: a) Rahmenbedingungen der Möbel-hersteller b) Nicht-marktliche Anspruchsgruppen c) Lieferanten von Holzprodukten d) Mö-belabnehmer e) Interaktion der Möbelhersteller untereinander f) Forst- und Umweltmana-gement. Die regionalen Fallstudien bestätigen die Einsicht aus der Fachzeitschriftenanalyse, dass die spezifische Situation des gesamten regionalen Sektors "Forst- und Holzwirtschaft" die brasilianischen Möbelhersteller stärker prägt als die in NRW. So fanden in RBA in jünge-rer Zeit einschneidende forst- und umweltpolitische sowie institutionelle Veränderungen statt, die neue Rahmenbedingungen für alle holzbe- und -verarbeitenden Unternehmen gesetzt haben. In der Region SBS beschäftigt "Forst" die Möbelhersteller ebenso wie an-dere Zweige der Holzwirtschaft wegen eingetretener oder in der Zukunft erwarteter Holz-knappheiten sowie angesichts staatlicher Kontrolle der Verwendung von Holz aus legaler Waldnutzung. In NRW werden hingegen die einheimische Waldbewirtschaftung ebenso wie die Verarbeitung von Vorprodukten aus nichttropischen Holzarten als unproblematisch wahrgenommen, forstliche Themen erscheinen nicht als kritisch im Makroumfeld der Mö-belindustrie. In NRW wie in SBS dominiert die Auseinandersetzung mit gesamt- und bran-chenwirtschaftlichen Kerndaten, mit nationalen und internationalen Markttrends sowie mit technologischen Entwicklungen die Agenda der Möbelhersteller. Die Möbelhersteller unterliegen der Aufsicht von Umweltbehörden. Die Kontrolle des in-nerbetrieblichen Umweltschutzes, zum Teil verknüpft mit Arbeitsschutz, zeigte sich in al-len drei Regionen als Schwerpunkt der Aktivität dieser Behörden. Anders als in Deutsch-land unterliegt in Brasilien die Holzbeschaffung durch holzbe- und -verarbeitende Betriebe behördlicher Kontrolle. Die Fachverbände der Möbelindustrie in allen drei Fallstudienregionen definieren als ihre zentrale Aufgabe die Vertretung der Interessen ihrer Mitgliedsunternehmen gegenüber Politik und Gesellschaft. In beiden brasilianischen Fallstudienregionen, in denen forstbe-zogene Probleme die Möbelindustrie intensiv beschäftigen, sehen die Möbelindustriever-bände forstbezogene Angelegenheiten auch als ihre Aufgabe. In RBA agiert der Verband mit dem Ziel, die behördliche Registrierung von Möbelproduzenten des informellen Sek-tors voranzubringen und diese zur Verarbeitung von Holz aus legaler Waldnutzung zu verpflichten. In SBS haben die Möbelfachverbände in Perioden der Holzknappheit der Entwicklung der regionalen Forstwirtschaft und der Holzversorgung der Möbelindustrie große Aufmerksamkeit gewidmet; zur Zeit der Untersuchung drängten andere wirtschaftli-che Probleme die Waldthematik in den Hintergrund. Die durch die Forschungsarbeit erfassten Möbelhersteller stehen selten in direktem Kon-takt mit privaten Umweltorganisationen. Sie nehmen jedoch wahr, dass diese Organisa-tionen die Rahmenbedingungen der Möbelindustrie durch Verbraucherkampagnen, An-forderungen an die ersten Stufen der Forst-Holz-Wertschöpfungsketten und durch politi-sches Lobbying indirekt beeinflussen. Die Abhängigkeit der Möbelhersteller von Holzproduktlieferanten variiert in den drei Un-tersuchungsregionen. In NRW ist diese Abhängigkeit schwach ausgeprägt, weil die Mö-belhersteller Vorprodukte regional wie überregional problemlos einkaufen können und weil auch große Holzlieferanten Ansprüche der Möbelindustrie etwa bezüglich der Qualität, Abmessungen und Vorfertigung von Schnittholz und Holzwerkstoffen berücksichtigen. In Brasilien stellt sich die Situation anders dar. In SBS haben große bis mittelgroße Möbel-hersteller wegen der Unsicherheit der Holzversorgung und der Qualität von Vorprodukten aus Holz Schritte zur Rückwärtsintegration unternommen (eigene Sägewerke, vereinzelt eigene Bewirtschaftung von Kiefern-Plantagen) oder alternative Vorproduktquellen ge-sucht. In RBA stellt die behördlich kontrollierte Forderung, nur Holz aus "ordentlicher Waldwirtschaft" zu verarbeiten, die zu einem großen Teil staatlich geförderten Möbelher-steller des formellen Sektors vor Probleme. Denn ein hoher Anteil des entsprechenden regional verfügbaren Tropenholzes wird in Form von Holzhalbwaren in andere Regionen Brasiliens verkauft oder exportiert. Für die Möbelhersteller in RBA sind die Einkaufspreise hochwertiger Holzvorprodukte, insbesondere wenn diese aus zertifiziertem Holz erzeugt werden, deshalb in den letzten Jahren stark gestiegen, während die Möbelpreise aufgrund der Konkurrenz zahlreicher kleiner informeller Produzenten, aber auch durch das Angebot kostengünstig produzierter Serienmöbel aus Südbrasilien unter Druck stehen. Nur wenige gut organisierte Möbelhersteller in RBA scheinen bislang tragfähige Strategien zu verfol-gen, um diesem Dilemma zu begegnen. Die Beziehung von Möbelherstellern zu ihren Abnehmern ist in allen drei Fallstudienregio-nen durch Abhängigkeiten der Möbelhersteller geprägt. In RBA hängen formell registrierte Möbelhersteller stark von öffentlichen Aufträgen ab. In SBS sind Möbelhersteller von der Serienproduktion für den Exportmarkt abhängig; vielfach geben Auslandskunden die Mo-delle vor und haben großen Einfluss auf die Möbelpreisbestimmung. Beim Möbelabsatz im Inland stehen die Hersteller in NRW wie in SBS großen Einkaufsverbänden oder Kon-zernunternehmen des Möbeleinzelhandels gegenüber. In allen drei Regionen erhält die Möbelindustrie von ihren unmittelbaren Möbelabnehmern wie von Endverbrauchern nur schwache "Forst"-Signale - die Herkunft des für die angebo-tenen Möbel verarbeiteten Holzes aus "legaler" oder "nachhaltiger" Waldbewirtschaftung ist allenfalls ein nachrangiges Einkaufskriterium bzw. ist sie nur in Marktnischen relevant. Eine Ausnahme bilden die öffentlichen Auftraggeber in RBA, deren Möbelbeschaffung explizit den Aufbau nachhaltiger regionaler Forst-Holz-Wertschöpfungsketten in Acre stüt-zen soll. Experten der drei Untersuchungsregionen bezeichneten die Interaktion von Möbelherstel-lern untereinander als wenig kollegial, sondern wettbewerbsgeprägt. Unternehmen koope-rierten primär in für den Wettbewerb wenig relevanten Bereichen (z.B. gemeinsame Mes-sebesuche im Ausland). Die Initiative zu intensiverer Kooperation gehe häufig von Ver-bänden oder staatlichen Organisationen aus. Die Unternehmensbesichtigungen und Gespräche mit Experten zeigten, dass die in die Untersuchung einbezogenen Möbelhersteller nicht über ein systematisch aufgebautes Umweltmanagement verfügen. Die Beschäftigung mit Umweltproblemen orientiere sich vorwiegend an den für sie relevanten umweltrechtlichen Vorschriften. In NRW befolgen die Möbelhersteller nach Experteneinschätzung durchweg die Umweltauflagen; ihre Pro-duktionsbetriebe unterliegen strengen Kontrollen der Umweltbehörden. In Brasilien um-fassen behördliche Umweltschutzanforderungen für Möbelhersteller zusätzlich zum inner-betrieblichen Umweltschutz auch die Auflage, die Holzherkunft aus legaler Waldnutzung nachzuweisen. Bezüglich der Umsetzung der Umweltschutzanforderungen auf betriebli-cher Ebene ergab sich in beiden brasilianischen Regionen ein differenziertes Bild. Theoriebezogene Ergebnisinterpretation Der Verfasser versuchte zu verstehen, wie Unternehmer und Manager in der holzverar-beitenden Industrie das eigene Umfeld wahrnehmen und deuten, wie sie Entscheidungen treffen und begründen. Im Fokus stand die Forstrationalität von Entscheidungsträgern in möbelerzeugenden Unternehmen. Von ihm verfolgte Interpretationsansätze waren: 1. die Unterscheidung von Anlässen forstbezogenen Verhaltens der Möbelhersteller; 2. die Unterscheidung von Verhaltensbezugsebenen und Zeithorizonten; 3. die Prüfung, inwieweit das spezifische Verhalten bezüglich der für die Möbelher-stellung beanspruchten natürlichen Ressource Wald generellen Verhaltensmu-stern von Entscheidungsträgern in Produktionsunternehmen entspricht. Zu (1) Anlässe forstbezogenen Verhaltens Gefragt werden kann nach der wahrgenommenen Dringlichkeit forstbezogener Signale, die ein Möbelhersteller aus seinem Umfeld erhält: Können Anspruchsgruppen aus seiner Sicht ein bestimmtes forstbezogenes Verhalten verlangen bzw. erzwingen? Die Fallstudi-en legen den Schluss nahe, dass Möbelhersteller Einflüsse von Produktketten-externen Anspruchsgruppen wahrnehmen und reflektieren. Die Intensität wahrgenommener An-sprüche ist jedoch offenbar nur selten so hoch, dass sie Reaktionen der Möbelhersteller auslöst. In der Untersuchung erkennbar waren aber Verhaltensänderungen brasilianischer Möbelhersteller nach Einführung der DOF-Dokumentation zum Nachweis der Beschaffung von Holz aus legalen Quellen. Im Umkehrschluss lässt sich vermuten, dass Möbelherstel-ler forstbezogene Themen aus ihren Umfeldern vorwiegend als Signale wahrnehmen, die sie ihrem Selbstverständnis entsprechend individuell bewertet mit ihren Strategien ver-knüpfen, die sie aber auch ignorieren können. Die Art der für die Herstellung eines Möbelstücks verwendeten Holzvorprodukte bzw. die Materialkombination lenkt die Aufmerksamkeit von Möbelkäufern mehr oder minder stark auf den Bezug zum "Forst", wodurch auch die Forstrationalität der Möbelhersteller beein-flusst wird. In der Untersuchung ergaben sich diesbezüglich Unterschiede des Selbstver-ständnisses und der Marketingkommunikation zwischen Herstellern von Möbeln aus Holzwerkstoffen und aus Massivholz, bei den letzteren wiederum bezüglich der Möbelher-stellung aus Tropenholz oder nicht-tropischen Holzarten. Hersteller von Massivholzmö-beln stellten häufig einen Bezug ihrer Möbel zur Natur oder zum Wald her. Dabei betonten Hersteller von Tropenholzmöbeln die Individualität einzigartiger Holzarten aus artenrei-chen Naturwäldern; Hersteller von Möbeln aus nicht-tropischen Holzarten hingegen hoben die Herkunft der Möbelhölzer aus nachhaltig bewirtschafteten "nicht-tropischen" Wäldern hervor. Hersteller von Holzwerkstoffmöbeln argumentierten "ökologisch" mit den Vorteilen hoher Holzausbeute bei der Herstellung und Verarbeitung von Holzwerkstoffen, wodurch Waldressourcen geschont würden. Die brasilianischen Möbelhersteller sehen sich mit Ungewissheiten der Holzversorgung konfrontiert; sie interpretieren diese unterschiedlich, auch innerhalb der beiden Fallstudi-enregionen. In allen drei Untersuchungsregionen bekannten sich die in die Untersuchung einbezogenen Möbelhersteller zur Verarbeitung von Holz aus unbedenklichen Quellen. Sie erwarten Absatzrisiken für den Fall diesbezüglicher Zweifel ihrer Abnehmer. Gegen-wärtig sei kritisches Hinterfragen der Herkunft von Möbelhölzern seitens der Möbelab-nehmer jedoch selten und beziehe sich vorwiegend auf Tropenholz. Zu (2) Verhaltensbezugsebenen und Zeithorizonte Waldbewirtschaftung ist nur in wenigen Fällen ein eigenes Tätigkeitsfeld von Möbelher-stellern. Mit ihrem forstbezogenen Verhalten ergreifen Möbelhersteller folglich in der Re-gel nicht unmittelbar forstwirtschaftliche Maßnahmen, sondern beeinflussen diese indirekt oder reagieren auf die von anderen Akteuren gesetzten Forstthemen. Dies erfolgt zum einen durch Auswahl der für die Möbelproduktion eingesetzten Materialien und deren Be-schaffung, also durch ein direkt an die Möbelproduktion gebundenes Verhalten. Zum an-deren geschieht dies durch den Umgang und die Kommunikation mit Anspruchsgruppen im unmittelbaren Umfeld und im Makroumfeld. Materialorientiertes Verhalten und die Be-ziehungen zu Anspruchsgruppen stehen jedoch nicht isoliert nebeneinander, sondern können miteinander verknüpft sein, etwa weil bei Materialwahl-Entscheidungen das Ver-trauen zu Lieferanten und Abnehmerpräferenzen berücksichtigt werden. Mit Blick auf die Zeithorizonte der Entscheidungen von Möbelherstellern machte die Ana-lyse deutlich, dass in deren Kurzfristperspektive Forstrationalität von untergeordneter Be-deutung ist und andere Aspekte der Unternehmensumfelder im Vordergrund stehen (z.B. Holzversorgung für das aktuelle Produktionsprogramm und Wettbewerb). In der mittel- und langfristigen Zeitperspektive hingegen erhalten forstbezogene Überlegungen und Maßnahmen (wie Einsatz alternativer Holzvorprodukte oder Verwendung von Holz aus zertifizierter Waldbewirtschaftung) größeres Gewicht. Zu (3) Spiegelt Forstrationalität generelle Verhaltensmuster? Etliche der in der Forschungsarbeit registrierten Ausprägungen von Forstrationalität der Möbelhersteller lassen sich allgemeinen Verhaltensmustern von Entscheidungsträgern in Wirtschaftsunternehmen zuordnen: Legitimation: Die in die Untersuchung einbezogenen Möbelhersteller in allen drei Unter-suchungsregionen hoben hervor, ihr eigenes forstbezogenes Verhalten, insbesondere die Wahl der verarbeiteten Holzvorprodukte, sei gesetzeskonform und ökologisch unbedenk-lich. Diesen Standpunkt vertraten sie unabhängig von ihren jeweiligen Möglichkeiten, die Rohstoffquellen der beschafften Materialien zu beurteilen und zu beeinflussen. Anpassung: Die Möbelhersteller reagieren auf Anforderungen aus ihren Umfeldern, etwa auf behördliche Vorschriften und Kontrollen, Kritik von Umweltschutzverbänden, Nachfra-ge von Verbrauchern oder veränderte Wettbewerbsbedingungen. Solche Reaktionen schließen auch das forstbezogene Verhalten ein, wobei Vermeidung (zum Beispiel Ver-zicht auf die Verarbeitung von Tropenholz) ein alternatives oder komplementäres Verhal-ten sein kann. Antizipation: Unternehmen entwickeln Antizipationsstrategien, um sich auf erwartete zu-künftige Herausforderungen, Risiken und Chancen frühzeitig einzustellen. Dieses Verhal-ten zeigten Möbelhersteller in allen drei Untersuchungsregionen, etwa in ihrem Umgang mit der Forst-Holz-Produktketten-Zertifizierung oder der Erprobung neuer Holzarten und Holzwerkstoffe. Innovation: Sie ist eine Form der Umsetzung von Anpassung und Antizipation, ist aber für die Massivholz-Möbelhersteller auch eine eigenständige Verhaltensform. Zum Teil haben sie dabei Aspekte der Waldbewirtschaftung (besonders deutlich bei den Möbelherstellern in SBS, die Plantagenbewirtschaftung als neues Geschäftsfeld integriert haben) und der Weiterentwicklung ihrer Rohstoffbasis von vornherein im Blick, zum Teil ergeben sich se-kundäre Effekte für die Forstwirtschaft. Die vorliegende Untersuchung zur "Forstrationalität" holzverarbeitender Unternehmen hat gezeigt, dass Möbelhersteller Stärken und Schwächen der Waldnutzung in ihrer Standort-region wahrnehmen und forstbezogene Entscheidungen reflektiert treffen. Wie sie ent-scheiden, hängt von den Rahmenbedingungen der Industrie, dem Verhalten ihrer An-spruchsgruppen, von den spezifischen Unternehmensstrategien, auch von Wertvorstel-lungen der Eigentümer und Manager ab. Ihnen stehen bestimmte staatliche und private Anspruchsgruppen mit Erwartungen gegenüber, die dem Konzept nachhaltiger Entwick-lung der Agenda 21 entsprechen. Die Unternehmensbeispiele der Fallstudien zeigen ein-zelne Ansatzpunkte für die Verwirklichung nachhaltiger Entwicklung in waldreichen Re-gionen durch die Herstellung von Möbeln. Jedoch erscheint das gegenwärtige forstbezo-gene Verhalten der Möbelhersteller nicht umfassend nachhaltigkeitsorientiert, sondern pragmatisch selektiv abgestimmt auf die Erfordernisse, Interessen und Handlungsmög-lichkeiten der Unternehmen. Potenzial der Möbelindustrie, höhere Wertschöpfung durch immaterielle Phasen der Produktion (ihr Marketing, speziell die Produktgestaltung) zu erreichen, ist vorhanden. Auf der Grundlage neutraler Nachhaltigkeitsüberprüfung in der Holzwertschöpfungskette durch anerkannte Forstzertifizierungs-Systeme könnten von Holzmöbelherstellern durchaus stärkere Impulse für die Entwicklung und Aufrechterhal-tung nachhaltiger Forstwirtschaft ausgehen. Abschließend seien die theoretischen Erklärungsansätze Ressourcenabhängigkeit und Sensemaking angesprochen, denen in dieser Forschungsarbeit gefolgt wurde. Der Zu-sammenhang zwischen beiden ist bereits aus Pfeffer (1978) ableitbar. Steimle (2008) stellt diesen Zusammenhang explizit her, um das Nachhaltigkeitsverhalten von Unter-nehmen theoretisch zu erklären. Auch der Verfasser kombinierte beide Ansätze: Das Konzept der Ressourcenabhängigkeit war hilfreich bei der Analyse der Umfeldeinbettung der Möbelhersteller und bei der Interpretation ihrer Beziehungen zu bestimmten An-spruchsgruppen; der Sensemaking-Ansatz erleichterte es, die Umfeldwahrnehmung aus Sicht der Entscheidungsträger in der Möbelindustrie und ihr forstbezogenes Verhalten zu verstehen. ; Research concept The guideline to sustainability provided by Agenda 21, and the associated expectations of private enterprise with respect to their role in sustainability, represent a frame of reference for the study presented in this Ph.D. thesis. Agenda 21, a central document of the United Nations Conference on Climate and Development (UNCED 1992), and documents pro-duced by the following conferences attribute a central role to private enterprise in the real-isation of sustainable development. Commercial enterprises are expected to create value on the basis of an environmentally acceptable use of natural resources. Responsible en-terprises should accommodate the interests of the respective stakeholder groups, and these groups should in turn support private enterprise in the achievement of sustainable development. Non-governmental environmental organisations' expectations of private enterprise revolve around the environmentally appropriate use of natural resources and, accordingly, they exert pressure on businesses to do so. Nevertheless, the literature documents conflicts between commercial enterprise's understanding of its role and the expectations of interna-tional organisations and civil stakeholder groups. From the perspective of enterprise, doubts exist over whether the demands of these actors are reasonable and over the ex-tent to which commercial enterprise should assume the responsibility attributed to it. The objective of this study was to deepen the knowledge of the use by small and medium sized enterprises (SMEs) of the natural resources providing the raw materials necessary for their production activities – their role in market chains, their relationships with stake-holders and the consideration given to the management of natural resources. Enterprises manufacturing wood furniture were chosen for the study, as a representative example of an SME branch within the wood processing industry. As furniture production facilitates high value creation from raw wood, this example was deemed to be revealing with respect to the general assumption of Agenda 21 that high economic value creation from wood generates impulses for sustainable forestry. The investigation was carried out in regions with contrasting social, economic and especially forest and wood industry framework con-ditions. The research questions were: How do furniture manufacturers perceive 'forestry'? What is the relationship between furniture producers and the corresponding stakeholder groups, and how do they communicate 'forestry' to these groups? How do furniture producers ac-count for 'forestry' in their decisions? The author posed these questions under the overarching concept 'forest rationality.' The 'forest rationality' construct outlines how decision makers in the wood industry perceive forest management as the basis of their raw material supply, and how they account for it within decision making. It incorporates all aspects of the perception and interpretation, as well as the behaviour of wood processing enterprises with respect to the source of their raw material, 'forestry.' The basis for this is theories relating to resource dependence (Pfeffer and Salancik 1978, 2003; Steimle, 2008) and 'sensemaking' (Weick 1995, 2001). The information used to answer the research questions was obtained from three centres of the furniture industry in Brazil and in Germany, each with different social and forestry framework conditions. The three centres were in Rio Branco do Acre (RBA) in the Bra-zilian Amazon, in São Bento do Sul (SBS) in southern Brazil and in Nordrhein-Westfalen (NRW) in Germany. The comparative data collection carried out in the three regions posed particular demands in terms of the research methods. The approach chosen and the design of the data collection instruments were identical in the three regions. Funda-mental empirical knowledge was provided by means of a content analysis of furniture in-dustry journals (1) and the evaluation of secondary information (2). Guided telephone interviews with experts (3) illuminated the environments in which the enterprises operate and provided general insights into the behaviour of decision makers in the furniture in-dustry. The spectrum of forestry reasoning of the decision makers was further developed through personal contact made during visits to companies. In each region two producers of solid wood furniture and a producer of furniture from derived timber products were se-lected (4). Results of the journal analysis The quantitative content analysis of industry journals served to provide information about the overall spectrum of issues relevant for the furniture industry, and allowed for an as-sessment of the relative significance of the issues 'environmental protection' and 'forest resources/forestry.' The conclusions may be summarised as follows: 1. The issues 'environment' and 'forestry' are of interest within the furniture sector, but receive less attention in the industry press than topics such as economics, technology and competition. 2. In the furniture industry in both Germany and Brazil, the most important themes under the heading 'environment' are aspects concerning the local production site (enterprise-internal environmental protection). 3. 'Forestry'-related aspects are the focus of greater attention within the Brazilian fur-niture industry than the German. Results of the regional case studies The results of the research phases (2) to (4) are presented in the dissertation in the form of three regional case studies with an identical structure, namely a) the framework condi-tions affecting furniture manufacturers, b) non-market stakeholder groups, c) suppliers of wood products, d) furniture consumers, e) interaction between furniture manufacturers, f) forest and environmental management. The regional case studies confirmed the view provided by the analysis of the industry press that the specific situation of the entire regional 'forestry and wood industry' affects the Brazilian furniture manufacturers more so than those in NRW. In RBA there have re-cently been drastic changes in forestry and environmental policy, as well as institutional changes, which have generated new framework conditions for all wood producing and processing enterprises. In the SBS region 'forestry' occupies furniture manufacturers as much as other branches of the wood sector due to existing or expected future shortages of wood, and as a consequence of state control over the use of wood from legitimate forestry. In NRW, on the other hand, native forest management and the processing of materials derived from non-tropical tree species are considered to be unproblematic, and forestry-related themes do not appear to be critical in the macro-environment of the furni-ture industry. In NRW and in SBS the issue of core economic data for the sector as a whole, and branches within the sector, of national and international market trends and of technological developments dominate the agenda of the furniture manufacturers. The furniture manufacturers are subject to restrictions imposed by environmental authori-ties. The control of enterprise-internal environmental protection, linked in part with work safety, was identified as a focus of the activities of these authorities in all three regions. Unlike in Germany, in Brazil the sourcing of wood by wood processing enterprises is sub-ject to official control. The representative associations within the furniture industry in all three case study regions define as their central task the representation of the interests of their member organisa-tions to policy makers and society. In both Brazilian case study regions, in which forestry-related problems greatly occupy the furniture industry, the furniture industry associations also view forestry-related matters as being within their remit. In RBA the responsible as-sociation is seeking to advance the official registration of furniture manufacturers within the informal sector and to oblige them to process only wood obtained from legal sources. In SBS the furniture associations have focused considerable attention on the development of regional forestry and the supply of wood to the furniture industry in periods of wood shortage. At the time of this study, however, other economic problems had pushed the issue of forestry into the background. It was observed that the furniture producers studied as part of the research are rarely in direct contact with private environmental organisations. However, they are aware that these organisations indirectly influence the framework conditions affecting the furniture industry through consumer campaigns, by placing demands on the first links of the forest-wood value chain and through political lobbying. The dependence of the furniture producers on the suppliers of wood products varies be-tween the three study regions. This dependency is weak in NRW because the furniture manufacturers can source materials regionally and beyond without any difficulties, and because large wood suppliers take into consideration the demands of the furniture in-dustry with respect to quality, dimensions and the preparation of sawn wood and derived timber materials. This contrasts with the situation in Brazil. In SBS large to moderately large furniture manufacturers have taken a number of steps towards backward vertical integration (establishment of own sawmills, in some cases resorting to the management of pine plantations) or have sought alternative sources of pre-finished materials. The rea-sons for this are the uncertainty of the wood supply and the quality of the pre-finished wood products. In RBA the statutory requirement that only wood derived from 'legitimate sources' be used in manufacturing poses problems for the largely state-sponsored furni-ture manufacturers in the formal sector. A large proportion of the regionally available tropical wood is sold in or exported to other regions of Brazil in the form of part-wood goods. The prices paid by furniture manufacturers for high quality pre-finished wood pro-ducts, particularly those made of certified wood, have increased considerably in recent years, whereas furniture prices are under great pressure due to competition from numer-ous small, informal manufacturers and as a result of the supply of cheaply manufactured, mass produced furniture from southern Brazil. As yet, only a few well-organised furniture manufacturers in RBA appear to have adopted a strategy capable of countering this di-lemma. In all three regions the relationship between furniture manufacturers and their customers is characterised by dependencies of the furniture manufacturers. In RBA formally regis-tered furniture manufacturers are greatly dependent upon public contracts. In SBS furni-ture manufacturers are dependent upon mass production for the export market, with inter-national customers often specifying the models and exerting a considerable influence on price setting. In terms of national sales, the manufacturers in NRW and in SBS are pitted against the large purchasing associations and groups within the furniture retail industry. In all three regions the furniture industry receives only weak 'forestry' signals from its di-rect costumers and end users – that the wood used in the furniture provided is sourced from 'legal' or 'sustainable' forest management is, at best, a subordinate purchase cri-terion, or is only relevant in niches within the market. The public clients in RBA are an exception as their furniture acquisitions are explicitly intended to support the development of sustainable regional forest-wood value chains in Acre. Experts from the three research regions characterised the interaction between furniture manufacturers as competitive, with little cooperation evident. Any cooperation between the enterprises occurs primarily in those areas that are of little relevance for competition (e.g., visits to exhibitions abroad). Initiatives prompting intensive cooperation often stem from associations or governmental organisations. The visits to the enterprises in the three regions and discussions with the experts revealed that the furniture manufacturers involved in the study do not possess a systematically de-veloped system of environmental management. Consideration of environmental problems is oriented primarily towards the relevant environmental regulations. According to the ex-perts, in NRW the furniture manufacturers adhere to the rules. Their production facilities are subject to strict controls by the environmental authorities. In Brazil the statutory envi-ronmental regulations for furniture manufacturers include not only the enterprise-internal environmental protection stipulations but also the means to demonstrate that the wood used stems from legal sources. The implementation of the environmental protection re-quirements at operational level was found to be variable in the two Brazilian regions. Interpretation of the results in a theoretical context The author sought to understand how entrepreneurs and managers in the wood process-ing industry perceive and interpret their own environment; how they make and justify deci-sions. The focus was on the forestry reasoning exhibited by decision makers in furniture manufacturing enterprises. The interpretative approaches followed were: 1. The differentiation of motives for forestry-relevant behaviour displayed by furniture manufacturers; 2. The differentiation of behavioural planes of reference and time horizons; 3. The examination of the extent to which the specific behaviour with respect to the forest resource, as the principal source of the raw material used in the manufac-ture of furniture, corresponds to the general behavioural patterns of decision mak-ers in manufacturing enterprises. On (1) motives for forestry-related behaviour One might enquire as to the perceived urgency of the forestry-related signals that a furni-ture manufacturer receives from his environment: can, as far as the manufacturer is con-cerned, stakeholder groups demand or even force a certain forestry-related behaviour? The case studies suggest that furniture manufacturers perceive and take into consider-ation influences exerted by stakeholder groups external to the product chain. It would ap-pear, however, that the intensity of the perceived demands is rarely so high as to cause a reaction on the part of the manufacturers. Changes in the behaviour of Brazilian manufac-turers did become evident in the study after the introduction of the DOF documentation requiring that they be able to prove the wood they use is sourced legally. Conversely, it can be assumed that furniture manufacturers predominantly perceive forestry-related themes within their environment as signals, which they assess individually on the basis of their own beliefs and either integrate within their strategies or ignore. The type of pre-finished wood product – or combination of materials – used in the manu-facture of a piece of furniture serves to focus the attention of furniture buyers onto the relationship with 'forestry' to a greater or lesser extent, through which the forestry reason-ing of the manufacturers is also influenced. The investigation revealed differences in understanding and in marketing approaches between the manufacturers of furniture made of derived timber products and those of furniture made from solid wood; and in the latter case there was a further distinction between users of tropical and non-tropical tree spe-cies. The manufacturers of solid wood furniture often draw a link between their furniture and nature or the forest. Manufacturers of furniture made with tropical wood emphasise the individuality of unique types of wood stemming from natural forests rich in species. The manufacturers of furniture using non-tropical species, alternatively, accentuate the fact that their wood stems from sustainably managed 'non-tropical' forests. Manufacturers using derived timber products base their 'ecological' arguments on the advantages of the low levels of waste in the production and processing of derived timber products, as a re-sult of which forest resources are used more efficiently. The Brazilian furniture manufacturers are concerned by the uncertainties surrounding the supply of wood. The associated problems are perceived differently by different manufac-turers, even within the two case study regions. In all three study regions the furniture manufacturers involved in the study avowed the use of wood from legitimate sources, and expect risks to their sales if their customers were to have doubts in this regard. At present there is little critical scrutiny of the origins of the wood used in furniture by the consumer, however, and that which exists focuses predominantly on the use of tropical wood. On (2) behavioural planes of reference and time horizons In only very few cases is forest management an activity undertaken by furniture manufac-turers. The forestry-related behaviour of the furniture manufacturers does not involve di-rect participation in forest management operations, but rather in influencing these indi-rectly, or in reacting to the forest issues taken up by other actors. This is expressed in the choice of the materials used in furniture manufacture, and in their procurement; that is, through behaviour linked directly to furniture manufacture. It is also expressed in the communication with stakeholder groups situated in the enterprises' immediate surround-ings and in their macro-environment. Material-oriented behaviour and the relationship with stakeholder groups are not independent issues but may be linked; for example, because in decisions concerning material selection the manufacturer's trust in the supplier and the preferences of the consumers are taken into consideration. In terms of the time horizons of the decisions made by furniture manufacturers, the analy-sis made clear that forestry reasoning plays a subordinate role in their short term perspec-tive, and that other aspects are of greater importance for the enterprises in question (e.g., wood supply for the current production programme and competition). Forestry-related considerations and measures (e.g., the use of alternative pre-finished wood products or the use of certified wood) are afforded greater weighting in the medium to long term. On (3) whether forest rationality reflects general patterns of behaviour Many of the forms of forest rationality of the furniture manufacturers identified in the re-search can be matched to general behavioural patterns of decision makers in commercial enterprises: Legitimacy: The furniture manufacturers from all three regions involved in the study em-phasised that their own forestry-related behaviour complies with the law and is ecologi-cally sound, particularly the choice of pre-finished wood products. They adopted this posi-tion irrespective of their abilities to judge or influence the sources of the raw materials pro-cured. Adaptation: The furniture manufactures react to demands from their environment, such as statutory regulations and controls, criticism from environmental protection associations, requests from customers and altered competition conditions. Such reactions also incorpo-rate their forestry-related behaviour, with avoidance (e.g., avoiding the use of tropical wood) a possible alternative or complementary behaviour. Anticipation: Enterprises develop anticipation strategies in order to prepare in advance for expected future challenges, risks and opportunities. This behaviour was exhibited by furni-ture manufacturers in all three study areas; for example, in their manner of dealing with forest-wood product chain certification and in the testing of new wood types and derived timber products. Innovation: Innovation is a form of manifestation of adaptation and anticipation, but is also a distinct form of behaviour in the case of the manufacturers of solid wood furniture. They have, to a certain extent, aspects of forest management (particularly evident in the case of the furniture manufacturers in SBS that have integrated plantation management as a new area of operations) and the further development of their raw material base firmly in focus from the outset. There are also secondary effects for forestry. This study of the 'forest rationality' of wood processing enterprises shows that furniture manufacturers perceive the strengths and weaknesses associated with forest utilisation in their regions, and that they reflect carefully on forestry-related decisions. The decisions they make depend on the framework conditions within the industry, the behaviour of the associated stakeholder groups, the strategy of the specific enterprise and on the ideals of the owners and managers. They are confronted by the expectations of certain state and private stakeholder groups; expectations that correspond with the concept of sustainable development espoused by Agenda 21. The enterprises included in the case studies re-vealed individual starting points for the achievement of sustainable development in forest-rich regions through the production of furniture. However, the current forestry-related be-haviour of the manufacturers is not comprehensively geared towards sustainability. Rather it is pragmatically selective, tailored to the needs, interests and possible courses of action available to the respective enterprise. The potential for furniture manufacturers to achieve greater value creation in the non-material phases of the production process (marketing, and especially product design) exists. On the basis of neutral sustainability assessments in the wood value creation chain, carried out by recognised forestry certification systems, it is certainly possible for manufacturers of wood furniture to create greater impulses for the development and maintenance of sustainable forestry. Finally, to the theoretical approaches offering a potential explanation considered in the study, namely resource dependence and 'sensemaking.' The connection between the two could already be inferred from Pfeffer (1978). Steimle (2008) revealed the link between the two explicitly, in order to explain theoretically the sustainability behaviour of enter-prises. The author of this study also combined both approaches. The concept of resource dependence was helpful in the analysis of how embedded manufacturers are in their envi-ronment, and in the interpretation of their relationship with certain stakeholder groups. The 'sensemaking' approach rendered it easier to understand the perception by decision mak-ers in the industry of their business environment and their forestry-related behaviour.
Die dynamische Bevölkerungsentwicklung Ostdeutschlands seit 1990 zeigt am Beispiel der Entstehung einer Residualbevölkerung die unterschiedlichen Variationen der Selektivität von Wanderungen: Einer Bevölkerung, die aufgrund langfristig wirkender selektiven Wanderungsverluste im ländlich-peripheren Raum ein spezifisches demographisches Verhalten aufweist. Der Wanderungsverlust Ostdeutschlands mit über 2,5 Millionen Menschen hat tiefgreifende Auswirkungen auf die alters-, geschlechts- und bildungsspezifische Bevölkerungsstruktur der neuen Bundesländer hinterlassen. Auch wenn die jungen Generationen zumeist das politisch geeinte Deutschland leben, existieren mit Blick auf die vorliegenden demographischen Prozesse und Strukturen bis heute nahezu zwei deutsche Staaten. Die Entwicklungen sowie die Auswirkungen insbesondere der räumlichen Bevölkerungsbewegung wurden entsprechend dem Stand der Forschung vor dem Hintergrund der Situation Ostdeutschlands vorgestellt und die darauf aufbauenden Forschungsthesen benannt. Das bisher nur theoretische Konstrukt der Residualbevölkerung, die Interdependenz aus natürlicher und räumlicher Bevölkerungsbewegung, wurde anhand von unterschiedlichen demographischen Parametern (u. a. hohe Fertilität, hohe Mortalität, starke Wanderungsverluste, großes Frauendefizit, Überalterung) eingeordnet und damit als messbar definiert. Am Beispiel Mecklenburg-Vorpommerns konnte anschließend gezeigt werden, wie sich die Bevölkerungsstruktur des ehemals jüngsten Bundeslandes aufgrund der selektiven Migration innerhalb eines Vierteljahrhunderts in das älteste umkehrte. Um diesen Verlauf nachzuvollziehen, wurden auf Gemeindeebene die unterschiedlichen Bewegungsentwicklungen ab 1990 dargestellt: Der Rückgang der Sterblichkeit, der Wiederanstieg der Fertilität sowie der sich manifestierende Wanderungsverlust junger Frauen. Daran anschließend zeigten Strukturberechnungen, wie sowohl das Billeter-Maß als auch Geschlechterproportionen, die umfassenden Auswirkungen der Bewegungen auf den Bevölkerungsstand und dessen Struktur Mecklenburg-Vorpommerns: Einen stetigen Rückgang der Bevölkerungszahlen, ein über-proportionales Frauendefizit in jüngeren Altersjahren und eine fortlaufend beschleunigte Alterung der Bevölkerung. Vor dem Hintergrund dieser Rahmenbedingungen wurde für die Zeiträume 1990-2001 und 2002-2013 jeweils eine Clusteranalyse durchgeführt, die als Ergebnis eine Typisierung von Gemeinden hinsichtlich einer messbaren Residualbevölkerung ermöglichten. Entsprechend der Vordefinition eines solchen migrationellen Konstruktes konnte für etwa jede fünfte Gemeinde in Mecklenburg-Vorpommern solcherart demographische Bedingungen identifiziert werden. Diese Gemeinden liegen tendenziell im Binnenland und fern der Zentren – eine zentrale Verortung konnte nicht festgestellt werden. Von Gemeinde zu Gemeinde unterschieden sich die demographischen Parameter teils stark, so dass von einflussreichen lokalen (nicht betrachteten) Rahmenbedingungen ausgegangen werden muss. Dagegen konnten auch Gemeinden ohne residuale Züge identifiziert werden. Etwa jede dritte Gemeinde Mecklenburg-Vorpommerns wies keine Parameter einer Residualbevölkerung auf. Diese Regionen waren vor allem in der Nähe der Zentren und der Küste zu finden. Die verbliebenen Gemeinden zeigten nur kurzfristig oder nur im geringfügigem Maße Indizien für eine solche Bevölkerung – das betraf etwa die Hälfte aller Gemeinden im Land. Nach der gesamtgemeindlichen Analyse wurde die Bevölkerungs- und Sozialstruktur der dabei betroffenen Gemeinden Strasburg (Um.) im Landkreis Vorpommern-Greifswald und Dargun im Landkreis Mecklenburgische Seenplatte detailliert analysiert. Die Bevölkerungsentwicklung beider Betrachtungsgemeinden entsprach der vieler ostdeutscher Kleinstädte im ländlichen Raum nach der politischen Wende: Während die Gemeinden in der DDR Bevölkerungswachstum erfuhren oder zumindest gleichbleibende Bevölkerungszahlen als regionales Zentrum aufwiesen, verursachte die Abwanderung vor allem junger Menschen und ein manifestierter Sterbeüberschuss nach 1990 stetig rückläufige Zahlen. In diesen beiden Gemeinden wurden dann nicht gesamtgemeindliche Bevölkerungszahlen analysiert, sondern vielmehr die Zusammensetzung einer Gemeindebevölkerung vor dem Hintergrund ihres Migrationsstatus differenziert. Für den Zeitraum 1979-2014 wurden deshalb anhand dieses Status die Bevölkerungen beider Gemeinden in Sesshafte und Zugezogene unterteilt. Aufgrund der sowohl vorhandenen Sterbe- als auch Geburtsstatistik war es möglich, die natürliche und räumliche Bevölkerungsbewegung der insgesamt fast 22.000 Men-schen direkt herauszuarbeiten. Die sesshafte Bevölkerung repräsentiert dabei die Menschen, die am ehesten dem Typus "Residualbevölkerung" entsprechen. Nach Berechnung der Mortalitäten für unterschiedliche Zeiträume ergab sich tendenziell eine höhere Sterblichkeit bzw. geringere Lebenserwartung der Sesshaften gegenüber den Zuzüglern bei Frauen wie Männern. Wurden darüber hinaus die Zugezogenen nach Lebensdauer in den Betrachtungsgemeinden differenziert, ergab bei beiden Geschlechtern eine längere Zugehörigkeit zu den Gemeinden auch eine höhere Sterblichkeit. Damit wurde einerseits die generell höhere Mortalität des ländlich-peripheren Raums gegenüber dem urbanen Raum bestätigt. Andererseits entspricht die höhere Sterblichkeit der sesshaften gegenüber der der nichtsesshaften Bevölkerung den Vorüberlegungen zur Residualbevölkerung. Darüber hinaus wurde zusätzlich der Parameter "Bedürftigkeit" berücksichtigt. Hier konnte erwartungsgemäß für beide Betrachtungsgemeinden die höchste Sterblichkeit der von Sozial-leistungen betroffenen Menschen festgestellt werden. Je länger dabei die Bezugsdauer, umso höher war die aufgezeigte Mortalität – dies sogar zumeist vor der sesshaften Bevölkerung. Bezieher von Sozialhilfe waren im Vergleich zu Beziehern von Wohngeld am stärksten betroffen; Unterschiede bei Männern besonders stark vertreten. Die Nichtbezieher wiesen bei beiden Geschlechtern die geringste Sterblichkeit auf. Neben der Mortalität wurde als zweite Variable der natürlichen Bevölkerungsbewegung die Fertilität der beiden Bevölkerungsgruppen untersucht. Hier ergaben sich jedoch keine signifikanten Unterschiede zwischen beiden Bevölkerungsgruppen Im Bereich der Periodenfertilität wiesen Zuzügler gegenüber den Sesshaften eine erhöhte Fertilität auf. Berechnungen der Kohortenfertilität ergaben wiederrum eine leicht höhere Fertilität der Sesshaften. Auch eine detaillierte Analyse der Zuzüglerinnen offenbarte kein einheitliches Bild. Mit Blick auf die Bedürftigkeit war festzustellen, dass die Bezieherinnen eine deutlich höhere Fertilität gegenüber Nichtbezieherinnen – unabhängig von der Bezugsdauer – aufwiesen. Im Ergebnis wurde damit zwar die generell höhere Fertilität des ländlich-peripheren Raums gegenüber dem urbanen Raum bestätigt. Die entsprechenden Vorüberlegungen zur Fertilität der sesshaften gegenüber der nichtsesshaften Bevölkerung konnten aber nicht eindeutig verifiziert werden. Die gesamtheitliche Betrachtung der Gemeindeberechnungen zeigte demzufolge ein zweitgeteiltes Bild: Die Ergebnisse der Mortalität bestätigen die Annahmen zur Residualbevölkerung, die Ergebnisse der Fertilität nur in Teilen. Auch wenn die festgestellten Fertilitäts- und Morta-litätsunterschiede ortsbehaftet sind – sei es durch Umwelteinflüsse vor Ort oder die Art der Menschen zu leben: Je länger die Menschen in Regionen mit einem bestimmten Fertilitäts- und Mortalitätsniveau leben, umso stärker passen sie sich diesem an – in beide Richtungen. Vor dem Hintergrund sowohl der Typisierung aller Gemeinden als auch der beiden Betrach-tungsgemeinden ist zu konstatieren, dass beide Variablen der natürlichen Bevölkerungsbewegung nichtgleichberechtigt nebeneinander zur Erklärung einer Residualbevölkerung fungieren müssen. Unter der Beibehaltung der theoretischen Annahmen ist dementsprechend zukünftig von einer Residualbevölkerung mit Schwerpunkt einer hohen Mortalität einerseits und mit Schwerpunkt einer hohen Fertilität andererseits auszugehen. Das bisher in der Literatur benannte Frauendefizit stellt darüber hinaus nur einen Parameter unter mehreren dar und sollte bei nachfolgenden Betrachtungen nicht als alleiniger Indikator dienen. Unter Berücksichtigung der Ergebnisse sowohl aus beiden Gemeinden als auch aus den Clus-teranalysen wurde ein Modell einerseits zur Entstehung der Residualbevölkerung, andererseits zum Wirken der selektiven Migration generell erstellt. In Abhängigkeit von Alter und Geschlecht und unter Voraussetzung einer langfristig konstanten Wanderungsbewegung konnte so der theoretische Einfluss der räumlichen Bevölkerungsbewegung auf die Bevölkerungsstruktur – und damit indirekt auch auf die natürliche Bevölkerungsbewegung – vereinfacht projiziert werden. Der ostdeutsche ländlich-periphere Raum ist abschließend als Sonderform des ländlich-peripheren Raums einzuordnen. Die hier gezeigte Residualbevölkerung kann als ein Indikator für – den gesellschaftlichen, kulturellen und wirtschaftlichen Verwerfungen geschuldeten – langfristige Wanderungsverluste eingeordnet werden. Die überproportional ausgeprägte Bedürftigkeit im ländlich-peripheren Raum kann deshalb auch als ein Merkmal der Sesshaftigkeit eingeordnet werden. Insofern ist die Residualbevölkerung, vor dem Hintergrund der darüber hinaus als perspektivisch ungünstig erachteten Zukunftsaussicht, als Bevölkerungsgruppe eines Raumes abnehmender Entwicklungsstufe zu verstehen. Es ist daher ratsam, einerseits eine Verbesserung der Lebenssituation betroffener Menschen in ländlich-peripheren Räumen zu erwirken und andererseits diesen Herausforderungen raumplanerisch stärkeres Gewicht zu verleihen. Die zukünftige dahingehende Gestaltung ländlich-peripherer Räume in Ostdeutschland bedarf aus Sicht des Autors deshalb mehr an Autarkie sowie flexibler Kreativität. ; The dynamic population development in East Germany since 1990 shows the different variations in the selectivity of migration: A population that has a specific demographic behavior due to long-term selective migration losses in the rural-peripheral area. The migration loss of more than 2,5 million people in East Germany has profound effects on the age-specific, gender-specific and education-specific population structure of the new federal states. Even though the younger generations mostly live in a politically united Germany, with regard to the present demographic processes and structures, almost two German states still exist today. The developments as well as the effects of the spatial population movement in particular were presented according to the state of research against the background of the situation of East Germany and the research theses based on it were named. The so far only theoretical construct of the Residualbevölkerung, in the interdependency of natural and spatial population movement, was arranged on the basis of different demographic parameters (among the things high fertility, high mortality, strong migration losses, large woman deficit, overaging) and thus defined as measurable. The example of Mecklenburg-Vorpommern has shown afterwards explained how the population structure of the formerly youngest federal state reversed into the oldest within a quarter of a century due to selective migration. In order to follow this course, the different movements from 1990 onwards were presented at community level: The decline in mortality, the increase in fertility and the apparent continuation of migration loss in young women. Subsequently, structural calculations, such as the Billeter-Maß, as well as gender proportions, showed the overall impact of movements on the population level and its structure of Mecklenburg-Vorpommern, viz a steady decline in population, a disproportionate deficit of young women and an accelerated aging of the population. Against the backdrop of these conditions, a cluster analysis was carried out for the periods 1990-2001 and 2002-2013 respectively which allowed typologies of communities for a measurable residual population. According to the predefinition of such a migration construct, demographic conditions could be identified for about one in five communities in Mecklenburg- Vorpommern. These communities tend to be inland and remote from the centre, centralized location could not be determined. From community to community, the demographic parameters are sometimes very different, so that influential local conditions (not considered) have to be assumed. On the other hand, communities without residual traits could be identified. About one in three municipalities in Mecklenburg-Vorpommern had no parameters of a Residualbevölkerung. These regions were mainly found near the centres and the coast. The remaining municipalities showed only short-term or insignificant evidence for such a population, that was about half of all communities in the country. According to the analysis of the total community, the population and social structure of the affected communities Strasburg (Um.) in the district of Vorpommern-Greifswald and Dargun in the district of Mecklenburger Seenplatte are analyzed in detail. The population development of both viewing communities corresponded to that of many eastern German rural towns after the political change, while the communities in the GDR experienced population growth or at least a constant population as a regional centre, the emigration of mainly young people and a manifested death surplus after 1990 caused steadily declining numbers. In these two communities population numbers were not analyzed, but rather the composition of a community population was differentiated against the background of their migration status. For the period 1979-2014, therefore, this status has divided the populations of both communities into settled and immigrant communities. Based on the existing mortality and birth statistics it was possible to work out directly the natural and spatial population movement of the nearly 22.000 people. The sedentary population represents the people most closely associated with the type of " Residualbevölkerung". Calculating mortality rates for different periods, there was a tendency towards higher mortality rates and lower life expecting for sedentary people compared with the immigrants (in women as well as in men). In addition, if the immigrants were differentiated by their duration of life in the viewing communities, a longer affiliation to the communities also resulted in a higher mortality in both sexes. On the one hand, this confirmed the generally higher mortality of the rural-peripheral area compared to the urban area. On the other hand, the higher mortality of the sedentary population compared to that of the non-sedentary population corresponds to the consideration of the Residualbevölkerung. In addition, the parameter "neediness" was additionally taken into account. Here, as expected, the highest mortality rate of people affected by social benefits could be determined for both viewing communities. The longer the duration of the treatment, the higher is the mortality rate and this is even higher than that of the sedentary population. Beneficiares of social assistance were the most affected compared with beneficiares of housing assistance. Differences in men are particulary strong. The non-recipients showed the lowest mortality in both sexes. In addition to mortality, the fertility of the two populations was studied as the second variable of the natural population movement. However, there were no significant differences between the two populations. In the area of period fertility, newcomers showed increased fertility compared to the sedentary population. Calculations of cohort fertility, in turn, showed a slightly higher fertility of the sedentary population. A detailed analysis of the newcomers also revealed no uniform picture. With regard to the neediness, it was noted that the recipients had a significantly higher fertility rate vis-a`-vis non-recipients, regardless of the duration of receipt of social benefits. As a result, the generally higher fertility of the peripheral area compared to the urban area was confirmed. However, the respective considerations of fertility of the sedentary versus non-indigenous population could not be clearly verified. The holistic consideration of the municipal calculations thus showed a split picture: The results of the mortality confirm the assumptions about the Residualbevölkerung, the results of the fertility only partially. Even if the observed differences in fertility and mortality are location-dependent, whether due to environmental factors on site or the way people live: The longer people live in regions with a defined fertility and mortality level, the more they adapt to it - in both directions. The background to both the typification of all communities and the two communities of concern is that both variables of the natural population movement do not have to function equally alongside one another to explain a Residualbevölkerung. Accordingly while maintaining the theoretical assumptions, a Residualbevölkerung with a high mortality focus on the one hand and a high fertility focus on the other hand should be assumed. The women`s deficit mentioned so far in the literature also represents only one parameter among several and should not be used as a sole indicator in subsequent considerations. Taking into account the results from both municipalities and cluster analysis, a model was created on the one hand for the emergence of the Residualbevölkerung and on the other hand for act of selective migration. Depending on age and gender and assuming a long-term constant migration, the theoretical influence of the spatial population movement on the population structure and thus also indirectly on the natural population movement could be projected in a simplified manner. The eastern German rural-peripheral area is finally classified as a special form of rural-peripheral space. The Residualbevölkerung shown here can be categorized as an indicator of long-term migration losses owed to societal, cultural and economic upheavals. This disproportionately high need in the rural-peripheral area can therefore also be classified as a feature of sedentary life. In this respect, the Residualbevölkerung as seen against the background of a poor future is to be understood as the population group of a decreasing development level. It is therefore advisable, on the one hand, to improve the living conditions of affected people in rural-peripheral areas and, on the other hand, to give these challenges greater emphasis in terms of spatial planning. From the author`s point of view, the future design of rural-peripheral areas in East Germany therefore needs more self-sufficiency and flexible creativity.
In der vorliegenden Arbeit wurden Leben und Werk des Bergbauingenieurs, Unternehmers, Mäzens und Mineraliensammlers Dr. Richard Baldauf (1848-1931) untersucht und in einen wissenschaftshistorischen Zusammenhang gebracht. Eine Neubearbeitung der Biografie von Richard Baldauf (1848-1931) förderte interessante Details, besonders in Zusammenhang mit den politischen und wirtschaftlichen Umständen der damaligen Zeit, zutage. Die Bearbeitung von Mineralproben aus seiner Sammlung zeigt die Entwicklungen und Fortschritte im Wissenschaftszweig Mineralogie innerhalb der letzten 100 Jahre auf. Julius Richard Baldauf wurde am 09. März 1848 in Chemnitz geboren. Nach erfolgreichem Abschluss seines Bergbauingenieurstudiums im Jahr 1869 blieb Baldauf weiterhin als bergmännischer Kurspraktikant an der Königlich-Sächsischen Bergakademie Freiberg eingeschrieben, um den Grad eines Markscheiders zu erhalten. Es folgten Anstellungen im damals tiefsten Kohlenschacht Deutschlands "Frisch Glück" in Oelsnitz (1871-1874) und beim Hänichener Steinkohlenbauverein (1874-1876). Die böhmische Braunkohle machte der sächsischen Steinkohle gegen Ende des 19. Jahrhunderts allmählich Konkurrenz. Sie kam bereits im Jahr 1880 auf sechs Eisenbahnlinien und auf der Elbe nach Sachsen. Später breitete sich ihr Einsatz auf das gesamte Deutsche Kaiserreich aus. Diese wirtschaftliche Gunst wurde auch von Richard Baldauf erkannt. Er siedelte mit seiner Ehefrau Rosalie (geb. Rudolph, 1855-1918) und seinen Kindern nach Nordwestböhmen über, um im Braunkohlenbergbau tätig zu werden. Baldauf nahm zunächst Anstellungen als Bergverwalter in Klostergrab (Hrob) und als Bergdirektor in Ladowitz (Ledvice) an, bis es 1891 in Gemeinschaft mit seinem Schwager Hermann Eduard Rudolph (1846- ?) zur Gründung der Baldauf-Rudolphschen Braunkohlenwerke kam, die ihren Hauptsitz in Dux (Duchcov) hatten. Das Baldauf-Rudolphsche Braunkohlenwerk erwarb im Laufe der Jahre mehrere Grubenfelder, u. a. die Grube Hermann in Sobrusan (Zabrušany), Grube Richard in Brüx (Most) und die Grube Marianne in Skyritz (Skyřice). Im Jahr 1913 besaß der Betrieb insgesamt 20 Gruben im nordwestböhmischen Braunkohlenrevier. Richard Baldauf war ein fortschrittlich denkender und technisch interessierter Mensch. So wollte er bereits im Jahr 1883 moderne Abraummaschinen aus England in Böhmen einführen. Sein fortschrittliches Denken führte auch dazu, dass er mit der Grube Richard in Brüx (Most) einen wirtschaftlichen Tagebaubetrieb schuf. Dieser zählte zu den technisch modernsten Anlagen im Revier. Der Mitbegründer des Baldauf-Rudolphschen Braunkohlenwerks war der Architekt Hermann Eduard Rudolph. Er schloss sein Studium an der Kunstakademie Dresden im Jahr 1872 ab, um anschließend als Baumeister und Architekt in Teplitz (Teplice) zu wirken. Dass Hermann sehr erfolgreich war, zeigte er beim Bau der Teplitzer Synagoge, denn hier wurden seine Baupläne umgesetzt. Martin Baldauf, einziger Sohn von Richard und Rosalie Baldauf, sollte auch Bergbau in Freiberg studieren, um später die Geschäfte im väterlichen Braunkohlenwerk fortführen zu können. Er übernahm ab dem Jahr 1908 im Verwaltungsgebäude des Hermannschachts in Dux (Duchcov) die kaufmännischen Arbeiten. Durch die erfolgreiche Unternehmertätigkeit im böhmischen Braunkohlenrevier ist die Familie Baldauf zu Wohlstand gekommen. Mit diesem finanziellen Hintergrund war es Richard Baldauf möglich, ab dem Jahr 1904 eine wertvolle Mineraliensammlung aufzubauen und als Mäzen der Geowissenschaften in Sachsen hervorzutreten. Im Laufe von 25 Jahren hatte er 10 000 Mineralstufen zusammengetragen. Die in vier Teilkollektionen gegliederte Sammlung legte er nach wissenschaftlichen Gesichtspunkten an. In seinem "Öffentlichen Mineralogischen Museum", welches er auf der Geinitzstraße 5 in Dresden im Jahr 1916 eröffnete, präsentierte er unentgeltlich seine eindrucksvollen Mineralstufen. Der erfolgreiche Fortbestand des Braunkohlenunternehmens war nach dem Ersten Weltkrieg nicht mehr möglich, da nach Kriegsende eine politische Neuordnung in Europa entstand. Das führte im Jahr 1920 zwangsläufig zum Verkauf der Baldaufschen Gruben in Böhmen an die Tschechische Handelsgesellschaft. Mit dem Anteil des Erlöses aus dem Braunkohlenwerk wagte Richard Baldaufs Sohn Martin einen Neuanfang als Schokoladenfabrikant in Braunschweig, da Lebens- und Genussmittel nach dem Ersten Weltkrieg dringend benötigt wurden. Aufgrund der hohen Konkurrenz in dieser Branche, der zunehmenden Geldentwertung und eintretenden Weltwirtschaftskrise im Jahr 1929 bekam die Familie Baldauf, wie viele andere Familien auch, finanzielle Probleme. Die Fortführung des neugegründeten Unternehmens war nun nicht mehr möglich. Richard Baldauf wollte seinem Sohn aus der finanziellen Krise heraushelfen. So hegte er den Gedanken, seine wertvolle Sammlung zu verkaufen. Aus diesem Grund sind in den Jahren 1929 und 1930 zahlreiche Verkaufsverhandlungen im In- und Ausland durchgeführt worden, die aber erfolglos blieben. Der Verkauf der geschlossenen Sammlung wurde erst im Jahr 1939 durch Baldaufs Erben möglich. Im Zeitraum 1904 bis 1929 war Richard Baldauf mit dem Aufbau seiner Mineraliensammlung beschäftigt und wurde als Mäzen in Sachsen aktiv. Baldauf war vor allen in Fachkreisen für seine Großzügigkeit und seinen Einsatz als Förderer bekannt. Er ermöglichte dem Museum für Mineralogie und Geologie Dresden, dem Mineralogisch-Geologischen Institut der TH Dresden, der Bergakademie Freiberg und dem dortigen Institut für Geologie und Lagerstättenlehre die Anschaffungen wertvoller Minerale, teilweise ganzer Sammlungen sowie wissenschaftlicher Instrumente. An dieser Stelle ist die Baldauf-Stiftung in Höhe von 1 Million Mark aus dem Jahr 1920 besonders hervorzuheben. Diese Summe stammte aus dem Verkauf des Baldauf-Rudolphschen Braunkohlenwerkes und sollte der TH Dresden zu Unterstützungszwecken dienen. Im Rahmen der Dissertation wurde ein Teil der mineralogischen Sammlung von Richard Baldauf neu bearbeitet und in einen wissenschaftshistorischen Zusammenhang gestellt. Zunächst werden die Methoden zur Mineralidentifizierung in der Ära Baldauf vorgestellt sowie mineralogische Einteilungssysteme, die er für seine Sammelarbeit genutzt hat. Diskutiert wird weiterhin die heutige Systematik und Benennung von Mineralen, womit zu den Revisionsarbeiten übergeleitet wird. Im Rahmen der Dissertation wurden 25 Proben aus der Sammlung Baldauf mittels Röntgendiffraktometrie (XRD), Rasterelektronenmikroskopie (REM) gekoppelt mit einer energiedispersiven Elektronenstrahlmikroanalyse (ESMA oder EDS) und Thermoanalyse (DTA-TG-DTG) einer Revision unterzogen. Minerale, die in Baldaufs Sammelära noch völlig unbekannt waren, Fehlbestimmungen, Gemenge oder Minerale, die zuvor noch keiner Untersuchung unterzogen worden sind, konnten vollständig geklärt werden. Die aktuell ermittelten Untersuchungsergebnisse sind in 17 Fällen eindeutig, sieben Proben konnten nur teilweise geklärt werden. Für eine Mineralprobe konnte gar kein Ergebnis mit den modernen, mineralogischen Untersuchungsverfahren erzielt werden. Die Mineralproben, bei denen eine vollständige Identifizierung nicht möglich war, sollten einer nochmaligen Präparation und Untersuchung unterzogen werden. Die gründliche Aufarbeitung der gesamten Sammlung Baldauf würde mehrere Jahre in Anspruch nehmen. Die Revisionsarbeiten bieten noch sehr viel Potenzial, das von der wissenschaftlichen Gemeinschaft in Zukunft verstärkt in Kooperation genutzt werden sollte. Auch Baldaufs umfangreicher archivalischer Nachlass konnte im Rahmen der Dissertation inhaltlich nicht vollständig bearbeitet werden. Bei einer weiteren Untersuchung würden vermutlich noch mehr interessante Details hervortreten. Da im archivalischen Nachlass nur die Briefe und Rechnungen enthalten sind, die Baldauf selbst empfangen hat, ist davon auszugehen, dass sich noch weitere, von ihm verfasste Schriftstücke, in anderen Institutionen auffinden lassen. So lassen sich beispielsweise über den Verbundkatalog für Nachlässe und Autografen "Kalliope" vier Briefe von Richard Baldauf an den Münchner Mineralogen Paul Heinrich Groth in der Bayerischen Staatsbibliothek München nachweisen. Baldaufs Abschlussarbeit an der Königlich-Sächsischen Bergakademie Freiberg aus dem Jahr 1869 war im Universitätsarchiv Freiberg nicht mehr aufzufinden. Nach dem Zweiten Weltkrieg sind dort zahlreiche Akten vernichtet worden. Wenig überliefert bleiben Details zu Baldaufs Tätigkeiten im sächsischen Steinkohlenrevier (Frisch-Glück-Schacht in Oelsnitz, Hänichener Steinkohlenbauverein). Das liegt vermutlich darin begründet, dass Baldauf nur wenige Jahre dort tätig gewesen ist. Abschließend ist festzustellen, dass die Sammlung Baldauf für die Sammlungsdokumentation, für die mineralogische und wissenschaftshistorische Forschung im angegebenen Zeitraum auch in Zukunft vielfältige Forschungsansätze bietet. ; This work investigated life and work of the mining engineer, entrepreneur, patron and mineral collector Dr. Richard Baldauf (1848-1931) and brought it into a scientifically historical context. A new revision of Richard Baldauf´s biography made appear interesting details, especially concerning the political and economical conditions of his time. The examination of mineral samples of his collection shows how the scientifical branch of mineralogy has developed and improved during the last 100 years. Julius Richard Baldauf was born on 9th March 1848 in Chemnitz. After having finished successfully his studies of mining science in 1869, Baldauf remained enroled at the Mining Academy Freiberg as a mining trainee, in order to achieve the title of a mine surveyor. Afterwards he was employed from 1871 to 1874 at "Frisch Glück" at Oelsnitz, which at that time was the deepest coal mine of Germany, and at "Hänichener Steinkohlenbauverein" (1874-1876). Towards the end of the 19th century the Bohemian brown coal started becoming a rival product for the Saxon hard coal. Already in 1880, it was transported into Saxony via six railway lines and the river Elbe. Later it was used more widely, in the complete German Empire. Among others, Richard Baldauf recognised this economical chance. He moved with his wife Rosalie (née Rudolph, 1855-1918) and their children to the northwest of Bohemia to work in the brown coal mining. In the beginning Baldauf became employed as a mining administrator in Klostergrab (Hrob) and as a mining director in Ladowitz (Ledvice), until he founded with his brother-in-law, Hermann Eduard Rudolph (1846- ?), the so-called "Baldauf-Rudolphsche Braunkohlenwerke", which had its main base in Dux (Duchcov). The "Baldauf-Rudolphsches Braunkohlenwerk" bought, as the years went by, some mining fields, among them the mine Hermann at Sobrusan (Zabrusany), mine Richard at Brüx (Most) and the mine Marianne at Skyritz (Skyrice). In 1913 the company possessed all in all 20 mines in the brown coal region in the northwest of Bohemia. Richard Baldauf was a man who was interested in progress and technology. No later than in 1883 he wanted to introduce modern machines from England into Bohemia. These machines were designed to remove the mining waste. His modern manner of thinking lead also to his creating the mine Richard at Brüx (Most) as an economically-working mining factory. It was counted among the region´s most modern constructions. Co-founder of the "Baldauf-Rudolphsches Braunkohlenwerk" was the architect Hermann Eduard Rudolph. He had finished his studies at the Kunstakademie Dresden in 1872, afterwards he became constructor and architect in Teplitz (Teplice). His construction plans were made reality in the building of the Teplitz synagogue. That demonstrates impressively how successful Hermann was. Martin Baldauf, only son of Richard and Rosalie Baldauf, was encouraged to study mining at Freiberg, too, in order to succeed his father later as administrator of their coal-mining company. From 1908 on he did the economical work at the administrational building of the Hermann-shaft at Dux (Duchcov). Being successful entrepreneurs in the Bohemian brown coal mining region meant for the Baldauf family living in prosperity. This financial background helped Richard Baldauf to establish, from 1904 on, a valuable collection of minerals and to made himself known as patron of the geological sciences of Saxony. In 25 years he had collected 10 000 mineral specimens. He established his collection according to scientific aspects. It was divided into four sections. In his Public Mineralogical Museum, which he in 1916 opened in Dresden, at Geinitzstraße 5, he presented his impressive mineral specimens without demanding an entrance free. After the First World War, his brown coal mining company could no longer exist successfully, for after the war Europe was politically divided and organised differently. Therefore, the Baldauf mines in Bohemia had to be sold to the Czech Trade Company in 1920. After having been given his share of the proceeds of the brown coal mining company, Richard Baldauf´s son Martin endeavoured a new start as a chocolate entrepreneur at Braunschweig, for after the First World War food and drink were needed urgently, no matter if for every day or semi-luxury. But there was high competition in this field, money was losing its valour increasingly and in 1929 the worldwide economic crisis began. That is why the Baldauf family, like many others, started having financial problems. Now it was not possible to go on with the newly-found enterprise. Richard Baldauf wanted to help his son to emerge of the financial crisis. Therefore, he was thinking of selling his valuable collection. That is why in 1929 and 1930 many sale negotiations took place, all without success. Only in 1939 the heirs of the Baldauf family were able to sell the complete collection. Between 1904 and 1929, Richard Baldauf was establishing his mineral collection and became active in Saxony as a patron. Particularly among specialists and scientists of his field, he was famous for his generosity and his commitment as a patron. He made it possible for the Museum for Mineralogy and Geology Dresden, the Institute for Mineralogy and Geology of the TH Dresden, the Mining Academy Freiberg and its Institute for Geology and Economic Geology to acquire valourable minerals, even as whole collections, and scientific instruments. Furthermore, he sponsored the work of scientific and other assistants. In that context the Baldauf foundation has to be emphasized in particular. It was founded in 1920 with a sum of 1 million Deutschmarks. This money had been earned with the sale of the "Baldauf-Rudolphsches Braunkohlenwerk" and was designed to support the TH Dresden. In this doctoral thesis a part of Richard Baldauf´s mineralogical collection was revised and put into a scientifically historical context. First, the methods for mineral identification in the Baldauf era and mineralogical classification systems that he used for his collection work were presented. Furthermore, the systematization and nomination of minerals that are applied today are discussed. That leads to the revision work. In the doctoral thesis 25 samples from the Baldauf collection were revised, applying X-ray diffraction (XRD), scanning electron microscope (SEM), combined with an energy-dispersive microanalytical spectrometer (EDS) and thermal analysis, including a combination of differential thermal analysis (DTA), thermal gravimetric analysis (TG) and derivative thermogravimetry (DTG). So entire research could be made about minerals that in Baldauf´s times still were totally unknown and minerals that had been classified wrongly or not at all. 17 of the research results made here are definitive, seven samples could only partly be clarified. No result at all could be made for one sample, using the modern, mineralogical examination methods. Those mineral samples for which a complete examination was not possible should be prepared and examined again. To revise the whole Baldauf collection thoroughly would take some years. There is still much potential in the revision work. In the future, that should be used cooperatively even more than today by the scientific community. Baldauf´s wide archival holdings, too, could not be seen through completely in this doctoral thesis as far as its content is concerned. In a second examination probably more interesting details would come to light. Since the archival holdings only contain the letters and receipts that Baldauf himself received, it seems probable that in other institutions further papers can be found the author of which he is. Using the corporal catalogue for heritages and autographers, "Kalliope", four letters can be proven, written by Richard Baldauf to the mineralogist Paul Heinrich Groth, of Munich, of the Bavarian State Library, Munich. Baldauf´s final thesis with the Mining Academy Freiberg, from 1869, was intraceable and could not be found anymore at the University Archive at Freiberg. After the Second World War numerous files have been destroyed there. Few information could be found to details about Baldauf´s work in the Saxon hard coal region (the shaft Frisch-Glück-Schacht in Oelsnitz, the Hänichener Steinkohlenbauverein). The reason might be that Baldauf worked there for only some years. In the end it must be emphasized that it becomes evident that, in the future, too, the Baldauf collection offers numerous research opportunities: for the collection documentation and for the mineralogical and scientifically historical investigation for the said time.
Esta contribución es una versión revisada, actualizada y sustancialmente ampliada del artículo del autor publicado bajo el título «La cultura epigráfica de la Hispania romana: inscripciones, auto-representación y orden social» en las dos ediciones del volumen Hispania. El legado de Roma, editadas por M. Almagro-Gorbea y J. M. Álvarez Martínez et alii en los años 1998 y 1999. El objetivo del estudio es dar una vista general de la historia de la cultura epigráfica de los romanos en la Península Ibérica a lo largo de casi mil años, con especial atención a problemas epigráficos tratados por el autor durante más de cuarenta años, de lo que resulta que en primer lugar se traten las inscripciones de la Hispania citerior, mientras que los epígrafes de la Baetica y de la Lusitania aparecen solamente de forma colateral. En el Imperio romano se conocen más de 400.000 inscripciones latinas. Unas 25.000 de ellas proceden de la Península Ibérica, donde su cantidad aumenta continuamente por nuevos hallazgos. Sin embargo, también la revisión de inscripciones conocidas ya desde hace mucho tiempo puede ofrecer nuevos conocimientos importantes. Entre los hallazgos epigráficos más recientes se encuentran documentos de gran importancia como la lex Irnitana, el nuevo fragmento de la lex Ursonensis, la Tabula Siarensis, el Senatus consultum de Cnaeo Pisone patre o últimamente el edicto de Augusto encontrado en El Bierzo y la lex rivi Hiberiensis. Para orientarse en la gran masa de la inscripciones de Hispania está justificada una nueva edicion del volumen II del Corpus Inscriptionum Latinarum (último fascículo aparecido: CIL II2, Pars XIV, Conventus Tarraconensis, Fasc. 2, Colonia Iulia Urbs Triumphalis Tarraco, 2011). La más antigua inscripción lapidaria de la Hispania romana y de todo el Occidente romano es la inscripción dedicada a Menrva, es decir, a Minerva, en Tarraco durante la segunda guerra púnica. Son pocas, relativamente, las inscripciones hispanas pertenecientes a la época republicana, principalmente a sus últimos decenios; su concentración más importante se observa en Carthago Nova. Como consecuencia de la fundación de colonias y municipios bajo el reinado de Caesar, y en particular de Augusto, tuvo lugar un incremento notable de la cultura epigráfica de Hispania. Buenos ejemplos para el nacimiento y la difusión del epigraphic habit ofrecen, entre otras ciudades, Saguntum y Segobriga. En los fora de estos municipios, establecidos bajo Augusto, se encuentran inscripciones pavimentales con letras de bronce que fueron doradas, en consonancia con la difusión de esta nueva técnica epigráfica de la época augustea para glorificar la nueva aurea aetas; los fora y los demás edificios públicos se llenaron con inscripciones honorarias, grabadas en el pedestal de la estatuas de los emperadores, de los representantes del gobierno romano y de los miembros de las élites locales. Con frecuencia se pusieron monumentos sepulcrales, no sólo de los miembros de las capas superiores, sino también de los estratos sociales dependientes de la aristocracia, incluso de sus libertos y esclavos que, como los estratos inferiores de la sociedad romana en general, imitaban los métodos de la autorepresentación de sus dueños. La cultura epigráfica se difundió en época augustea y julio-claudia no solamente en la parte oriental de la Hispania citerior y en la Baetica, es decir, en las zonas de fuerte romanización de la Península Ibérica, sino también en el interior y en el noroeste de Hispania. En época flavia y trajanea tuvo lugar en Hispania una verdadera "explosión epigráfica«: en esta época el número de inscripciones aumentó en muchas ciudades y en sus territorios de un modo sorprendente, y aparecieron nuevos tipos de monumentos epigráficos. En Tarraco, por ejemplo, de las aproximadamente 1.600 inscripciones de la ciudad, sólo unas 100 se fechan en época republicana, augustea y julio-claudia; el resto es posterior, y la mayor parte pertenece a la época flavia y antonina; desde el reinado de Vespasiano se observa, entre otras cosas, la producción en masa de pedestales para estatuas con inscripciones honorarias, anteriormente desconocidas. Se puede hablar casi de una "revolución cultural«. El motivo para este cambio radical del epigraphic habit fue el cambio en la mentalidad de las élites y, siguiendo los comportamientos de ellas, también de grandes masas de las capas inferiores. Para Tácito, Hispania fue ya en época de Tiberio in omnes provincias exemplum; con la proclamación de Galba como emperador se cumplió la antigua profecía de que un día Hispania presentaría al dominus rerum; la extensión del ius Latii a todas las comunidades de Hispania por Vespasiano significó que el país llegó a ser una región casi como Italia; y el ascenso de muchos hispanos en el orden senatorial y con Trajano y Adriano hasta el poder supremo produjo en las élites hispánicas la sensación de que eran verdaderos romanos. Las inscripciones tenían que expresar su romanidad, su poder y su esplendor – un comportamiento que dio motivo también a muchos estratos inferiores para imitar el epigraphic habit de las élites según sus propias posibilidades. Sin embargo, desde mediados del siglo II la representación epigráfica de las élites sociales empezó a cesar. Desde la época de Marco Aurelio y Comodo, la costumbre de erigir monumentos honorarios para los miembros de las capas superiores acabó casi de forma general, y en muchas ciudades, entre ellas centros urbanos con un patrimonio epigráfico considerable en épocas precedentes y con una estructura social tan diferente como, por ejemplo, Saguntum, Segobriga o Segovia, el epigraphic habit desde finales del siglo II prácticamente desapareció. En una ciudad con una tradición epigráfica tan grandiosa como Tarraco, en el siglo III sólo muestra una continuidad la cultura epigráfica sepulcral. Por cierto, en los siglos III y IV los emperadores también recibieron obligatoriamente estatuas honorarias con inscripciones en su pedestal, pero desde mediados del siglo III estos pedestales fueron, no solamente en Tarraco, monumentos anteriores reutilizados (como evidentemente también las estatuas). El retroceso general del epigraphic habit en una ciudad anteriormente tan rica como Carthago Nova, antes que en otras ciudades, se explica por una parte por las grandes dificultades económicas que afectaron a muchas ciudades hispanas ya a mediados del siglo II, pero por otra parte también por el cambio de la mentalidad de las élites, que perdieron su interés en la autorepresentación con monumentos caros y que presentaban su rango social sobre todo en manifestaciones públicas. En algunas ciudades hispánicas la cultura epigráfica continuó también en época tardoimperial como una cultura epigráfica cristiana. El nucleo principal de la epigrafía cristiana en la Península ibérica fue Tarraco, con unas 140 inscripciones, no sólo en los siglos IV y V, sino también bajo el dominio visigodo hasta la invasión árabe a comienzos del siglo VIII. Las inscripciones cristianas, incluso las visigodas, casi sin excepción funerarias, conservaron todavía elementos de la tradición epigráfica anterior y, con ésta, de la cultura romana, pero su objetivo principal fue expresar la fe cristiana. ; This contribution is a revised, updated and considerably expanded version of the author's article published under the title «La cultura epigráfica de la Hispania romana: inscripciones, auto-representación y orden social» [«The epigraphic culture of Roman Hispania: inscriptions, self-representation and social order»] in the two editions of the volume Hispania. El legado de Roma, [Hispania. The legacy of Rome] edited by M. Almagro-Gorbea and J. M. Álvarez Martínez et alii in 1998 and 1999. The objective of the study is to give a general overview of the history of the epigraphic culture of the Romans in the Iberian Peninsula over almost a thousand years, with special reference to epigraphic problems that the author has been studying for more than forty years, which show first of all that the inscriptions relate to Hispania citerior, while epigraphs appear in Baetica and Lusitania only incidentally. More than 400,000 inscriptions are attributed to the Roman Empire; some 25,000 of them come from the Iberian Peninsula, where the number is continually growing as a result of new finds. However, reviewing inscriptions that have been known for a long time can also yield important new information. Amongst the most recent epigraphic finds are documents of major importance such as the lex Irnitana, the new fragment of the lex Ursonensis, the Tabula Siarensis, the Senatus consultum de Cnaeo Pisone patre and recently the edict by Augustus found in El Bierzo and the lex rivi Hiberiensis. A new edition of volume II of the Corpus Inscriptionum Latinarum is justified to classify the vast number of inscriptions in Hispania (the last supplement to appear is: CIL II2, Pars XIV, Conventus Tarraconensis, Fasc. 2, Colonia Iulia Urbs Triumphalis Tarraco, 2011). The oldest lapidary inscription from Roman Hispania and the whole of the Roman West is the inscription dedicated to Menrva, i.e., to Minerva, in Tarraco during the second Punic war. There are relatively few Hispanic inscriptions belonging to the republican era, and those that are known belong mainly to its final decades; the most important concentration is from Carthago Nova. As a result of the foundation of colonies and municipia under the reign of Caesar, and more particularly that of Augustus, the epigraphic culture in Hispania increased considerably. Good examples showing the origin and extension of the epigraphic habit can be seen in Saguntum and Segobriga, amongst other cities. In the fora of these municipia, established under Augustus, there are pavement inscriptions with gilded bronze lettering. They reflect the spread of this new epigraphic technique developed in the Augustan period for glorifying the new aurea aetas; the fora and the other public buildings were filled with honorary inscriptions, carved in the pedestals of statues of emperors, representatives of the Roman government and members of the local elites. Tomb monuments were frequently erected, not just for the members of the upper echelons, but also for members of the social strata dependent on the aristocracy, including their freedmen and slaves who, like the lower classes of Roman society in general, imitated their master's methods of self-representation. The epigraphic culture spread in the Augustan and Julio-Claudian period not only in the eastern part of Hispania citerior and Baetica, i.e. in heavily Romanised parts of the Iberian Peninsula, but also in the interior and the northwest of Hispania. In the Flavian and Trajanic period a real «epigraphic explosion» took place in Hispania: in this period there was a surprising increase in the number of inscriptions in many cities and their territories, and new types of epigraphic monuments appeared. In Tarraco, for example, only 100 of the approximately 1600 inscriptions in the city date to the Republican, Augustan and Julio-Claudian period; the rest are later, and most belong to the Flavian and Antonine period; from Vespasian's reign onwards we can see, amongst other things, the mass production of pedestals for statues with honorary inscriptions, which was not previously seen. It could almost be called a «cultural revolution». The reason for this radical change in the epigraphic habit was the changing mentality of the elites and that of the great masses of the lower ranks who emulated them. For Tacitus, Hispania was already in omnes provincias exemplum in the time of Tiberius; when Galba was declared emperor the ancient prophecy that one day Hispania would represent the dominus rerum was fulfilled; Vespasian's extension of the ius Latii to all the communities of Hispania meant that the country became a region almost like Italy; and the rise of many Hispanics to the senatorial order and, in the case of Trajan and Hadrian, even becoming emperor, gave the Hispanic elites the impression that they were true Romans. Inscriptions had to express their 'Romanness', their power and their splendour – conduct that also encouraged the lower classes to imitate the epigraphic habit of the elites as far as they could. However, from the mid-second century onwards the epigraphic representation of social elites declined. From the time of Marcus Aurelius and Commodus the custom of erecting honorary monuments for members of the upper echelons ceased almost entirely and from the end of the second century the epigraphic habit practically disappeared from many cities, including towns such as Saguntum, Segobriga and Segovia with very different social structures that had previously had a considerable epigraphic heritage. By the third century Tarraco, a city that had had an impressive epigraphic tradition, produced only tomb inscriptions. It is true that in the third and fourth centuries the obligatory honorary statues with inscriptions on their pedestals were dedicated to emperors, but from the mid-third century onwards these pedestals come – not only in Tarraco – from previous monuments that were reused (as the statues evidently were too). The general decline of the epigraphic habit in a city such as Carthago Nova, which had once been so rich, even before it fell out of favour in other cities, is explained on one hand by the major economic difficulties already affecting many Hispanic cities by the mid-second century, and on the other by the changing mentality of the elites, who lost interest in depicting themselves with expensive monuments and instead displayed their social rank mainly by funding public spectacles. In some Hispanic cities the epigraphic culture endured into the late imperial era as a Christian epigraphic culture. The main focal point of Christian epigraphy in the Iberian Peninsula was Tarraco, with about 140 inscriptions, not only in the fourth and fifth centuries, but also under Visigoth rule before the Arab invasion at the beginning of the eighth century. Christian inscriptions, including those of the Visigoths, were almost without exception funerary and still preserved elements of the earlier epigraphic tradition and, with it, Roman culture, but its main intention was to express the Christian faith.
Overview and introduction "Which organizational forms produce science? Expansion, diversity, and cooperation in Germany's higher education and science system embedded within the global context, 1900-2010". Already the title of my dissertation manifests an approach that examines the topic of the development of scientific productivity in the German higher education and science landscape from different perspectives: levels, dimensions, and an extensive timeframe. Deriving from and contributing to the international research project "Science Productivity, Higher Education, Research and Development, and the Knowledge Society" (SPHERE), my research focuses on the investigation of the influence of higher education development and science capacity-building on scientific knowledge production, globally, comparatively, and considerable depth for Germany, a key science producer for well over a century. Focusing mainly on the different structures and institutional settings of the German higher education and science system, the dissertations shows how these affected and contributed to the long-term development of scientific productivity worldwide. The historical, comparative, and in-depth analyses are especially important in light of advancing globalization and internationalization of science, stronger networks of scientists worldwide, and the emergence of the "knowledge society". The research design combines macro- and meso-level analyses: the institutionalized and organizational settings in which science is produced. Since information about single authors was limited in availability, extensive micro-level analyses were not possible here, yet the research articles analyzed were all written and published by individuals working in organizations, which are in the center of analysis here. By reference to the dimensions expansion, diversity, and cooperation, I elaborated the frame of my investigation, and sorted my research questions, including country, organizational field and form, and organizational levels. The structure of this work (see outline) addresses these themes and the observed timeframe spans the years from 1900 to 2010 – more than a century (see section 1.2). My main goal was to investigate how and why scientists publish their research results in peer-reviewed journal articles. The point is to emphasize the importance of scientific findings/discoveries, because non-published results are non-existent for the scientific community. From the ways and in which formats scientists publish their work, we can deduce how science is organized (within and across disciplines). My dissertation analyzes publications in peer-reviewed journals, because they are the most important format – alongside patents in applied fields – to disseminate new knowledge in science, technology, engineering, mathematics, and health (hereafter STEM+ fields). Articles not only record new knowledge, but also contribute to the reputation of researchers and their organizations. Journal publications in reputable journals with peer-review have become the "gold standard" measure of scientific productivity. Within the last several decades, the scientization of many dimensions of societal life proceeded, and the generation of new knowledge increasingly became the focus of political, economic, and social interests – and research policymaking. Therefore, it is important to identify the institutionalized settings (organizations/organizational forms) in which science can best be produced. Here, the diverse types of organizations that produce science – mainly universities, research institutes, companies, government agencies and hospitals – were identified and differences and similarities of these organizational forms were analyzed on the basis of their character, goals, tasks, and the kinds of research their members produce. In a first step, I show why I structured my work at the interface of higher education research, science studies, and bibliometrics (see chapters 2 and 5). Analyzing publications is still the key task of bibliometrics, but the results are used by many other actors as well: higher education managers, politicians, and scientists themselves to make claims about the quality of science, to compare each other, or to influence the structure, organization, and output of the higher education and science system. While it is difficult to make direct statements about the quality of research on the basis of simply counting the number of research articles a scientist publishes, the quality of journals is used as a proxy to compare across disciplines. To measure quality, other parameters are necessary. Thus, here statements focus on the quantity of science produced, not on the intrinsic quality of the analyzed research articles, the specific research achievements of individual scholars, organizations or organizational forms, or even countries. Nevertheless, output indicators elaborated here definitely show the huge expansion of scientific production and productivity, the stability of the research university over time as the most important science producer in Germany, but also rising differentiation and diversification of the organizational forms contributing to overall scientific output. Furthermore, the start of a considerable and on-going rise in national and international collaborations can be dated to the early 1990s. The chapter about the multidisciplinary context (see chapter 2) discusses the relationship between higher education research and science studies in Germany as well as the special position of scientific knowledge in comparison to other forms of knowledge. Scientific knowledge is generated, distributed, and consumed by the scientific community. To get an overview about the most important studies in the field, and to contextualize my work within the already existing empirical studies, I describe the current state of research in chapter 3. Research questions Section 1.2 provides a detailed description of my research questions: Which organizational forms produce science? 1. How has worldwide and European scientific productivity developed between 1900 and 2010 in comparison? 2. How has the German higher education and science system been embedded in the global developments of higher education and science over time? 3. How has scientific productivity in Germany developed between 1900 and 2010? 4. Among all science-producing organizational forms, what do the key organizational forms contribute to scientific productivity? 5. Which organizational forms provide the best conditions for scientific productivity? 6. Which single organizations produce the most research in Germany? 7. What is the impact of increasing internationalization of research on national and international cooperation, measured in publications in scientific journals? Theoretical framework Theoretically (see chapter 4), I apply a neo-institutional (NI) framework to explore and explain both the tremendous expansion of higher education and science across the world and considerable differences across time and space in the institutional settings, organizational forms, and organizations that produce scientific research in Germany. Sociological NI focuses on understanding institutions as important in guiding social action and shaping processes of social development. Such an approach emphasizes the development, functioning, and principles of institutions. Milestones in NI describe the nexus of organization and society supposing that organizational structures express myths and reflect ideals institutionalized in their environment. While capturing, copying, and asserting these, structural similarity (institutional isomorphism) between organizations in society will be established. The concept of "organizational field" emphasizes relationships between organizations within an environment. Organizational fields (communities) consist of all relevant organizations. In section 4.1.2 I discuss the differences between institutions and organizations and the difficulty of a distinction of the terms, especially in German-speaking sociology, which does not distinguish clearly between these terms. Fundamentally, NI approaches differ in the dimensions or pillars and levels of analysis they privilege (see figure 5, p. 80), but they share fundamental principles and the theoretical framework. Thus NI is particularly suitable for a multi-level analysis of scientific productivity across time and space. The historical development of the German higher education and science system must analyzed considering also global developments, because on the one hand it had an enormous impact on the development of other systems worldwide, and, on the other hand, global trends affect the on-going institutionalization and organization(s) of science in Germany. Intersectoral and international cooperation is growing and becoming increasingly important, leading to diverse networks within and between higher education and science systems worldwide. The classical, national case study is hardly longer possible, because macro units like countries are highly interdependent, embedded in global, regional and local relationships, such that borders between the global and the national dimension are increasingly blurred. Nevertheless, countries are units with clearly defined boundaries and structures, thus they can be handled as units to compare. The theoretical perspectives and different levels of analysis addressed here are displayed in Figure 5. I apply the "world polity" approach as a broader lense with which to make sense of the truly global arena of higher education and science (macro level). The focus of this perspective is on global and international structures and processes, which developed over time. Through this perspective, I explore global diffusion and formal structures of formal principles and practical applications. Combining historical and sociological institutionalism helps to focus on developments and processes over time on the meso level, to explain how institutions have developed and change(d). The concepts of "critical junctures" and path dependencies are useful to explain these processes over time. To describe the transformation of knowledge production over the entire twentieth century, and to analyze different organizational forms that produce science in Germany, two prevalent theoretical concepts are discussed: Mode 1 versus Mode 2 science, and the Triple-Helix model to describe the relationship between science, industry and state. In "The New Production of Knowledge" Michael Gibbons and his colleagues describe the transformation of knowledge from an academic, disciplinary, and autonomous – "traditional" – organization of science (Mode 1) with a focus on universities as the key organizational form, to a more applied, transdisciplinary, diverse, and reflexive organization of science (Mode 2) that features a more diverse organization of science, relying on a broader set of organizations producing knowledge. Within the literature, debates center on whether this new model has replaced the old, and which of these models best describes the contemporary organization of science (here: the STEM+ fields). In turn, the Triple-Helix model preserves the historical importance of the universities. This approach assumes that future innovations emerge from a relationship between universities (production of new knowledge), industry (generation of wealth), and state (control). Data and methods In these analyses, only peer reviewed journal publications were used – as the best indicator for measuring the most legitimated, authoritative produced science. This focus enabled an investigation of publications in-depth and over a 110 year timeframe. Research articles in the most reputable, peer-reviewed, and internationally reputable journals are the gold standard of scientific output in STEM+. The data I used is based on a stratified representative sample of published research articles in journals in STEM+-fields. My measure relies on the key global source for such data, the raw data from Thomson Reuters' Web of Science Science Citation Index Expanded (SCIE) (the other global database is Elsevier's Scopus, which also indexes tens of thousands of journals), which was extensively recoded. Methodologically, my approach is based on a combination of comparative institutional analysis across selected countries and historically of the German higher education and science system, and the systematic global evaluation of bibliometric publication data (see chapter 6). The SCIE includes more than 90 million entries (all types of research), mainly from STEM+-fields. I focus on original research articles, because this type of publication contains certified new knowledge. The SPHERE dataset covers published research articles from 1900 to 2010. From 1900 to 1970, we selected data in 5-year-steps in the form of a stratified representative sample. From 1975 onwards full data is available for every year. Depending on the research question, either five or ten-year steps were analyzed. A detailed description of the sampling and weighting of the data can be found in chapter 6. In consideration of the criteria above, I analyzed 17,568 different journals (42,963 journals were included into the database if we count the same journals in different years), and a total of 5,089,233 research articles. To prepare the data for this research, it had to be extensively cleaned and coded. Very often our international research team found missing information on the country level and/or on the level of organizations/organizational forms. From June 2013 to December 2015, research in the archives of university libraries was necessary to manually add missing information, particularly organization location and author affiliations. In the field of bibliometrics, we find different methods to count publications. In this work, I mainly apply the "whole count" approach (see table 1, p. 126). This decision is based on the assumption that every author, organization, or country contributed equally to a publication. An overestimation of publications can't be precluded, because research articles are counted multiple times, if a paper is produced in co-authorship, which has been rising worldwide over the past several decades. The absolute number of publications (worldwide, Europe, Germany) is based on a simple counting of research articles (without duplicates, in cases of co-authored articles). Summary of the most important results The empirical part of my work is divided into three parts. In the following sections, I will present the most important findings. The global picture – higher education and science systems in comparison The central question of my research project was "which organizational forms produce science"? For a better understanding and classification of the results of my case study, I embedded the German higher education and science system into the European and global context. I answered the questions "how did the worldwide and European scientific productivity developed between 1900 and 2010 in comparison", and "how was/is the German higher education and science system embedded in global developments of higher education and science over time" as follows: First, I show that the worldwide scientific growth followed a pure exponential curve between 1900 and 2010 (see figures 3 and 10; pp. 50, 147) – and we can assume that this strong upward trend continues today. The massive expansion of scientific production had and still has a tremendous influence on societal developments, beyond simply economic and technical developments, but rather transforming society. I show that higher education and science systems worldwide exhibit communalities, which have led to similar developments and expansion of scientific productivity. The comparison of important European countries (Germany in comparison with Great Britain, France, Belgium and Luxembourg) uncovered the contribution of the development and spread of modern research universities and the extraordinary and continued rise in publication output (see section 7.2; Powell, Dusdal 2016, 2017a, 2017b in press). Within the global field of science, three geographical centers of scientific productivity have emerged over the twentieth century: Europe, North America, and Asia. Their relative importance fluctuates over time, but today all three centers continue to be the key regions in the production of scientific research in STEM+ journals. Especially in Asia, the growth rates have risen massively in recent years (Powell et al. 2017 in press). Second, I investigated that all countries worldwide invest more into research and development (R&D) (figure 9, p. 140). These investments have a clear impact on the scientific productivity of nations, yet there are important differences between countries in absolute production and productivity rates. Alongside direct investments in R&D or the application of patents in STEM+-fields that influence the expansion of science, the capacity for producing more knowledge fundamentally depends on rising student enrolments, a growing number of researchers, the widening of research activities into various arenas of society, the development of products, and the (re-)foundation of universities (Powell, Baker, Fernandez 2017 in press). As part of the higher education expansion and massification during the 1960s and 70s, the numbers of researchers and students rose tremendously. The growth of scientific publications thus results from the on-going institutionalization of higher education and science systems worldwide. The growth of publications is also explained by the steady growth in the number of researchers working within these growing – and increasingly interconnected – systems. Third, I could reject the argument of Derek J. de Solla Price that the pure exponential growth of scientific literature has to flatten or would slow-down several decades after the advent of "big science" (see paragraph 2.4; figure 4 and 10; p. 53, 147). Although radical historical, political, economical, and technical events (see figure 11, p. 150) led to punctual short-term decreases in publication outputs, the long-term development of universities and other organizational forms producing science led to sustained growth of scientific publications, with the numbers of publications rising unchecked over the long twentieth century. In 2010, the worldwide scientific productivity in leading STEM+ journals was about one million articles annually. Fourth, I could show that the absolute numbers have to be put into perspective and standardized in relation to the investments in R&D, the size of the higher education and science systems, the number of inhabitants (see figure 12, p. 159), and the number of researchers (table 3, p. 162; figure 13, p. 164). The initial expansion of scientific publications in STEM+-fields is based on a general growth of higher education and science systems. The different institutional settings and organizational forms that produce science have an impact on scientific productivity. The selected country case studies – Germany, Great Britain, France, Belgium and Luxembourg – demonstrate that systems with strong research universities are highly productive; they seem to provide conditions necessary for science. As a result, not only the number and quality of researchers is important, but also the institutional and organizational settings in which they are employed. Fifth, in international comparison, Germany continues to contribute significantly to scientific productivity in STEM+ fields. With an annual growth rate of 3.35%, Germany follows the United States and Japan. In 2014, German governments invested €84.5 billion in R&D – 2.9% of overall GDP. The EU-target of 3% by 2020 was barely missed. In 2010, Germany produced 55,009 research articles (see table A5). In comparison to Great Britain, France, Belgium and Luxemburg, Germany still leads in scientific output in Europe –comparing just the absolute numbers. The size of the country itself and the institutionalization of the higher education and science systems influence publication outputs, of course, with these absolute numbers in relation to other key indicators showing a different picture. Standardized by the number of inhabitants, Germany published less articles per capita than Belgium and Great Britain. The number of researchers amounted to 327,997 (FTE) in 2010. The ratio of inhabitants to scientists was 1,000:4. Among these countries studied in-depth, Luxembourg and Great Britain had more researchers per capita than did Germany. The interplay of the organizational forms of science in Germany between 1900 and 2010 On the basis of the analysis of the global and European contexts, and development of worldwide scientific productivity over time in chapter 7, I started the in-depth case study of Germany. Bridging this overview and the following in-depth analyses is a chapter on the institutionalization of the German higher education and science system (see chapter 8). Here, I described the most important institutions and organizations and the organizational field – universities, extra-university research institutes and universities of applied sciences. Furthermore, I discussed the differences between West and East Germany during their division (1945–1990). Summarizing the most important results shows that the development of publications in Germany follows global and European trends (on a lower scale) (see figure 16, p. 208). Over time, Germany experienced pure exponential growth of scientific publications and a rising diversity of organizational forms that contribute to scientific productivity (see sections 9.1 and 9.3). I answered the following three research questions: "how has the scientific productivity in Germany developed between 1900 and 2010", "among all science producing organizational forms, what do the key organizational forms contribute to scientific productivity", "which organizational forms provide the best conditions for scientific productivity", and "which single organizations are the most research intense in Germany"? First, the growth curve of scientific publications in Germany turns out as expected – it shows pure exponential graph, comparable with the worldwide and European development of scientific productivity between 1900 and 2010. Here, too, cataclysmic events such as the two world wars and the Great Depression as well as reunification had only short-term (negative) impact (figure 11, p. 150) on scientific productivity, without even a medium-term slow-down or flattening of the curve. By 2010, the total number of publications in STEM+ fields by researchers in German organizations topped 55,000 in one year alone. Second, a detailed examination and comparison of the development of scientific productivity in West Germany and East Germany between 1950 and 1990 showed that the growth rate of Germany (altogether) was based mainly on steady growth of scientific publications in West Germany (see figure 17, p. 211). The growth curve of the former GDR was quite flat and proceeded on a very low level. As a result, I conclude that the GDR's higher education and science system, based on its academy model, did not provide conditions for scientific productivity as optimally as did the BRD. Third, a detailed analysis of the "key classical" organizational forms of science – universities and extra-university research institutes – show that universities were and are the main producers of scientific publications in STEM+ from 1975 to 2010 (see figure 18, p. 217). On average, university-based researchers produced 60% of all articles and defended their status against other organizational forms, which leads to the rejection of the Mode 2 hypothesis. Non-university publications reached an average of 40%. But that does not mean that other organizational forms were not producing science as well. The percentage share of articles is ultrastable and shows only marginal variations. The thesis that the proportion of university publications should decrease over time can be rejected for the period from 1975 to 2010. This suggests that scientific productivity of universities is actually rising, since despite decreasing financial support (R&D) in favor of extra-university research institutes, the universities produced more research articles with less resources over time. Fourth, although not only scientists within universities and research institutes publish their research in scientific journals, jointly these organizational forms have produced more than three-quarters of all research articles since 1980. Already in the earlier years, they produced a large number of scientific articles. Other organizational forms also generate scientific knowledge (for an extensive description of the organizational form matrix, see table 4, pp. 222f.). Especially scientists in firms, government agencies, and hospitals publish articles in peer-reviewed journals in STEM+ (see figures 19 and 20; pp. 220, 246). Indeed, the universities have been the driving force of scientific productivity for more than a century. With their specific orientation to basic research and their linkage of research and teaching, they provide conditions that facilitate the production of science. Universities are among the oldest institutions with a high degree of institutionalization. All other organizational forms (academies, associations, infrastructures, laboratories, military, museums and non-university education) were identified in the dataset played only a minor role and were summarized in the category "further types". Fifth, the analysis of the ten most research-intensive single organizations in Germany in the year 2010 confirmed the results. Only universities and institutes were part of this group. A summary of publications of single institutes under their umbrella organizations shows that the institutes of the Max Planck Society and of the Helmholtz Association are the leading science producers in Germany, outpacing the scientific productivity of universities, but only when aggregating the contributions of dozens of individual institutes (see table 5, p. 259f). An analysis of single institutes shows that these research institutes cannot compete with universities, because of their size and the number of researchers. The Charite – Universitätsmedizin Berlin, a hybrid organization, is another leading science producer in Germany. National and international cooperation of scientific research Finally, increasing internationalization of research has impacted on national and international cooperation. leading to collaboratively-written publications in scientific journals. Through advancing globalization, national and international scientific cooperation increased in volume and importance. International cooperation in STEM+ is facilitated by the reputation of the research organization and of the co-authors, higher visibility within the scientific community and more possibilities for interdisciplinary research as well as better or more specialized facilities. Today, more than a third of all research articles worldwide are produced in scientific collaboration; only around a quarter are single-authored articles. In contrast to Humboldt's principle "in Einsamkeit und Freiheit" (in loneliness and freedom), research is no longer done by one scientist, but is much more likely the result of collaboration. Research networks are increasingly important, and researchers share their common interests on a research question, publishing their results in joint publications. Researchers, organizations, and indeed countries differ in the ways they organize their research and thus how they enable research and collaboration. This depends on location, size, higher education and science system, the organizational field and organizations. Here, varying patterns of scientific cooperation were presented, showing a massive increase in scientific collaboration in (inter)national co-authorships over time. Until the 1990s, researchers in all investigated countries (France, Germany, Great Britain, USA, Japan, China, Belgium, Luxembourg) published their research articles mainly as single-authored papers. Only since the 1990s have co- and multi-authored publications risen (considerably): In 2000, only a third of all publications were published by one author. In 2010, the proportion reached its lowest level with only one-fifth of all papers single-authored (see table 6, pp. 279f). Countries differ considerably in their amount of collaboratively-written research articles. References Powell, J. J. W. & Dusdal, J. (2016). Europe's Center of Science: Science Productivity in Belgium, France, Germany, and Luxembourg. EuropeNow, 1(1). http://www.europenowjournal.org/2016/11/30/europes-center-of-science-science-productivity-in-belgium-france-germany-and-luxembourg/. Last access: 13.12.2016. Powell, J. J. W. & Dusdal, J. (2017a): Measuring Research Organizations' Contributions to Science Productivity in Science, Technology, Engineering and Math in Germany, France, Belgium, and Luxembourg. Minerva, (). Online first. DOI:10.1007/s11024-017-9327-z. Powell, J. J. W. & Dusdal, J. (2017b in press). The European Center of Science Productivity: Research Universities and Institutes in France, Germany, and the United Kingdom. IN Powell, J. J. W., Baker, D. P. & Fernandez, F. (Hg.) The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing. Powell, J. J. W., Baker, D. P. & Fernandez, F. (2017 in press). The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing. Powell, J. J. W., Fernandez, F., Crist, J. T., Dusdal, J., Zhang, L. & Baker, D. P. (2017 in press). The Worldwide Triumph of the Research University and Globalizing Science. IN Powell, J. W., Baker, D. P. & Fernandez, F. (Hg.) The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing. ; Überblick und Einleitung Bereits der Titel meiner Dissertation "Welche Organisationsformen produzieren Wissenschaft? Expansion, Vielfalt und Kooperation im deutschen Hochschul- und Wissenschaftssystem im globalen Kontext, 1900-2010" verspricht, dass sich dem Thema der Entwicklung wissenschaftlicher Produktivität in Deutschland aus verschiedenen Perspektiven (Analyseebenen, Dimensionen und Zeitrahmen) genähert werden soll. Eingebettet in das international vergleichende Forschungsprojekt Science Productivity, Higher Education, Research and Development, and the Knowledge Society (SPHERE) rückt meine Dissertation die Analyse des Einflusses der Hochschulentwicklung und der wissenschaftlichen Kapazitätsbildung auf die wissenschaftliche Wissensproduktion in den Vordergrund. Es interessiert mich, wie die im deutschen Hochschul- und Wissenschaftssystem vorherrschenden Strukturen und institutionellen Settings die langfristige Entwicklung wissenschaftlicher Produktivität beeinflusst und verändert haben. Besonders vor dem Hintergrund einer voranschreitenden Globalisierung und Internationalisierung der Wissenschaft, einer weltweiten Vernetzung von Wissenschaftlern und der Herausbildung einer Wissensgesellschaft. Die Annäherung an den Forschungsgegentand erfolgt auf der Makro- und Mesoebene: den institutionalisierten und organisationalen Settings, in denen Wissenschaft produziert wurde und wird. Da Informationen zu einzelnen Autoren nicht zur Verfügung standen, können keine Aussagen auf der Mikroebene getroffen werden, wenngleich Publikationen natürlich immer von Individuen verfasst werden und nicht von den hier untersuchten Ländern oder Organisationsformen und Einzelorganisationen. Anhand der Dimensionen Expansion, Vielfalt und Kooperation wird der Untersuchungsrahmen abgesteckt und eine Ordnung der Fragestellung vorgenommen, an denen die Struktur der Arbeit ausgerichtet ist. Der Zeitrahmen der Arbeit umfasst die Jahre 1900 bis 2010, also mehr als ein Jahrhundert (siehe Abschnitt 1.2). Ziel dieser Arbeit ist es darzulegen, warum Wissenschaftler ihre Ergebnisse in Form von Zeitschriftenartikeln publizieren. Es geht unter anderem darum, die Wichtigkeit wissenschaftlicher Erkenntnisse hervorzuheben, da nicht publizierte Ergebnisse für die Wissenschaft nicht existieren und sich aus der Art und Weise, wie publiziert wird, die Organisation der Forschung innerhalb und übergreifend einer Disziplin oder eines Fachs ableiten lässt. In den in dieser Arbeit untersuchten Fächergruppen Mathematik, Ingenieur-, Natur- und Technikwissenschaften sowie Medizin (im Folgenden angelehnt an die englische Abkürzung STEM (Science, Technology, Engineering and Mathematics) plus Medicine als STEM+ bezeichnet) spielen Publikationen in peer reviewed Zeitschriften eine wichtige Rolle – neben Patenten in den angewandteren Fächergruppen sind sie heutzutage das wichtigste Publikationsformat. Sie dienen nicht nur der Dokumentation generierten Wissens, sondern sind auch ein Anzeiger für die Reputation eines Forschers und dienen der Messung wissenschaftlicher Produktivität. Zeitschriftenpublikationen in hochklassigen Zeitschriften, die einem peer review Verfahren unterliegen, können als gold standard zur Messung wissenschaftlicher Produktivität herangezogen werden. In den letzten Jahrzehnten kam es zu einer zunehmenden Verwissenschaftlichung vieler gesellschaftlichen Teilbereiche und die Generierung wissenschaftlichen Wissens rückte immer weiter ins Zentrum des politischen und wirtschaftlichen Interesses, unabhängig davon, wo es produziert wurde. Aus diesem Grund werden die Orte und institutionellen Settings (Organisationen, Organisationsformen) wissenschaftlicher Produktivität (hauptsächlich Universitäten, außeruniversitäre Forschungsinstitute, Unternehmen, Behörden und Ressortforschungseinrichtungen und Krankenhäuser) identifiziert und voneinander abgegrenzt. Indem ihre Gemeinsamkeiten und Unterschiede anhand ihrer Aufgaben und Ziele sowie der Art der Forschung diskutiert werden. In einem ersten Schritt lege ich dar, warum ich diese Arbeit an der Schnittstelle zwischen Hochschul- und Wissenschaftsforschung und der Bibliometrie angelegt habe (siehe Kapitel 2 und 5). Publikationsanalysen werden zwar immer noch als Hauptaufgabe der Bibliometrie gesehen, aber ihre Ergebnisse werden auch von anderen Akteuren wie Hochschulmanagern, Politikern und Wissenschaftlern genutzt, um einerseits Aussagen über die Qualität der Wissenschaft zu treffen, aber auch um sich miteinander zu vergleichen oder steuernd in die Struktur und Organisation einzugreifen und Aussagen über den Output des Hochschul- und Wissenschaftssystems zu treffen. Direkte Aussagen über die Qualität der Forschung auf Basis der Anzahl an Zeitschriftenartikeln, die ein Wissenschaftler publiziert, können nicht getroffen werden, es kann aber über die Qualität einer Zeitschrift (Impactfactor) ein Proxi gebildet werden, mit dessen Hilfe Vergleiche zwischen Disziplinen getroffen werden können. Um wissenschaftliche Produktivität zu messen, müssten ergänzende Parameter hinzugezogen werden. Aus diesem Grund werden in dieser Arbeit lediglich Aussagen über die Quantität wissenschaftlicher Produktivität getroffen, nicht aber über die Qualität der untersuchten Zeitschriftenartikel, die Forschungsleistung einzelner Wissenschaftler, Organisationen oder Organisationsformen und einzelner Länder. Nichtdestotrotz zeigen Indikatoren zur Messung wissenschaftlichen Outputs eine große Expansion wissenschaftlicher Produktivität, eine Stabilität der Universitäten im Zeitverlauf und die Wichtigkeit Deutschlands als Wissensschaftsproduzent sowie eine steigende Differenzierung und Diversifizierung der Organisationsformen. Zudem können die 1990er Jahre als Startpunkt steigender nationaler und internationaler Kooperationen gesehen werden. In Kapitel 2 zum multidisziplinären Kontext der Arbeit zeige ich, in welcher Beziehung sich die Hochschul- und Wissenschaftsforschung in Deutschland zueinander befinden. Wissenschaftliches Wissen nimmt eine Sonderstellung im Vergleich zu anderen Wissensformen ein, da es unter bestimmten Bedingungen, die von der wissenschaftlichen Gemeinschaft selbst bestimmt werden, generiert und verbreitet wird. Um einen Überblick über die wichtigsten Studien innerhalb meines Feldes zu bekommen, und um meine Arbeit in den empirischen Kontext zu rücken, beschreibe ich in Kapitel 3 dieser Arbeit den aktuellen Forschungsstand. Forschungsfragen Abschnitt 1.2 stellt einen detaillierten Überblick über die dieser Arbeit zugrunde liegenden Forschungsfragen bereit: Welche Organisationsformen produzieren Wissenschaft? 1. Wie hat sich die wissenschaftliche Produktivität weltweit und im europäischen Vergleich zwischen 1900 und 2010 entwickelt? 2. Wie war/ist das deutsche Hochschul- und Wissenschaftssystem in die globalen Entwicklungen der Hochschulbildung und Wissenschaft im Zeitverlauf eingebettet? 3. Wie hat sich die wissenschaftliche Produktivität in Deutschland zwischen 1900 und 2010 entwickelt? 4. Unter allen Wissenschaft produzierenden Organisationsformen, was tragen die "klassischen" Formen zur wissenschaftlichen Produktivität bei? 5. Welche Organisationsformen stellen die besten Bedingungen für wissenschaftliche Produktivität bereit? 6. Welche Einzelorganisationen gehören zu den forschungsstärksten in Deutschland? 7. Welchen Einfluss hat die zunehmende Internationalisierung der Forschung auf nationale und internationale Kooperationen in Form von Publikationen in Zeitschriftenartikeln? Theoretischer Rahmen Theoretisch (siehe Kapitel 4) basiert meine Arbeit auf einem neu-institutionellen (NI) Ansatz zur Untersuchung und Erklärung der Expansion des Hochschulwesens und der Wissenschaft weltweit. Trotz des allgemeinen Wachstums wissenschaftlicher Produktivität bestehen beträchtliche Unterschiede zwischen den institutionellen Settings, Organisationsformen und einzelner Organisationen, die maßgeblich zur wissenschaftlichen Produktivität beitragen. Der soziologische NI konzentriert sich auf das Verständnis von Institutionen und Organisationen. Institutionen sind ein wichtiger Baustein, um soziales Handeln und Prozesse der Gesellschaftsentwicklung zu verstehen. Organisationen und Institutionen stehen in einer wechselseitigen Beziehung zueinander. Die zentralen Annahmen des NI wurden von Walter Powell, Paul DiMaggio und Richard Scott formuliert. Meilensteine: der Zusammenhang von Organisation und Gesellschaft und die Annahme, dass formale Organisationsstrukturen Mythen zum Ausdruck bringen, die in ihrer gesellschaftlichen Umwelt institutionalisiert sind. Indem Organisationen diese Mythen erfassen, kopieren und zeremoniell zur Geltung bringen, werden Strukturähnlichkeiten (Isomorphien) zwischen Organisationen und der Gesellschaft hergestellt. Das Konzept der "organisationalen Felder" dient der Beschreibung der Beziehung zwischen verschiedenen Organisationen und beinhaltet alle relevanten Organisationen, die sich mit ihrer gesellschaftlichen Umwelt auseinander setzen. In Abschnitt 4.1.2 werden die Unterschiede zwischen den Begriffen Institutionen und Organisationen diskutiert, da diese besonders in der deutschsprachigen Soziologie nicht trennscharf genutzt werden. Grundsätzlich unterscheiden sich Ansätze institutioneller Theorie in ihrer Anwendungsebene, sie sind aber durch ihren Überbau miteinander verschränkt. Folglich ist der NI als theoretische Basis besonders gut geeignet, um eine Mehrebenenanalyse der wissenschaftlichen Produktivität zeit- und ortsübergreifend durchzuführen. Die historische Entwicklung des deutschen Hochschul- und Wissenschaftssystems kann nicht ohne eine Berücksichtigung der globalen Entwicklungen durchgeführt werden, da es einerseits einen enormen Einfluss auf die Entwicklung anderer Systeme weltweit hatte/hat und andererseits globale Entwicklungen die Institutionalisierung und Organisation der Wissenschaft in Deutschland beeinflussen. Intersektorale und internationale Kooperationen sind im Zeitverlauf angewachsen, werden immer wichtiger und führen zu ausgeprägten Netzwerken innerhalb und zwischen Hochschul- und Wissenschaftssystemen weltweit. Aufgrund einer zunehmenden Verzahnung einzelner Länder und den damit einhergehenden Wechselwirkungen zwischen den unterschiedlichen Analyseebenen (makro, meso, mikro) ist eine klassische, nationalstaatliche Analyse nicht mehr zielführend. Nichtsdestotrotz können Länder als vergleichbare Einheiten gesehen werden, da sie über klar definierte Grenzen und Strukturen verfügen. Die unterschiedlichen theoretischen Perspektiven und Analyseebenen werden in Abbildung 5 genauer beschrieben. Der theoretische Ansatz der "Weltkultur" bietet eine breitere Linse des soziologischen NI auf die globale Arena. Der Fokus liegt auf globalen und internationalen Strukturen und Prozessen, die sich über lange Zeit entwickelt haben. Mit Hilfe dieser Perspektive können globale Diffusion und formale Strukturen der Entkopplung von formalen Grundsätzen und praktischer Anwendung erklärt werden. Zusammen nehmen der historische und soziologische Institutionalismus zeitliche Entwicklungen und Prozesse in den Blick, die erklären, wie Institutionen entstehen und sich verändern. Die Konzepte critical junctures und Pfadabhängigkeit sollen helfen diese Prozesse auf der Mesoebene zu verstehen. Um die Transformation der Wissensproduktion im Zeitverlauf des 20. Jahrhunderts zu verstehen und um zu analysieren, welche Organisationsformen an der Produktion wissenschaftlichen Wissens beteiligt waren, werden zwei theoretische Konzepte herangezogen: Modus 1 versus Modus 2 Wissenschaft und das Triple-Helix Modell zur Beschreibung der Beziehung zwischen Wissenschaft, Industrie und Staat. In The New Production of Knowledge beschreiben Michael Gibbons und seine Kollegen den Wandel der Wissenschaft von einer akademischen, disziplinären und autonomen, traditionellen, Organisation der Wissenschaft (Modus 1) mit einem Schwerpunkt auf Universitäten als wichtigste Organisationsform, hin zu einer anwendungsorientierteren, transdisziplinären, diversen und reflexiven Organisation der Wissenschaft (Modus 2), die eine diversere Organisation der Wissenschaft unterstützt und auf einem breiteren organisationalen Setting der Wissensproduktion beruht. Innerhalb der Literatur wird diskutiert, ob das neue Modell das alte ersetzen soll und welches der Modelle die gegenwärtige Organisation der Wissenschaft am besten beschreibt. Im Gegensatz hierzu bleibt beim Triple-Helix Modell die historische Rolle der Universitäten erhalten. Der Ansatz geht davon aus, dass zukünftige Innovationen aus einer Beziehung von Universitäten (Wissensproduktion), Industrie (Generierung von Wohlstand) und dem Staat (Kontrolle) resultieren. Daten und Methoden In dieser Arbeit werden ausschließlich Publikationen in peer reviewed Zeitschriften als Kennzeichen wissenschaftlicher Produktivität herangezogen. Dieser Schwerpunkt ermöglicht mir eine tiefgreifende Analyse von Publikationen über einen Zeitraum von mehr als einem Jahrhundert. Zeitschriftenartikel in hochklassigen und möglichst internationalen Journalen bilden den gold standard wissenschaftlichen Outputs in den hier untersuchten Mathematik, Ingenieur-, Natur- und Technikwissenschaften sowie der Medizin (STEM+). Meine Daten basieren auf einem stratifizierten, repräsentativen Sample (siehe ausführlich Kapitel 6) publizierter Zeitschriften, die als Rohdaten aus Thomson Reuters Web of Science Science Citation Index Expanded (SCIE) zur Analyse zur Verfügung stehen (eine vergleichbare Datenbank stellt Elseviers Scopus bereit). Methodologisch wird eine Kombination aus einer vergleichenden institutionelle Analyse ausgewählter Länder, eine historische Untersuchung des deutschen Hochschul- und Wissenschaftssystems und eine systematische, globale Auswertung bibliometrischer Publikationsdaten angestrebt. Der SCIE umfasst mehr als 90 Millionen Einträge (gespeichert werden nahezu alle Typen wissenschaftlichen Outputs), hauptsächlich aus den oben genannten Fächergruppen. Diese Arbeit beschränkt sich auf originale Zeitschriftenartikel (Originalmitteilungen), da lediglich dieser Publikationstyp zertifiziertes und neues Wissen enthält. Der SPHERE Datensatz umfasst publizierte Zeitschriftenartikel aus den Jahren 1900 bis 2010. Von 1900 bis 1970 wurden die Daten in 5-Jahres-Schritten mittels einer geschichteten Zufallsstichprobe ausgewählt. Ab 1975 stehen die Daten vollständig und ab 1980 in Jahresschritten zur Verfügung. Abhängig von der untersuchten Fragestellung werden die Daten in 5-Jahres- oder 10-Jahres-Schritten analysiert. Eine detaillierte Beschreibung des Samplings und der Gewichtung der Daten kann den Abschnitten 6.2.2 und 6.8 entnommen werden. Unter Berücksichtigung dieser Kriterien werden 17.568 unterschiedliche Zeitschriften (42.963 Zeitschriften, wenn dieselbe Zeitschrift in unterschiedlichen Jahren mehrfach berücksichtigt wird) und 5.089.233 Forschungsartikel untersucht. Um die Daten für die Analyse aufzubereiten muss eine intensive Vorarbeit geleistet werden. Sie werden umfassend (nach-)kodiert und bereinigt. Besonders häufig sind Fehler oder fehlende Informationen auf Ebene der Länder und/oder der Organisationen/Organisationsformen, in denen die Forschung betrieben wurde. Im Zeitraum von Juni 2013 bis Dezember 2015 habe ich die Originalzeitschriften und -artikel in Online-Zeitschriftendatenbanken oder Archiven verschiedener Universitätsbibliotheken eingesehen, begutachtet und mit Hilfe einer Excel-Tabelle katalogisiert und fehlende Informationen, wenn vorhanden, ergänzt. In der Bibliometrie werden verschiedene Vorgehensweisen diskutiert, wie Publikationen gezählt werden können. Die Analysen dieser Arbeit basieren hauptsächlich auf der whole count Methode (siehe Tabelle 1). Die Entscheidung basiert auf der Annahme, dass jeder Autor, jede Organisation, oder jedes Land gleichermaßen zu einer Publikation beigetragen hat. Folglich kann es zu einer Verzerrung bzw. Überschätzung der Ergebnisse kommen, da Zeitschriftenartikel mehrfach gezählt werden, wenn sie in Form von Forschungskooperationen publiziert wurden. Um die absolute Anzahl an Publikationen (weltweit, Europa, Deutschland) zu ermitteln, wird die Gesamtzahl an Artikeln pro Jahr (ohne Duplikate) berechnet. Zusammenfassung der wichtigsten Ergebnisse Der empirische Teil meiner Arbeit ist in drei Teile untergliedert. Die folgenden Abschnitte fassen die jeweils wichtigsten Ergebnisse zusammen. The Global Picture – Hochschul- und Wissenschaftssysteme im Vergleich Im Mittelpunkt meiner Dissertation steht die Frage, welche Organisationsformen Wissenschaft produzieren. Um die Ergebnisse der detaillierten Fallstudie einordnen und bewerten zu können, erfolgt zunächst eine Einbettung in den globalen und europäischen Kontext. Die forschungsleitenden Fragen, wie hat sich die wissenschaftliche Produktivität weltweit und im europäischen Vergleich zwischen 1900 und 2010 entwickelt und wie war/ist das deutsche Hochschul- und Wissenschaftssystem in die globalen Entwicklungen der Hochschulbildung und Wissenschaft im zeitverlauf eingebettet, wird folgendermaßen beantwortet: In einem ersten Schritt wird gezeigt, dass das weltweite wissenschaftliche Wachstum zwischen 1900 und 2010 exponentiell verlief und dieser Trend vermutlich bis heute anhält (siehe Abbildungen 3 und 10, S. 50, 147). Die massive Ausdehnung wissenschaftlichen Wissens hatte und hat auch heute noch einen großen Einfluss auf gesellschaftliche Entwicklungen, die nicht auf den wirtschaftlichen und technischen Fortschritt beschränkt sind. Ich werde darstellen, dass Hochschul- und Wissenschaftssysteme weltweite Gemeinsamkeiten aufweisen, die zu einer ähnlichen Entwicklung und Ausweitung wissenschaftlicher Produktivität geführt haben. Im Vergleich wichtiger europäischer Länder (Deutschland im Vergleich mit Großbritannien, Frankreich, Belgien und Luxemburg), kann gezeigt werden, dass zwischen der weltweiten Ausweitung der Wissenschaft, dem Anstieg an Publikationen und der Expansion von modernen Forschungsuniversitäten ein Zusammenhang besteht (siehe Abschnitt 7.2; Powell, Dusdal 2016, 2017a; 2017b im Druck). So wurde ein globales Feld der Wissenschaft aufgespannt, das als übergeordneter Rahmen fungiert. Drei geografische Zentren wissenschaftlicher Produktivität werden im Zeitverlauf identifiziert: Europa, Nordamerika und Asien. Sie haben zu unterschiedlichen Zeitpunkten an Bedeutung gewonnen oder verloren, doch zum heutigen Zeitpunkt tragen sie alle zur wissenschaftlichen Produktivität in den untersuchten Fächergruppen bei. Allerdings sind besonders in Asien die Wachstumsraten massiv angestiegen (Powell et al 2017 im Druck). Zweitens investieren alle Länder weltweit in Forschung und Entwicklung (FuE) (siehe Abbildung 9, S. 140). Diese Investitionen haben einen Einfluss auf ihre wissenschaftliche Produktivität. Zwischen einzelnen Ländern sind zum Teil große Unterschiede in der absoluten Publikationszahl und der relativen wissenschaftlichen Produktivität feststellbar. Nicht nur Investitionen in FuE tragen zur Expansion der Wissenschaft bei, sondern auch die Anmeldung von Patenten, höhere Studierendenzahlen, eine gestiegene Anzahl an Forschern, die Ausweitung von Forschungsaktivitäten in viele gesellschaftliche Teilbereiche, die Entwicklung von Forschungsprodukten und Neugründungen von Universitäten (Powell, Baker, Fernandez 2017 im Druck). Im Zuge der Hochschulexpansion und der Massifizierung der Hochschulbildung in den 1960er und 70er Jahren sind besonders die Studierendenzahlen und die Anzahl der Wissenschaftler extrem angestiegen. Es kam also zur Ausweitung des kompletten Hochschul- und Wissenschaftssystems und nicht nur zu einer Erhöhung der Anzahl an Publikationen. Im Umkehrschluss kann ein Teil des Anstiegs wissenschaftlicher Publikationen auf eine steigende Anzahl an Wissenschaftlern zurückgeführt werden. Drittens kann die von Derek J. de Solla Price aufgestellte These, dass das exponentielle Wachstum wissenschaftlicher Literatur irgendwann abflachen müsse, wiederlegt werden (siehe Abschnitt 2.4; Abbildungen 4 und 10, S. 53, 147). Obwohl einschneidende historische, politische, wirtschaftliche und technologische Ereignisse sowie Ereignisse bezogen auf die Hochschulen und Wissenschaft (siehe Abbildung 11, S. 150) kurzfristig zu einer Verringerung der Publikationszahlen geführt haben, wurde die Wachstumskurve nicht nachhaltig beeinflusst. Im Jahr 2010 wurden weltweit fast eine Million Zeitschriftenartikel in den Natur- und Technikwissenschaften sowie der Medizin publiziert. In Abschnitt 7.2.2 zeige ich, dass die Anzahl der publizierten Zeitschriftenartikel im Verhältnis zu den Ausgaben für FuE, der Größe der Hochschul- und Wissenschaftssysteme und der Anzahl der Einwohner (siehe Abbildung 12, S. 159) und Wissenschaftler (siehe Tabelle 3, S. 162; Abbildung 13, S. 164) relativiert werden müssen. Die anfängliche extreme Expansion der wissenschaftlichen Publikationen in den Mathematik, Ingenieur-, Natur- und Technikwissenschaften sowie der Medizin basiert auf einem allgemeinen Wachstum der Hochschul- und Wissenschaftssysteme (siehe oben). Unterschiedliche institutionelle Settings und Organisationsformen, in denen Wissenschaft produziert wird, haben einen Einfluss auf die wissenschaftliche Produktivität. Anhand der ausgewählten Fallbeispiele (Deutschland, Großbritannien, Frankreich, Belgien und Luxemburg) werde ich darlegen, dass Hochschul- und Wissenschaftssysteme, die über forschungsstarke Universitäten verfügen, höchst produktiv sind. Es kommt also nicht nur darauf an, wie viele Wissenschaftler innerhalb eines Systems beschäftigt werden, sondern auch darauf, in welchen institutionellen Settings sie arbeiten. Fünftens, im internationalen Vergleich trägt Deutschland immer noch erheblich zur wissenschaftlichen Produktivität in den untersuchten Fächern bei. Mit einer Wachstumsrate von 3,35% Prozent folgt Deutschland den USA und Japan. Im Jahr 2014 wurden in Deutschland 84,5 Mrd./€ für FuE von der Regierung bereitgestellt. Dies entspricht einem Anteil von 2,9 Prozent des BIP. Somit wurde der EU-Richtwert von 2020 von 3 Prozent lediglich knapp verfehlt. Im Jahr 2010 wurden in Deutschland insgesamt 55.009 Zeitschriftenartikel in den STEM+-Fächern publiziert (siehe Tabelle A5 im Anhang). Im Vergleich der absoluten Zahlen mit Großbritannien, Frankreich, Belgien und Luxemburg nimmt das Land die Spitzenposition ein. Die Größe des Hochschul- und Wissenschaftssystems hat somit einen Einfluss auf die Publikationsleistung. Werden die Zahlen in einem nächsten Schritt mit anderen Schlüsselindikatoren in Beziehung gesetzt, verändert sich die Leistung der miteinander verglichenen Systeme zum Teil erheblich. Gemessen an der Einwohnerzahl werden in Deutschland weniger Zeitschriftenartikel publiziert als in Belgien oder Großbritannien. Die Anzahl der beschäftigten Wissenschaftler betrug in Deutschland im selben Jahr 1000:4. Nur in Luxemburg und Großbritannien ist das Verhältnis von Wissenschaftlern zur Einwohnerzahl größer. Das Zusammenspiel der Organisationsformen der Wissenschaft in Deutschland von 1900 bis 2010 Auf Basis der Analysen zum globalen und europäischen Kontext der Entwicklung wissenschaftlicher Produktivität im Zeitverlauf (siehe Kapitel 7) folgt eine tiefgreifende, institutionelle Analyse des deutschen Hochschul- und Wissenschaftssystems (siehe Kapitel 8). Sie dient als Ein- und Überleitung zur detaillierten empirischen Auswertung der Daten zum deutschen Hochschul- und Wissenschaftssystem. Hier werden die wichtigsten Institutionen und Organisationen sowie das organisationale Feld der Wissenschaft (Universitäten, Fachhochschulen, außeruniversitäre Forschungseinrichtungen) vorgestellt. Zudem diskutiere ich die Unterschiede zwischen Ost- und Westdeutschland zur Zeit des geteilten Deutschlands (1945-1990). Eine Zusammenfassung der wichtigsten Ergebnisse zeigt, dass die Entwicklung der Publikationszahlen in Deutschland dem weltweiten und europäischen Trend (im kleineren Umfang) folgt (siehe Abbildung 16, S. 208). Es kam sowohl zu einer Expansion des wissenschaftlichen Wissens in Form eines exponentiellen Anstiegs an Publikationen, als auch zu einer Erhöhung der Vielfalt wissenschaftlicher Produktivität im Zeitverlauf (siehe Abschnitte 9.1 und 9.3). Die folgenden vier Forschungsfragen werden beantwortet: Wie hat sich die wissenschaftliche Produktivität in Deutschland zwischen 1900 und 2010 entwickelt? Unter allen Wissenschaft produzierenden Organisationsformen, was tragen die "klassischen" Formen zur wissenschaftlichen Produktivität bei? Welche Organisationsformen stellen die besten Bedingungen für wissenschaftliche Produktivität bereit? Welche Einzelorganisationen gehören zu den forschungsstärksten in Deutschland? Wie oben beschrieben, verläuft das Wachstum wissenschaftlicher Produktivität in Deutschland zwischen den Jahren 1900 und 2010 exponentiell. Die Kurve ist vergleichbar mit der weltweiten und europäischen Entwicklung, wenn auch in kleinerem Umfang. Zwar hatten auch hier verschiedene Ereignisse, wie der Zweite Weltkrieg, die Weltwirtschaftskrise oder die Wiedervereinigung, einen kurzfristigen Einfluss, allerdings kam es zu keiner Verlangsamung oder Abflachung des Wachstums (siehe Abbildung 11, S. 150). Bis ins Jahr 2010 wuchs die Anzahl der publizierten Zeitschriftenartikel in Deutschland auf 55.009 an. Zweitens, zeigt eine detaillierte Betrachtung der wissenschaftlichen Produktivität Westdeutschlands im Vergleich zu Ostdeutschland, dass der Anstieg der gesamtdeutschen Publikationszahlen auf einem Anstieg der Zahlen in Westdeutschland basiert (siehe Abbildung 17, S. 211). Zwischen 1950 und 1990 verlief die Kurve der wissenschaftlichen Produktivität in der DDR flach und auf einem niedrigen Niveau. Hieraus kann geschlossen werden, dass das Hochschul- und Wissenschaftssystem der DDR, aufbauend auf seinem Akademiemodell, keine guten Bedingungen für wissenschaftliche Forschung bereitgestellt hat. Drittens, zeigt die detaillierte Analyse der "klassischen" Organisationsformen der Wissenschaft, Universitäten und außeruniversitäre Forschungsinstitute, dass Universitäten im Zeitraum von 1975 bis 2010 in den STEM+-Fächern die Hauptproduzenten wissenschaftlicher Zeitschriftenartikel waren und sind (siehe Abbildung 18, S. 217). Im Untersuchungszeitraum beträgt der prozentuale Anteil der universitätsbasierten Forschung im Mittel 60 Prozent. Somit verteidigen sie ihren Status als wichtigste Organisationsform gegenüber anderen. Die Modus 2 Hypothese, dass es im Zeitverlauf zu einem Absinken des prozentualen Anteils der Universitäten kommen muss, wird verworfen. Der Anteil der Nicht-Universitäten liegt hingegen im Durchschnitt bei 40 Prozent. Obwohl die Richtigkeit der folgenden Aussage nicht empirisch überprüft werden kann, wird davon ausgegangen, dass es sich tatsächlich sogar um einen Anstieg wissenschaftlicher Produktivität der Universitäten im Zeitverlauf handelt. Unter Berücksichtigung einer Verschiebung der zur Verfügung stehenden finanziellen Mittel für FuE zugunsten der außeruniversitären Forschungsinstitute haben die Universitäten im Zeitverlauf mit weniger Forschungsgeldern immer mehr wissenschaftliche Zeitschriftenartikel publiziert. Viertens, obwohl nicht nur Wissenschaftler innerhalb von Universitäten und Forschungsinstituten Zeitschriftenartikel veröffentlichen, haben diese beiden Organisationsformen zusammen mehr als drei Viertel aller Publikationen seit den 1980er Jahren verfasst. Aber auch schon in den Jahren zuvor ist ihr gemeinsamer Anteil sehr hoch. Zu den wichtigsten Wissenschaftsproduzenten gehören neben ihnen die (Industrie-)Unternehmen, Behörden und Ressortforschungseinrichtungen und Krankenhäuser (für eine ausführliche Beschreibung der Matrix der Organisationsformen siehe Tabelle 4, S. 222f und Abbildungen 19 und 20, S. 220, 246). Dennoch sind die Universitäten die treibende Kraft wissenschaftlicher Produktivität seit mehr als einem Jahrhundert. Mit ihrer speziellen Ausrichtung auf Grundlagenforschung stellen sie die besten Bedingungen für wissenschaftliche Forschung bereit und gehören zu den ältesten Institutionen mit einem hohen Institutionalisierungsgrad. Universitäten sind widerstandsfähig gegenüber Veränderungen und critical junctures haben keinen negativen Einfluss auf ihre wissenschaftliche Produktivität. Alle anderen im Datensatz gefundenen oder aus der Theorie abgeleiteten Organisationsformen (Akademien, Vereine/Gesellschaften, wissenschaftliche Infrastrukturen, Laboratorien, Militär, Museen und nichtuniversitäre Bildungseinrichtungen) spielen nur eine untergeordnete Rolle und wurden in der Gruppe "sonstige" Organisationsformen zusammengefasst. Fünftens, eine Auswertung der zehn forschungsstärksten Einzelorganisationen Deutschlands im Jahr 2010 bestätigt die oben beschriebenen Ergebnisse, da lediglich Universitäten und außeruniversitäre Forschungsinstitute dieser Spitzengruppe zugehören. Eine Zusammenfassung der Publikationen der Institute unter ihrer Dachorganisation zeigt, dass die Institute der Max-Planck-Gesellschaft und der Helmholtz-Gemeinschaft maßgeblich zur Produktion wissenschaftlichen Wissens in Deutschland beitragen. Sie übertreffen zusammengezählt die Publikationstätigkeit einzelner Universitäten bei weitem (siehe Tabelle 5, S. 259f). Eine Einzelauswertung der Institute zeigt aber auch, dass sie allgemein genommen, aufgrund ihrer Größe und der Anzahl der Wissenschaftler, nicht mit den Universitäten konkurrieren können. Zudem gehört die hybride Organisation, die Charité – Universitätsmedizin Berlin zu den führenden zehn Wissenschaftsproduzenten im deutschen Hochschul- und Wissenschaftssystem. Nationale und internationale Kooperationen wissenschaftlicher Forschung Im letzten empirischen Kapitel der Arbeit wird auf der Makroebene die Frage beantwortet, welchen Einfluss die zunehmende Internationalisierung der Forschung auf nationale und internationale Kooperationen in Form von Publikationen in wissenschaftlichen Zeitschriften hat. Durch die voranschreitende Globalisierung und Internationalisierung haben nationale und internationale Kooperationen stark zugenommen. Zu den wichtigsten Gründen für (internationale) Kooperationen in den Mathematik, Ingenieur-, Natur- und Technikwissenschaften sowie der Medizin zählen unter anderen die Reputation der Forschungsorganisation und der Mitautoren, eine höhere Sichtbarkeit innerhalb der wissenschaftlichen Gemeinschaft, mehr Möglichkeiten für interdisziplinäre Forschung oder auch eine bessere Ausstattung der Labore. Heute sind bereits ein Drittel aller Forschungsartikel weltweit das Ergebnis wissenschaftlicher Kooperationen und lediglich ein Viertel wird von einem Autoren verfasst. Übertragen auf die Organisation der Forschung bedeutet der von Humboldt geprägte Leitsatz "in Einsamkeit und Freiheit", dass wissenschaftliche Forschung nicht mehr in alleiniger Verantwortung eines Wissenschaftlers durchgeführt wird, sondern das Ergebnis von Kooperationen ist. Netzwerke werden immer wichtiger, um gemeinsame Interessen zu teilen, an einer Fragestellung zu arbeiten sowie die aus der Forschung gewonnenen Erkenntnisse gemeinsam zu publizieren. Wissenschaftler, Organisationen und Länder unterscheiden sich dahingehend, wie sie ihre Forschung organisieren und folglich auch darin, wie sie ihre wissenschaftliche Zusammenarbeit gestalten. Diese Wege sind abhängig von der geografischen Lage und Größe des Hochschul- und Wissenschaftssystems, dem organisationalen Feld und den Einzelorganisationen. In dieser Arbeit werden unterschiedliche Muster wissenschaftlicher Zusammenarbeit präsentiert. Die Ergebnisse zeigen einen massiven Anstieg wissenschaftlicher Kooperationen in Form von gemeinsamen Publikationen im Zeitverlauf. Bis in die 1990er Jahre hinein publizierten die Wissenschaftler in den hier untersuchten Länder (Frankreich, Deutschland, Großbritannien, USA, Japan, China, Belgien und Luxemburg) hauptsächlich in Alleinautorenschaft. Erst danach kam es zu einem Anstieg an Kooperationen: Im Jahr 2000 wurden lediglich 37 Prozent aller Artikel von einem Autor verfasst. Im Jahr 2010 erreichte der Anteil einen Tiefststand von lediglich einem Fünftel Alleinautorenschaften (siehe Tabelle 6, S. 279f). Allerdings unterschieden sich die Länder hinsichtlich ihres Anteils an Ko-Autorenschaften zum Teil deutlich voneinander. Literatur Powell, J. J. W. & Dusdal, J. (2016). Europe's Center of Science: Science Productivity in Belgium, France, Germany, and Luxembourg. EuropeNow, 1(1). http://www.europenowjournal.org/2016/11/30/europes-center-of-science-science-productivity-in-belgium-france-germany-and-luxembourg/. Zugriff: 13.12.2016. Powell, J. J. W. & Dusdal, J. (2017a): Measuring Research Organizations' Contributions to Science Productivity in Science, Technology, Engineering and Math in Germany, France, Belgium, and Luxembourg. Minerva, (). Online first. DOI:10.1007/s11024-017-9327-z. Powell, J. J. W. & Dusdal, J. (2017b im Druck). The European Center of Science Productivity: Research Universities and Institutes in France, Germany, and the United Kingdom. IN Powell, J. J. W., Baker, D. P. & Fernandez, F. (Hg.) The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing. Powell, J. J. W., Baker, D. P. & Fernandez, F. (2017, im Druck). The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing. Powell, J. J. W., Fernandez, F., Crist, J. T., Dusdal, J., Zhang, L. & Baker, D. P. (2017, im Druck). The Worldwide Triumph of the Research University and Globalizing Science. IN Powell, J. W., Baker, D. P. & Fernandez, F. (Hg.) The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing.
Ziele und Befunde der Arbeit Das durchgeführte Forschungsvorhaben zeigt durch einen holistischen, gleichzeitig politikwissenschaftlichen wie auch historischen Ansatz Folgendes: Nämlich, warum und wie das liberale, regelbasierte Weltordnungssystem im Untersuchungsraum der US-Präsidentschaften von Clinton bis Obama kontinuierlich durch ein System der realistischen, kurzfristig wirkenden Durchsetzung vitaler Interessen mittels militärischer Instrumentenpräferenz unter fortlaufender militärischer Optimierung ergänzt bzw. ersetzt wird. Dies erklärt auch, warum die "transaktionale Führung Trumps"(1), die nach dem Untersuchungsraum von 1993 bis 2017 mit Außenwirkung die Reduktion idealistischer "Grand Strategy"-Elemente bzw. wohlwollender Ordnungsmacht unter Kostenabwälzung und Vorteilsverringerung europäischer Nato-Verbündeter vornimmt, in Kontinuität zur ausgeübten Führungsmacht der Amtsvorgänger steht. Ergebnisse dieser Dissertation wie die sich ab 1993 immer nachdrücklicher abzeichnende Auflösung der multilateralen Grundordnung legen damit nahe, Trumps bisherige Außen- und Sicherheitspolitik als deutlich spürbares Krisensymptom und nicht als Ursache dieses Abbaus der nach 1945 eingerichteten Weltordnung einzustufen. Diese Auflösung ist mit einer Erosion des letztlich transatlantisch angestoßenen bipolaren "amerikanischen Systems" gleichzusetzen. Die Implementierung dieses Systems erfolgte als "Lernstunde zweier Weltkriege" auf Basis der mit der Aufklärung und den amerikanischen Gründungskennziffern eingeleiteten neuzeitlichen Ordnungskonzeptionen: Daher ist diese Auflösung auch ein Indikator für das Scheitern neuzeitlicher Ordnungskennziffern, die sich im "American way of life" entfalten konnten. Als ursächlich für die geschilderte Entwicklung wird eine von Clinton bis Obama konstant ansteigende Gesamtbedrohung nachgewiesen, mit der die konsequente Schwächung amerikanischer Vormacht verknüpft ist. Diese fußt u.a. auf der Basis von seit 1979 postulierten Klimawandeleffekten als Bedrohungsverstärker bei erreichter amerikanischer Förderspitze in fossilen Rohstoffen und ansteigendem Ressourcenbedarf im Kontext schrumpfender Rohstoffvorkommen. Weiter sind für den Untersuchungsraum die zunehmende Einwirkung der in den 1980er Jahren begonnenen "US-Konservativen Revolution" auf die Ausübung der Außen- und Sicherheitspolitik unter Einflusszugewinn von Konzernen und Lobbygruppen auf beispielsweise policy-Implementierung sowie die neuen Rahmenbedingungen zu addieren. Darunter fallen die sich ausformende Digitalisierung, die hohen Ressourcenverbrauch mit sich bringt, und die ansteigende Weltbevölkerung unter spezifischen demographischen Vorzeichen. Darüber hinaus sind beispielsweise die Beibehaltung des bipolar angewachsenen Rüstungssektors als ökonomische Basis militärischer Vormacht und das langsame Abbröckeln der Dollar-Hegemonie seit etwa 1973 zu berücksichtigen. Durch komplexes Zusammenspiel von "Grand Strategy"-Umsetzung gemäß der Prämisse amerikanischen Führungsmachtausbaus unter neokonservativem bzw. christlich-rechtem Einfluss mit asymmetrischen sowie reaktivierten konventionellen Bedrohungsgegenständen, Bedrohungsverstärkern und neuen Rahmenbedingungen wird der lineare Verlauf der Gesamtbedrohung im Zeitraum von 1993 bis 2017 verständlich: Im Kontext der "Grand Strategy"-Ausführungen erklären insbesondere das Bedrohungsabwehr-, Bedrohungsverstärker- und Marktwirtschaftsverständnis der US-Far Right in komplexer Wechselwirkung mit erstarkenden transnationalen Konzernen, Lobbygruppen, Individuen(2), informellen Netzwerken und staatlichen Akteuren in Bezug auf Bedrohungsgegenstände sowie Bedrohungsverstärker(3) im Zusammenhang mit der post-bipolaren, globalen Verankerung amerikanischer Wirtschafts- und Konsummuster das Folgende: Nämlich die Anpassung der amerikanischen Bedrohungsabwehr - unter Aufbau der "imperial presidency"(4) bzw. Einhegung des Systems von "checks and balances" - samt deren Implikationen auf das bipolare liberale Ordnungssystem. Sodann wird die notwendige Weiterführung in der Nato durch amerikanisch aufgeworfenen Nato-Umbau zur entsprechenden Umsetzung transformierter amerikanischer Bedrohungsabwehr bzw. Legitimierung der systemischen Anpassung begreifbar. Genauso wird nachvollziehbar, dass die so eingerichtete Bedrohungsabwehr nur kurzfristig abwehrt: Stattdessen verstärkt sie asymmetrische und konventionelle Bedrohung wie auch Bedrohungsverstärker - unter Einleitung von Rüstungsspiralen bzw. Demontierung der Rüstungskontrolle - und damit die Gesamtbedrohung. Dies lässt einen Konfliktausbruch jenseits des bisher Vorstellbaren konstant näher rücken. Gleichzeitig ist der dringende Bedarf an Mobilisierung der transatlantischen Zusammenarbeit im Hinblick auf Förderung der globalen Kooperation staatlicher, aber auch nichtstaatlicher Akteure hinsichtlich der Bedrohungswurzeln samt der sich verschlechternden Voraussetzungen illustriert: Denn mit jedem Anstieg der Gesamtbedrohung ist durch die eingeleitete amerikanische sicherheitspolitische Anpassung und deren Weiterführung in der Nato ein Abbau der regelbasierten Basiskennziffern im Untersuchungsraum verknüpft. Dies reduziert in fortlaufender Konsequenz die Grundlage für oben genannte, konstant zentraler werdende Zusammenarbeit, um eine sukzessive Erosion des bipolaren "amerikanischen Systems" unter künftigen Dystopien zu verhindern bzw. zumindest zu begrenzen. Durch die Forschungsergebnisse wird der bisherige Forschungsstand auf den Kopf gestellt, da so beispielsweise gezeigt werden kann, dass mittels der Transformation der Nato keine gleichberechtigte transatlantische Lastenteilung oder eine Weiterentwicklung der Nato gemäß der Nato-Gründungskennziffern erzeugt wird. Dies gilt auch für den europäischen Widerstand gegenüber der tatsächlichen Verankerung der Natotransformationspositionen(5), der auf die Erosion des bipolaren liberalen Ordnungssystems bzw. der US-Vorteilsgewährung sowie so begünstigter Partikularinteressensicherung abhebt. Außerdem wird deutlich, dass eine Kontinuitätslinie in der Bedrohungsabwehr von Clinton bis Obama unter unterschiedlicher Außenwirkung und dem Grundmuster "Battleship America" vorliegt - und eben nicht eine multilateral ausgerichtete Außen- und Sicherheitspolitik unter Clinton, die als Folge von 9/11 in einen unilateralen Pendelausschlag unter G. W. Bush 43 mündet, der durch die Obama-Administration wieder zurückgenommen wird. Die Arbeit basiert auf einer umfassenden Fülle an Literatur, die das aufwendige Literaturverzeichnis widerspiegelt: Darunter fallen vielfältige amerikanische und europäische Publikationen, Monographien und entsprechende Sekundärliteratur, wie Biographien, Veröffentlichungen unterschiedlichster Natur wichtiger Vertreter der transatlantischen Forschungselite, Akteure der entsprechenden Politikplanung und -ausführung und wissenschaftliche Artikel aus Fachzeitschriften zu allen Forschungsbereichen bzw. politikwissenschaftlicher Methodik und Theorie. Weiter wurden u.a. Veröffentlichungen bzw. relevante Dokumente von Regierungen, Außenministerien, Verteidigungsministerien, Regierungsorganen, Denkfabriken, universitären Forschungszentren sowie der Nato verwendet. Struktur der Arbeit Konkret ist die vorliegende Dissertation in zwei Bände sowie einen Anhangsband unterteilt: Band 1 umfasst Schwerpunkt 1, eine Prozessanalyse unter offensiver neorealistischer Verortung, Band 2 den darauf aufbauenden Schwerpunkt 2, einen Vergleich ("structured focussed comparison") unter defensiver neorealistischer Verortung. Im Anhangsband finden sich ergänzende Ausführungen zu Kapitel 1, Band 1 in Bezug auf den Forschungsstand, Literatur und Quellenlage, theoretische Verortung sowie Wahl des Untersuchungsraumes bzw. ausgewählter europäischer Nato-Partner. Weiter sind ein historisches Kapitel als Voraussetzung zum "process-tracing" in Kapitel 2, Band 1 und ein Abbildungs- und Abkürzungsverzeichnis wie auch ein Literaturverzeichnis enthalten. Insgesamt ermitteln die beiden aufeinander aufbauenden Schwerpunkte mittels qualitativer Methoden das Folgende: Nämlich die übergeordnete amerikanische sicherheitspolitische Reaktion auf eine neue Gesamtbedrohung sowie deren Weiterführung und Legitimierungschance in der Nato im Untersuchungsraum von Clinton bis Obama. Auf Basis des ersten Teils der Hypothese wird in Schwerpunkt 1, Band 1 ein Zusammenhang zwischen der Beibehaltung des bipolaren "US-Grand Strategy"-Ziels amerikanischer Führungs- und Ordnungsmacht sowie bipolarer außenpolitischer "Grand Strategy"-Kennziffern bzw. einer sich komplex entwickelnden neuen Gesamtbedrohung, amerikanischer sicherheitspolitischer Anpassung und der notwendigen Weiterführung in der Nato durch Natotransformation mittels amerikanisch aufgeworfener Natotransformationspositionen hergestellt. In Schwerpunkt 2, Band 2 wird auf Basis des zweiten Teils der Hypothese der transatlantische Aushandlungsprozess zur Etablierung der amerikanisch vorgeschlagenen Natotransformationspositionen in Augenschein genommen: Vor diesem Hintergrund wird überprüft, ob diese tatsächliche Verankerung bzw. Konkretisierung des Ausbaus amerikanischen Vormacht am Widerstand der ausgewählten europäischen Nato-Bündnispartner Frankreich, Deutschland und Großbritannien scheitert. Im Gesamtergebnis zeigt sich, dass aufgrund einer sich entwickelnden komplexen, linear ansteigenden Gesamtbedrohung die Chance zum Ausbau amerikanischer Führungsmacht konstant abnimmt. Dies muss mittels amerikanischer sicherheitspolitischer Anpassung kompensiert werden. Die daher erfolgende amerikanische sicherheitspolitische Neuausrichtung auf Basis der eingeleiteten "Revolution im Militärwesen" modifiziert wiederum die Kennziffern bipolarer kollektiver Sicherheitsgewährleistung. Alles wird mittels tatsächlicher Verankerung der amerikanischen Natotransformationspositionen ermöglicht bzw. legitimiert. Das tatsächliche Erreichen der - die sicherheitspolitische amerikanische Anpassung konsequent weiterführenden - Transformation der Nato ermöglicht eine missionsorientierte, reaktionsbeschleunigende, flexible und globale Sicherheitsprojektion. Außerdem ist die Voraussetzung für "alliances of choice" innerhalb der Nato geschaffen. Weiter zementiert die Modifikation der "bipolaren Nato" die mittels sicherheitspolitischer amerikanischer Anpassung eingeleitete Erosion zentraler zivilisatorischer Errungenschaften bzw. Aufgaben bipolarer kollektiver Sicherheitsgewährleistung unter Vorteilsverringerung europäischer Nato-Bündnispartner. Die tatsächliche Verankerung der Natotransformationspositionen erfolgt mittels der Reaktivierung konventioneller Bedrohung im Kontext der Ukraine-Krise von 2014 und der Erweiterung der Nato-Partnerschaftsringe auf globaler Ebene, ohne diesen den Status eines Nato-Mitgliedsstaates zu gewähren. Damit wird der Bündnisfall nicht globalisiert. Der ausgeübte deutsch-französische Widerstand wird besonders intensiv durch den Einbezug der europäischen Gründungsstaaten befördert, dagegen unterbleibt die Ausbildung einer europäischen Führungstroika durch Frankreich, Deutschland und Großbritannien. Darüber hinaus zeigt insbesondere die entsprechende Ursachenermittlung, dass trotz konstanter, aufeinander aufbauender amerikanischer sicherheitspolitischer Reaktion unter unterschiedlicher Außenwirkung sowie tatsächlicher Weiterführung in der Nato die Gesamtbedrohung nicht langfristig abgebremst wird: Dies führt zu einem konstanten Anstieg der Gesamtbedrohung unter fortlaufendem Einflussverlust staatlicher Akteure bzw. Machtdiffusion und -konzentration samt einer sukzessiven Chancenerhöhung reaktivierter konventioneller, nuklearer, Cyber- und ökologischer Zerstörungsszenarien. Auf dieser Basis entsteht die Konsequenz einer immer umfassenderen und die Reaktion beschleunigende Präzisionsabwehr unter ansteigender Versicherheitlichung, um die kontinuierliche Einengung amerikanischer Vormacht auszugleichen. Dies erzeugt im Fortlauf einen konstanten Abbau der Strahlungs- und Schlagkraft des liberalen, regelbasierten, bipolaren "amerikanischen Systems" sowie der Etablierung "idealistischer, liberaler" "Grand Strategy"-Elemente. Weiter ist damit - auf der Grundlage der aufeinander aufbauenden Natotransformationspositionen sowie Obamas "smart power"(6) im Untersuchungsraum - eine zunehmende Vorteilsverringerung der europäischen Nato-Verbündeten bzw. ein ansteigender Bedarf an US-Kostendämpfung verquickt. Zudem entwickelt sich eine immer geringer werdende Chance zur Entfaltung des postbipolar als "nicht verhandelbar" postulierten und global ausgebreiteten amerikanischen Lebensentwurfes in individueller, innerstaatlicher Ausprägung: Deren Artikulation erfolgt beispielsweise mittels zunehmendem Rechtspopulismus, Wahl von Außenseiterkandidaten, Zerfall traditioneller Parteiensysteme, isolationistischen Tendenzen unter ethnischer, regionaler Erstarkung, und Ablehnung von Supranationalität oder religiösem Fundamentalismus. Gleichzeitig ist die fortlaufende Erosion der globalen öffentlichen Güter identifizierbar. Damit ebnet all das oben Genannte den Boden für die Begrenzung amerikanischer wohlwollender Ordnungsmacht bzw. der Handlungsspielräume staatlicher Akteure - und für die Rückkehr zu klassischer Machtpolitik im Kontext entstandener Machtdiffusion bzw. -konzentration. Dies erschwert angesichts der Dringlichkeit einer langfristigen Eindämmung asymmetrischer bzw. konventioneller Sicherheitsbedrohungsgegenstände, -verstärker, -cluster und globalen Rahmenbedingungen folgende Chance: Nämlich die zu transatlantischer Zusammenarbeit in der Nato unter Wiederbelebung der politischen Organisation derselben sowie Erweiterung auf zusätzliche Ebenen und Akteure im Sinne von Vorbeugung bzw. vernetzter Sicherheit zur Erreichung entsprechender globaler Kooperation in Bezug auf Einhegen der Bedrohungswurzeln. Insgesamt wird durch diese Forschungsarbeit transparent, wie und warum die für den Untersuchungsraum von 1993 bis 2017 antizipierte "Friedensdividende" und das durch Präsident Clinton postulierte "age of hope" kaum spürbar wurden. Fußnoten (1) Vgl. Braml, Josef (2018), Trumps transaktionaler Transatlantizismus, in: Jäger, Thomas (Hrsg.), Zeitschrift für Außen- und Sicherheitspolitik, Oktober 2018, Volume 11, Ausgabe 4, S. 439-448, Wiesbaden. (2) Vgl. National Intelligence Council (Hrsg.) (2012), Global Trends 2013: Alternative Worlds (NIC 2012-001), https://publicintelligence.net/global-trends-2030/, letzter Zugriff: 12.04.19. Vgl. dazu auch das "international financial leadership, self-selected at Davos" bei McCoy, Alfred W. (2017), In the Shadows of the American Century. The Rise and Decline of US Global Power, Chicago. (3) Vgl. zu Bedrohungsverstärkern beispielsweise Mazo, Jeffrey (2010), Climate Conflict. How global warming threatens security and what to do about it, London, Abingdon. 1990 wurde bereits in Bezug auf den Bedrohungsverstärker Klimawandel für die entstehenden asymmetrischen bzw. konventionellen Bedrohungsgegenstände komplexe Cluster konstatiert: "Over the next half century, the global average temperature may increase by approximately 4 degrees C. (…) All nations will be affected. (…) How much time will there be to confirm the amount of change and then to act? (…) However, many believe that we will have waited too lang to avoid major dislocation, hardship and conflict - on a scale not as yet seen by man". Vgl. Kelley, Terry P. (1990), Global Climate Change. Implications For The United States Navy (The United States Naval War College, Newport, RI), http://documents.theblackvault.com/documents/weather/climatechange/globalclimatechange-navy.pdf, letzter Zugriff: 30.03.19. Dies lässt Hinweise auf die sich entwickelnde, konstant ansteigende Gesamtbedrohung im Untersuchungsraum von 1993-2017 zu. (4) Vgl. Schlesinger, Arthur M., Jr. (1973), The Imperial Presidency, Boston. (5) Die amerikanisch vorgeschlagenen Positionen zur Anpassung der Nato, die Nato Response Force sowie die Global Partnership Initiative, werden als "Natotransformationspositionen" bezeichnet: Mit deren tatsächlicher Etablierung war eine Transformation der Nato in konsequenter Weiterführung amerikanisch erfolgter sicherheitspolitischer Anpassung verknüpft. (6) Smart power geht auf Suzanne Nossel, Mitarbeiterin des UN-Botschafters Holbrooke während der Clinton-Administration, zurück: Vgl. Nossel, Suzanne (2004), Smart Power. Reclaiming Liberal Internationalism, http://www.democracyarsenal.org/SmartPowerFA.pdf, letzter Zugriff: 26.08.17. Weiter wird er Joseph Nye im Jahre 2003 als Reaktion auf die unilaterale Konzentration auf das militärische Instrument der G.W. Bush–Ära zugeschrieben. Vgl. Nye, Joseph S. Jr. (2011), The Future of Power, New York bzw. Nye, Joseph S. Jr. (2011), Macht im 21sten Jahrhundert. Politische Strategien für ein neues Zeitalter, München. Vgl. Rodham Clinton, Hillary (2010), Leading Through Civilan Power. Redefining American Diplomacy and Development, in: Foreign Affairs, November/December 2010, Vol. 89, No.6, S. 13-24. ; Aims and findings of the dissertation The completed research uses holistic, politological and historical approaches to present how, during the studied period of the administrations of Clinton to Obama, the liberal, rule-based world order system is gradually supplemented and replaced by a system of realist imposition of vital interests that have short-term effects, preferring military means combined with continuous military optimisation. This also explains a continuity between the leading-power policy of administrations in this study (1993-2017) and the subsequent period of the "transactional leadership of Trump"(1), with its recognizable, far-reaching effects of aiming to reduce idealistic Grand Strategy elements and measures of a benevolent order by passing on costs to and reducing the benefits of European NATO allies. The results of this dissertation, such as the increasingly evident dissolution of a multilateral fundamental order, therefore indicate that Trump's foreign and security policy to date should be regarded as a clearly noticeable crisis symptom, rather than the cause of a decline in the world order established after 1945. This decline is synonymous with the erosion of the transatlantically initiated bipolar "American system". Its implementation was the result of the "lesson of two world wars", based on modern concepts of order introduced by the Enlightenment and the founding criteria of the United States: thus its dissolution is also an indicator of the failure of contemporary criteria of order that thrive in the "American way of life". The cause of the described development is shown to be a constantly exacerbating overall threat, from Clinton to Obama, which is connected to the consistent erosion of US supremacy. Among other aspects, this is based on climate change effects postulated in 1979, which multiply the threat while coinciding with American peak production of fossil fuels and increased demand on resources in the context of dwindling raw material resources. Furthermore, during the period of this study, the "US conservative revolution", which began in the 1980s, increasingly affected foreign and security policy, combining with a consolidation in the influence of corporations and lobby groups in fields such as policy implementation and new underlying conditions. They include the onset of digitisation, entailing a high consumption of resources, and a growing world population faced with specific demographic indicators. Additionally, the maintenance of the armaments sector, originally a result of bipolar development, as the economic basis of military supremacy and the slow decline of the Dollar hegemony since around 1973, should also be taken into account. Complex interaction between Grand Strategy implementation according to the premise of expanding US-American dominance under neoconservative and Christian Right-wing influences, as well as asymmetrical and reactivated conventional security threats and threat multipliers clearly indicate the linear development of the overall threat in the period between 1993 and 2017: in the context of Grand Strategy statements, above all the understanding of defence against this threat, of the latter's multiplying factors and the market economy explains the following with respect to the US far-right in a complex interaction with the growth of transnational corporations, lobby groups, individuals(2), informal networks and state actors with respect to objects of threat and threat multipliers(3) in connection with the post-bipolar, global anchoring of US economic and consumer patterns: US adaptation of its reaction to this threat – while consolidating imperial presidency(4) and weakening the system of checks and balances – including its implications of a bipolar liberal order. In this way, the necessary continued leadership within NATO through the US-proposed NATO reform can be seen as an appropriate implementation of transformed threat-reaction measures and the legitimisation of systemic adaptation. It equally becomes clear that the established threat reaction measures only provide a short-term defence: instead, they enhance the asymmetric and conventional threat, as well as threat multipliers – by introducing arms races and breaking down arms control – thereby heightening the overall threat. The consequence is the consistently growing likelihood of a conflict of hitherto unimaginable proportions. At the same time, the urgent need to mobilise transatlantic cooperation with respect to supporting global cooperation between state and non-government actors is illustrated with respect to the roots of the threat and its deteriorating underlying conditions: each increase in the overall threat, the adapted US security policy and its continuation in NATO is connected to an erosion of rule-based underlying criteria during the studied period. This continuously and consistently undermines the basis of the above-stated, ever-increasingly important cooperation, to prevent or at least limit the successive erosion of the bipolar "American system" under future dystopias. The research results completely overturn the state of research to date, since for instance it is possible to show that, by means of NATO transformation findings, no transatlantic sharing of burdens on an equal footing and no NATO reform in accordance with its founding principles can be achieved. The same also applies to European opposition to the actual anchoring of NATO transformation positions(5), which is based on the erosion of the bipolar liberal order system and the maintenance of US advantages as well as the consolidation of particular interests they facilitate. Furthermore, it is apparent that a line of continuity in the threat-reaction measures from Clinton to Obama exists with varying external effects, along with an underlying pattern of "Battleship America" – as opposed to a multilaterally orientated foreign and security policy under Clinton, which merged into a unilateral, radical swing under G. W. Bush 43 following 9/11, but was reverted by the Obama administration. A comprehensive wealth of literature was used of the doctoral thesis, as reflected by the extensive bibliography: they firstly include diverse American and European publications, monographs and relevant secondary literature, including biographies, publications of various kinds of important political planning and implementation, as well as collected volumes and research articles from specialist journals on all fields of research and politological methodology and theory. The same applies to publications by leading European and American institutions, research centres and think tanks. Furthermore, this author used publications and documents by governments, foreign ministries, defence ministries, other government bodies and Nato. Dissertation structure This dissertation is divided into two volumes and one Appendix: Volume 1 discusses Focus 1, namely a process-tracing in the context of offensive neorealist positioning. Volume 2 presents Focus 2, which is based on the preceding focus in making a structured, focussed comparison in the context of defensive neorealist positioning. The Appendix volume contains further discussion of Chapter 1, Volume 1 with respect to the state of research, literature and sources, theoretical positioning and the choice of the region of study and selected European NATO partners. Furthermore, a historical chapter provides underlying information for process-tracing in Chapter 2, Volume 1, an index of images and abbreviations, and a bibliography. The entire dissertation uses qualitative methods to focus on these two mutually supporting, building on each other, themes to investigate the following from a US-perspective: firstly the overriding US security-policy reaction to a new overall threat and secondly, its continuation combined with the opportunity of for enabling and legitimising it within and through NATO during the studied period from Clinton to Obama. Based on the first part of this hypothesis, Focus 1 (Volume 1) establishes a connection between, on the one hand, maintaining the bipolar Grand Strategy target of consolidating the USA as a leading, regulating power, bipolar foreign-policy Grand Strategy indicators and a new overall threat that is developing in a complex way, and, on the other, the necessity of its continued leadership within NATO and the required NATO transformation according to US-proposed NATO transformation positions. Focus 2 (Volume 2) is based on the second part of the hypothesis, investigating the transatlantic negotiation process to establish these US-proposed NATO transformation positions: in this context, Volume 2 investigates whether the attempt to actually secure and consolidate such US supremacy was unsuccessful in the face of resistance from selected European NATO partners, namely France, Germany and the United Kingdom. The overall result shows that due to a complex, developing, linear increase in the overall threat, the chance for the USA to consolidate its status as a leading power is steadily diminishing. This must be compensated by adapting US security policy. The resulting American security-policy realignment based on the initiated "revolution in military affairs" in turn modifies the indicators of bipolar collective security guarantees. Everything is enabled and legitimised by means of actually securing US NATO-transformation positions. The actual implementation of such NATO transformation – representing the consistent adaptation of US security policy – enables a mission-orientated, rapid response, flexible, global security projection. It also creates conditions for "alliances of choice" within NATO. Furthermore, the modification of a "bipolar NATO" exacerbates the erosion of key achievements of civilisation as a result of adapted US security policy, as well as undermining the tasks of bipolar collective security guarantees through diminished benefits to European NATO partners. The actual anchoring of NATO transformation positions is achieved by reactivating the conventional threat in the context of the Ukraine crisis of 2014 and the extension of NATO partnership rings on a global level, without providing them with NATO membership status, thus avoiding globalisation in a mutual defence case. The German and French resistance is particularly intensive through the involvement of European founder states, while the formation of a European leadership triumvirate consisting of France, Germany and the United Kingdom does not take place. Moreover, a relevant investigation of causes particularly shows that despite constant mutually supporting US security reaction measures with varying international effects and actual continued leadership within NATO, the overall threat is not receding: this leads to a constant increase in the overall threat, a loss of influence of state actors, the diffusion and concentration of power and the increased probability of reactive conventional, nuclear, cyber and ecological destruction scenarios. On this basis, the consequence is an increasingly comprehensive and rapidly responding precision defence combined with growing securitization to compensate for the ongoing containment of US supremacy. This developing process steadily diminishes the reach and power of a liberal, rule-based, bipolar "American system" and the establishment of "idealistic, liberal" elements of US-Grand Strategy. This entails a further reduction in benefits for European NATO allies and increasing US cost-cutting demands – based on the successive NATO transformation positions that build on each other and Obama's "smart power"(6) during the period studied in this dissertation. Thus the chance is receding of developing the post-bipolar, globally adopted American way of life with individual national character, which is regarded as "non-negotiable": for instance its articulation is expressed through increasing right-wing populism, the election of outsider-candidates, the dissolution of traditional party systems, isolationist tendencies combined with burgeoning ethnic, regional movements, the rejection of supranationalism, and religious fundamentalism. At the same time, the ongoing erosion of global public goods is apparent. This all paves the way to limiting the benevolent American regulating power and state actors' leverage – and therefore to a return to classic power politics in the context of a resulting diffusion and concentration of power. In view of the urgency of a long-term containment of asymmetrical or conventional threats to security, or aspects that exacerbate such threats or clusters thereof, as well as underlying global conditions, this undermines the ability to achieve the following: to achieve transatlantic cooperation by broadening the range of levels and actors in the spirit of proactive and expanded, networked security to achieve according global cooperation with respect to containing the root causes of threats. Overall, this research work reveals how and why the anticipated "peace dividend" and the notion of an "age of hope", as postulated by President Clinton, were hardly perceptible during the period of study between 1993 and 2017. Notes (1) Cf. Braml, Josef (2018), Trumps transaktionaler Transatlantizismus, in: Jäger, Thomas (Hrsg.), Zeitschrift für Außen- und Sicherheitspolitik, Oktober 2018, Volume 11, Ausgabe 4, S. 439-448, Wiesbaden. (2) Cf. National Intelligence Council (Ed.) (2012), Global Trends 2013: Alternative Worlds (NIC 2012-001), https://publicintelligence.net/global-trends-2030/, last accessed: 12.04.19. See also the "international financial leadership, self-selected at Davos" cit. McCoy, Alfred W. (2017), In the Shadows of the American Century. The Rise and Decline of US Global Power, Chicago. (3) In 1990, the threat-enhancing nature of climate change was already postulated with respect to asymmetric objects of threat as well as conventional and complex clusters: "Over the next half century, the global average temperature may increase by approximately 4 degrees C. (…) All nations will be affected. (…) How much time will there be to confirm the amount of change and then to act? (…) However, many believe that we will have waited too long to avoid major dislocation, hardship and conflict – on a scale not as yet seen by man". Cf. Kelley, Terry P. (1990), Global Climate Change. Implications For The United States Navy (The United States Naval War College, Newport, RI), http://documents.theblackvault.com/documents/weather/climatechange/globalclimatechange-navy.pdf, last accessed: 30.03.19. Cf. Mazo, Jeffrey (2010), Climate Conflict. How global warming threatens security and what to do about it, London, Abingdon. This supports the thesis of a developing, constant overall threat during the period between 1993 and 2017. (4) Cf. Schlesinger, Arthur M., Jr. (1973), The Imperial Presidency, Boston. (5) In this dissertation, the proposed US positions on NATO adaptation, the NATO Response Force and the Global Partnership Initiative are described as "NATO transformation positions": Their actual establishment was connected to a NATO transformation with the consistent continuation of adapted US security policy. (6) Cf. Nossel, Suzanne (2004), Smart Power. Reclaiming Liberal Internationalism, http://www.democracyarsenal.org/SmartPowerFA.pdf, last accessed: 26.08.17, Nye, Joseph S. Jr. (2011), The Future of Power, New York, Nye, Joseph S. Jr. (2011), Macht im 21sten Jahrhundert. Politische Strategien für ein neues Zeitalter, München, Rodham Clinton, Hillary (2010), Leading Through Civilan Power. Redefining American Diplomacy and Development, in: Foreign Affairs, November/December 2010, Vol. 89, No.6, S. 13-24.