Die vorliegende Dissertation untersucht die Wechselwirkungen zwischen Medienberichterstattung über Inflation und den Inflationserwartungen von Haushalten. Seit dem Beginn der 2000er Jahre sind einige Modelle zur Überwindung der Grenzen von rationalen Erwartungen vorgeschlagen worden. Diese geben eine wichtige Annahme des rationalen Erwartungsbildungsparadigmas auf, wonach Haushalte immer alle aktuell verfügbaren Informationen verwenden um Einschätzungen über die Zukunft vorzunehmen. In dieser Dissertation testen wir daher, auf welche Informationen sich Haushalte beziehen wenn sie Erwartungen über die zukünftige Inflation bilden, wobei ein besonderes Augenmerk auf die Rolle der Medien gelegt wird. Zu Beginn untersuchen wir das bekannte Epidemiologie-Modell der Erwartungsbildung. Mit Hilfe von Umfragedaten zu Inflationserwartungen in den USA, sowie Daten zur Medienberichterstattung über Inflation in der New York Times zeigen wir, dass das Modell durchaus von den Daten gestützt wird. Haushalte passen ihre Erwartungen an die Meinungen von Experten an, wobei die Anpassungsgeschwindigkeit mit der Anzahl der Medienberichte ansteigt. Außerdem ist die Anpassungsgeschwindigkeit nicht immer gleich: Haushalte beziehen sich stärker auf Experten in Zeiten niedriger Inflation sowie während der Finanzkrise. Darüber hinaus können wir zeigen, dass sich auf der Mikroebene stärkere Medieneffekte finden lassen. Unterscheidet man Haushalte nach ihrer individuellen Informationswahrnehmungen, so lässt sich feststellen, dass Individuen die angeben, zuletzt Neuigkeiten über Inflation gehört zu haben, einem größeren Prognosefehler unterliegen und außerdem stärker auf Medienberichte reagieren. Außerdem scheint der Medieneffekt nichtlinear zu sein: Mit steigender Anzahl an Medienberichten über Inflation erhöht sich der Einfluss der Experten auf die Erwartungsbildung der Haushalte, wobei die Anpassung nur langsam von statten geht und vom durchschnittlichen Niveau der Berichterstattung abhängt. Im nächsten Kapitel wird das Epidemiologie-Modell auf verschiedene Haushaltsgruppen und Medien angewandt. Unter Verwendung von deutschen Daten versuchen wir ein wiederkehrendes Muster in Umfragen zu erklären, wonach sich die Inflationserwartungen je nach sozioökonomischem Hintergrund der Befragten unterscheiden. Zum Beispiel ist oft zu beobachten, dass Niedrigeinkommensbezieher größere Prognosefehler begehen. Wir testen ob sich dieses Muster dadurch erklären lässt, dass sich der Medienkonsum verschiedener Haushaltsgruppen unterscheidet. Wir können zeigen, dass sich der Medienkonsum in der Tat zwischen Einkommens-, Alters- und Berufsgruppen unterscheidet. Außerdem belegen wir, dass die Verwendung eines aus mehreren Einzelmedien aggregierten Medienindex irreführend sein kann. Berichterstattung über Inflation in der Tagesschau führt dazu, dass Haushalte in ihren Erwartungen stärker von Experten abweichen, während eine Ausweitung der Berichterstattung in BILD die Haushaltserwartungen den Expertenprognosen annähert. Schließlich ist es wichtig, zwischen der Anzahl an Medienberichten und einer Veränderung in der Einschätzung der verantwortlichen Journalisten zu unterscheiden. Während sich die Erwartungslücke der Haushalte erhöht wenn BILD die Inflationsentwicklung stark negativ darstellt, so führt eine negativere Berichterstattung in der Tagesschau dazu, dass sich die Haushaltserwartungen den Experten annähern. Im letzten Kapitel erweitern wir den Ansatz des Epidemiologie-Modells indem wir die Anzahl der Googlesuchanfragen nach Inflation einbeziehen. Googlesuchanfragen können als Proxy für die Informationsnachfrage von Nutzern interpretiert werden, wenn Haushalte dann im Internet nach Informationen suchen wenn sie mehr über die derzeitige oder zukünftige Preisentwicklung wissen wollen. Internetsuchdaten lassen sich daneben auch als Ergänzung zu durch Umfragen gemessenen Inflationserwartungen verstehen. Während Umfrageteilnehmer keinen Anreiz haben, ihre bestmögliche Inflationsschätzung anzugeben, so werden Haushalte nur nach Informationen im Internet suchen, wenn sie diese auch wirklich nutzen wollen. Wir zeigen dass die Anzahl der Googlesuchanfragen auf ökonomische Fundamentaldaten reagiert. Googlenutzer unterscheiden zwischen Gesamt- und Kerninflationsrate wobei ihre Reaktion asymmetrisch ist: Die Informationsnachfrage geht zurück wenn die Kernrate fällt, während in Zeiten historisch hoher Inflation die Informationsnachfrage ansteigt. Mittels VAR-Modellen finden wir, dass die Inflationserwartungen von Haushalten sowohl von TV-Nachrichten, Zeitungsartikeln als auch von der Zahl der Googlesuchanfragen abhängen, während der Feedbackeffekt von Erwartungen auf die Informationsnachfrage eher gering ist. Ungefähr 20% der prognostizierten Fehlerdekomposition der Inflationserwartungen lassen sich durch Googlesuchanfragen erklären. ; This dissertation explores the various links between news media coverage of inflation and the inflation expectations of households. Since the beginning of 2000, a number of alternative models of expectation formation have been proposed seeking to overcome the limits of rational expectations. A common feature of these new approaches consists in relaxing an important assumption of the rational expectations paradigm: that households use the latest available information set when forming beliefs about the future. Throughout this dissertation, we will thus test which kind of information households rely on when forecasting inflation, focusing in particular on the role of the news media. We start with testing the prominent epidemiology model of expectation formation. Using survey data on inflation expectations in the U.S., and news coverage of inflation in The New York Times, we provide empirical evidence supporting the epidemiology model. Households are found to adjust their beliefs to the average inflation forecast of experts, whereas the speed of adjustment rises in line with the number of news reports on inflation. The speed of updating varies significantly over time: households rely more on experts in periods of low inflation and during economic crises. Applying our analysis using both macro and micro survey data on expectations, we find that the news media effect is larger on the micro level. Looking at households with different news perceptions, we find that those who claim to have heard news on inflation commit larger forecast errors than other households while at the same time being more receptive to media reports. Finally, our results suggest that the media effect is nonlinear: An increasing number of news reports increases the impact from expert expectations, whereas the adjustment takes place only gradually and depends on a threshold level of news reports. The next chapter applies the framework of the epidemiology model to different household groups and news media sources. Using German data, we try to explain the stylized fact that households disagree considerably in their beliefs on future prices depending on their socioeconomic background. For example, low-income or unemployed households are often found to commit larger forecaster errors than high-income households. We test the hypothesis that these differences emerge from socioeconomic news exposure, meaning that households belonging to different socioeconomic groups read different newspapers. And since the media differ in the extent and the way they cover economic topics such as inflation, the information set of their corresponding readers will differ. Constructing an index of newspaper coverage and TV coverage, we indeed observe considerable heterogeneity in news consumption across income, age and occupation groups. Furthermore, we find that constructing an index of news reports by aggregating all available newspaper and TV reports can be misleading. Coverage of inflation in Tagesschau is found to increase the gap between households and professional forecasters, while a rising number of articles published in BILD brings households closer to the best available forecast. Finally, it is important to distinguish between the effects of a rise in the number of news reports and a change in the journalists' judgment of inflation. Whereas households' expectation gaps increase if BILD presents inflation in a negative way thereby possibly inducing a media bias, more negative coverage in Tagesschau narrows the gap between households and professional forecasters. In the final chapter, we extend the framework of the epidemiology model by including the number of Google search requests of inflation. This measure can be understood as a proxy for the demand of information in the sense that households will search for inflation on the web if they need do know more about the current or future price environment. Internet search data could also serve as a complement to inflation expectations measured by surveys. Whereas survey respondents do not have an incentive to provide their best forecast, households will only search for inflation if they really want to use this information. We find that the number of Google search requests reacts in a meaningful way to fundamental economic data. Google users distinguish between headline and core inflation and they react asymmetrically: the demand for information increases if core inflation falls whereas in periods of historically high inflation rates, the number of search requests is significantly larger. Estimating various Vector Autoregressive Models, we find that households' inflation forecasts are driven by TV reports, newspaper articles, and Google search requests, while the feedback effect from expectations on web searches is rather small and estimated less precisely. About 20% of the forecast error variance decomposition of households' inflation expectations can be explained by Google search requests.
Inhaltsangabe: Einleitung: Das Elbehochwasser im August 2002 war kein medial zur Katastrophe hochgespieltes Ereignis. Es war tatsächlich das höchste je gemessene, ebenso wie die Niederschläge die höchsten seit Beginn der Messungen waren und an die Grenze des maximal möglichen Niederschlags heran kamen. International gespiegelt finden sicherlich auch größere Flutkatastrophen statt und das nicht nur in Entwicklungsländern. Man denke an die schweren Überschwemmungen in der indonesischen Hauptstadt Jakarta zur Jahreswende 2006/2007. Hier war auch wieder die Tsunami-Region Banda-Aceh betroffen, aber die öffentliche Anteilnahme und die Wahrnehmung in den Medien waren diesmal weit weniger intensiv. Im Juli 2007 finden große Hochwasserereignisse in China, Indien, Nepal und Südafrika statt - in den ersten zwei Ländern mit hunderten von Toten. Beim sich gleichzeitig ereignendem Hochwasser in Großbritannien ist nicht von der "ganz großen" Katastrophe die Rede, es gibt bis dato kaum Bilder bedrückender Schäden oder Schicksale (Berichterstattung meist auf den Rückseiten der Zeitungen unter der Rubrik "Aus aller Welt"), obwohl das räumliche Ausmaß ähnlich groß zu sein scheint wie beim Sommerhochwassers (SHW) 2002 in Sachsen (hier war es das bestimmende Hauptthema in allen Medien). Warum war dieses "Jahrtausendhochwasser" auch in allen offiziellen politischen Bekundungen und wissenschaftlichen Publikationen die größte je da gewesene Katastrophe? Warum gingen die Bilder vom überfluteten Dresden und zerstörten Grimma rings um die Welt und lösten überall Erschütterung aus, während wir die Fernsehbilder vom Elend überschwemmter Millionenstädte wie Jakarta oder von beschaulichen englischen Grafschaften in unverhofften "Seenlandschaften" eher wegstecken? Einige Interviewpartner der durchgeführten empirischen Untersuchung dieser Arbeit waren zum Zeitpunkt des Sommerhochwassers (SHW) 2002 im Urlaub und konnten - unabhängig davon, wo sie waren - leicht mitbekommen, was in ihrer Heimatstadt (bzw. Arbeitsplatz) Dresden geschah. Einer berichtete davon, dass ihm Verwandte aus den USA anriefen und fragten: "was ist denn bei Euch los"? Gerade die USA haben erheblich mit immer wiederkehrenden Naturkatastrophen zu kämpfen und gehen meist eher routiniert damit um. Diese einführenden Worte sollen die Veranlassung zur Beschäftigung mit diesem Thema herausstellen. Der Verfasser dieser Arbeit war selbst emotional sehr berührt von der Hochwasserkatastrophe 2002 in Dresden und hat sich nach dem erneuten Ereignis des Frühjahrshochwassers 2006 gefragt, was seither im Hochwasserschutz geschehen war. Ausgehend von dem katastrophalen Schadensereignis des Sommerhochwassers (SHW) 2002 in Sachsen und insbesondere in Dresden zum einem und einem erneuten weniger stark schädigenden Hochwasserereignis des Frühjahrshochwassers (FHW) 2006 zum anderen interessierten den Verfasser der Arbeit folgende Untersuchungsfragen: Hat die Anpassung der Planungsinstrumente als Konsequenz der Flutkatastrophe 2002 zu einer wirksamen Flächenvorsorge der Stadt Dresden geführt? Welche Rolle spielten dabei die Wahrnehmung und Motive von Entscheidungsträgern und Experten? Das heißt: Wie wurden mögliche planerische Instrumente infolge der Wahrnehmung und Bewertung der Entscheidungsträger angepasst und umgesetzt (Raumwirksamkeit) bzw. angewendet (Implementierung)? Gang der Untersuchung: Der Aufbau der Arbeit stellt sich wie folgt dar: Im Theorieteil werden die wissenschaftlichen Grundlagen für die empirische Untersuchung dargestellt. Da gerade die Interviewauswertung im empirischen Teil sehr viel Umfang einnimmt, konnte im theoretischen Teil weit weniger tief als beabsichtigt in die verarbeitete Literatur eingestiegen werden. Bei der Behandlung der Kapitel 1 bis 3 werden zwei Schwerpunkte gelegt: auf die geographischen und sozialwissenschaftlichen Grundlagen der Wahrnehmungs-, Verhaltens- und Handlungsforschung (Kap. 1 + 2) sowie auf die interdisziplinäre Risikoforschung mit dem Kernpunkt der geographischen Hazard-Forschung (Kap. 3). Nach der jeweiligen Darstellung der Grundlagen werden bei beiden Schwerpunkten ausgewählte Modelle vorgestellt: unter 2.3 die klassischen geographischen Verhaltens- u. Handlungsmodelle sowie psychologische Spezialmodelle und unter 3.4 Modelle für ein Risikomanagement als Anpassungsmodelle für Naturkatastrophen auf der Mikroebene individueller Entscheidungen und auf der Makroebene als Elemente des gesamten Raumplanungsprozesses. Die interdisziplinäre Risikoforschung (oder auch: Sicherheitsforschung) wird hier mit dem Anliegen der konkreten Implementierung und Umsetzung behandelt: welche räumlichen Auswirkungen haben Entscheidungen und Handlungen im Risikomanagementprozess? Davon getrennt wird als vorgeschalteter Bewusstseinsbereich das Kap. 1 der Wahrnehmung und Bewertung von Naturrisiken. Kap. 4 behandelt die Flächenvorsorge als zentrales Erkenntnisinteresse in Form von rechtlichen Grundlagen und möglichen raumplanerischen Maßnahmen sowie der Vorstellung eines Indikatorensystems zur nachhaltigen Entwicklung, um es im Empirie-Teil anzuwenden. Im Kap. 5 wird auf die Hypothesen für die Untersuchung hingeführt. Der III. Hauptteil oder empirische Teil orientiert sich inhaltlich ab Kap. 2 am theoretischen II. Hauptteil. Nur das Kap. 1 unterscheidet sich davon, weil es die Methodik und Operationalisierung der empirischen Untersuchung vorstellt und den Untersuchungsraum des Fallbeispiels portraitiert. Ein vorausgesetztes Allgemeinwissen soll hier eine klassische geographische Einführung in den Untersuchungsraum ersetzen, da auch diese den Rahmen sprengen würde. Die Lektüre aktueller Tagesnachrichten zum Thema ist durch die Online-Ausgaben regionaler und lokaler Medien3 möglich. Im Kap. 2 wird die Interviewauswertung gemäß dem sich durch die gesamte Arbeit ziehenden Viererschrittes: Wahrnehmung - Bewertung - Entscheidung - Handeln vorgenommen. Dabei fand eine nach Kenntnisstand des Autors innovative Verknüpfung der ersten zwei Teilschritte (Wahrnehmung + Bewertung) zu Bewusstsein und der letzten zwei Teilschritte (Entscheidung + Handeln) zu Verhalten im Sinne von Implementierung (Anwendung) und Umsetzung (Raumwirksamkeit) statt. In der sozialgeographischen Aktionsraumforschung geht es nach Werlen um das "Alltägliche Geographiemachen" - hier aber nicht im Sinne der lebensweltlichen (aktionsräumlichen) Raumnutzung, sondern im Sinne des Berufsalltags der befragten Experten, Forscher, Behördenvertreter und Politiker. Das Empirie-Kapitel III.2 gliedert sich sinngemäß in der selben inhaltlichen Reihenfolge wie die Theorie-Kapitel II.1 und II.2. Auch unter II.3.4 werden Risikomanagement-Modelle vorgestellt, die den sozialwissenschaftlichen Viererschritt der klassischen Raum-Verhaltens- und Handlungsmodelle enthalten und aber auch darüber hinaus gehen. Das Empirie-Kapitel III.3 gliedert sich in Strategien, Anpassungen in der Planung und durchgeführte Maßnahmen. Dabei entspricht es mit dem Anliegen des praktischen Risikomanagements dem der theoretischen Risikoforschung im Theoriekapitel II.3. Zwei Kapitel der übergeordneten Landes- und Regionalplanung wurden als Anlagen I und J in den Anhang ausgelagert, da sie sich nicht direkt mit dem kommunalen Hochwasserrisikomanagement befassen, wohl aber großen Einfluss darauf haben. Das Kap. 4 behandelt wiederum den zentralen Untersuchungsbereich der Flächenvorsorge in Form einer historischen Analyse, Betrachtung der städtebaulichen Entwicklung/Flächennutzungsplanung, einer Medienauswertung und der Anwendung des Indikatorensystems zur nachhaltigen Entwicklung. Sodann werden im Kapitel 5 die Ergebnisse der verschiedenen angewandten methodischen Komponenten zusammengeführt, was zu einem Vergleich des Hochwasserrisikomanagements der Stadt Dresden 2002 und 2006 (Ereignisse SHW 2002 und FHW 2006) führt.Inhaltsverzeichnis:Inhaltsverzeichnis: AbbildungsverzeichnisIII TabellenverzeichnisX AbkürzungsverzeichnisXI I.Einleitung1 1Anlass und Forschungsinteresse1 2Vorgehensweise und Aufbau der Arbeit3 II.Theoretischer Teil9 1Wahrnehmung und Bewertung von Naturrisiken9 2Verhaltenstheorie, Entscheidungs- und Handlungsmodelle16 2.1Einflussfaktoren auf Entscheidungen16 2.2Handlungsorientierte Geographie: Intentionalität für raumrelevantes Verhalten18 2.3Verhaltens- und Handlungsmodelle20 3Interdisziplinäre Risikoforschung - Risikomanagement – Risikokultur24 3.1Interdisziplinäre Risikoforschung24 3.2Phasen des Risikomanagements25 3.3Entwicklung einer Risikokultur28 3.4Raumplanung und Risikomanagement29 4.Flächenvorsorge35 4.1Rechtliche Grundlagen und (mögliche) raumplanerische Instrumente (Maßnahmen)35 4.2Indikatorensystem zur nachhaltigen Entwicklung und Klimaveränderung40 5Hypothesenformulierung46 III.Empirischer Teil48 1Methoden zur empirischen Untersuchung im Fallbeispiel48 1.1Beschreibung Fallbeispiel: Dresden – Hochwasserereignisse48 1.2Auswertung der Interviews - Methodik und Reflexion55 1.3Darstellung der planerischen Anpassung und Umsetzung - Dokumentenanalyse Geländebeobachtung63 2.Erklärungen für das Verhalten der Entscheidungsträger - Auswertung der Interviews64 2.1Erklärungen zur Wahrnehmung von Hochwasserrisiken65 2.2Erklärungen zu Bewertungen von Hochwasserrisiken82 2.3Erklärungen zu Entscheidungen zur Anpassung an Hochwasserrisiken98 2.4Erklärungen zum Handeln zur Anpassung an Hochwasserrisiken120 3Reaktionen auf das Hochwasserereignis 2002 in Planung Politik – Dokumentenanalyse134 3.1Strategien in Forschung und Politik: Initiativen, Institutionen und Organisationen134 3.2Anpassung der planerischen Instrumente für das Hochwasserrisikomanagement138 3.2.1Städtische Umweltplanung und kommunales Hochwasserrisikomanagement138 3.2.2Kartenwerke153 3.3Durchgeführte Maßnahmen nach 2002 - Kommunalplanerische Umsetzung (Bauleitplanung)167 4.Darstellung der Flächenvorsorge für Dresden186 4.1Historische Analyse – Flusslaufveränderungen186 4.2Städtebauliche Entwicklung – Flächennutzungsplanung196 4.3Medienauswertung199 4.4Indikatorensystem zur nachhaltigen Entwicklung208 5.Zusammenführung der Ergebnisse - Vergleich Hochwasserrisikomanagement 2002 und 2006/7213 IV.Fazit223 Verzeichnis der Literatur, Internetquellen, Archivmaterialen und Bebauungspläne232Textprobe:Textprobe: Kapitel 4.2, Städtebauliche Entwicklung – Flächennutzungsplanung: Über die Instrumente der Bauleitplanung und der Landschaftsplanung können wesentliche Beiträge zum vorbeugenden Hochwasserschutz geleistet werden zur Retentionsraumsicherung und -erweiterung, zum Rückhalt von Niederschlagswasser in der Fläche und zur Verringerung des Schadenspotenzials. Im Flächennutzungsplan bestehen Möglichkeiten der indirekten Integration über 'nachrichtliche Übernahmen' und 'Kennzeichnungen' sowie 'aktive' Darstellungsmöglichkeiten. Im derzeit aufzustellenden neuen Flächennutzungsplan der Stadt Dresden sollen u. a. die Freihalteflächen für den Hochwasserschutz dargestellt werden. Als ein Faktor, der die Erarbeitung eines neuen FNP erforderte, werden im Internetauftritt der Landeshauptstadt die Auswirkungen des SHW 2002 genannt. Im aktuellen FNP (1999) wird lediglich textlich unter Punkt Gewässer- und Bodenschutz erwähnt, dass der Hochwasserschutz zu gewährleisten ist und zeichnerisch ist die Hochwasserlinie des HQ100 mit Stand vom 11. Mai 2000 im Gesamtplan eingetragen (aufgrund der Überlagerung und Enge vieler Signaturen nur schwer erkennbar) sowie als Flächensignatur im Beiplan 7.4 Umwelt-Wasser. Als neues Instrument kann bei Plänen und Programmen, von denen erhebliche Umweltauswirkungen ausgehen können, sowie als Prozess für die Risikoabschätzung von Naturgefahren die Strategische Umweltprüfung (SUP) angewandt werden. In der Flächennutzungsplanung beim Dresdner Stadtplanungsamt wird das auch schon unter Einbezug des Hochwasserschutzaspektes versucht. Ein Vortest für ein solches Verfahren fand für das Stadtentwicklungsprojekt Leipziger Vorstadt/Alter Neustädter Hafen statt. Nach Auskunft der Vorbereitenden Bauleitplanung ist dies nicht gelungen, weil es sehr schwierig war, alle Belange zu berücksichtigen und Aussagen zum Hochwasseraspekt nicht vollständig vorhanden waren. Auch wenn es in diesem Fall fehlgeschlagen ist, wäre genau dies praktiziertes Hochwasserrisikomanagement. Durch die Landeshauptstadt Dresden wurde es praktiziert, aufgetretene Konflikte zwischen Freihaltung des Überschwemmungsgebietes und baulichen Nutzungsansprüchen sowohl im Flächennutzungsplan als auch in der Rechtsverordnung zum Überschwemmungsgebiet zu dokumentieren und Lösungsstrategien der Bauleitplanung aufzuzeigen. Die Konfliktlösung beginnt im Bebauungsplanverfahren durch eine Überprüfung der Betroffenheit des Baugebietes durch ein 100-jährliches Überschwemmungsereignis. Dann werden Regelungen erarbeitet wie die Verlagerung von Baufeldern aus dem Gefährdungsbereich oder Auflagen bestimmt, wie Grundstücksaufschüttungen bei gleichzeitigem Retentionsausgleich oder Festsetzungen zur hochwasserangepassten Bauausführung. Die vorbereitende Bauleitplanung identifiziert also die Konflikttatbestände, für die verbindliche Bebauungsplanung führt die Untere Wasserbehörde eine detaillierte Untersuchung der hochwasserrelevanten Tatbestände durch. Nach Seifert habe die Stadt zwar dem großen Siedlungsdruck auf die flussnahen Gebiete standgehalten. Im Rahmen der Neuaufstellung des FNP 1997 und parallel zur Ermittlung des ÜG waren allerdings neue Baugebiete in diesen dargestellt worden. Als Lösung des Konflikts zwischen Stadtplanung (städtebaulichen Entwicklungsabsichten) und der Unteren Wasserbehörde (dem Schutzzweck der ÜberschwVO) über den Bestand der Planungen wurde in der Überschwemmungsverordnung bestimmt: "Für die zum Zeitpunkt des In-Kraft-Tretens dieser Rechtsverordnung begonnenen Verfahren zur Ausweisung von Baugebieten (...) wird die Zustimmung der unteren Wasserbehörde erteilt, wenn im jeweiligen Verfahren der Nachweis erbracht wird, dass durch die Bebauung der Hochwasserabfluss und die Rückhaltung nicht wesentlich beeinträchtigt werden und eine Gefährdung von Leben und Gesundheit der Bewohner und Sachwerte durch geeignete Maßnahmen ausgeschlossen wird. Geeignete Maßnahmen können u. a. durch Festsetzungen nach Baugesetzbuch, nach Bauordnungsrecht gemäß Sächsischer Bauordnung oder vertragliche Regelungen abschließend geregelt werden". Der offensive Umgang mit der Benennung aller Einschränkungen und Konflikte in Bezug auf das Ziel, einen Hochwasserschutz bis zum Schutzniveau HQ100 zu erreichen, wird von Seifert als Erfolgsfaktor bewertet, da dies die Ausweisung des ÜG im heutigen Umfang erst ermöglicht habe und die Stadt dadurch eine gefestigte Haltung hinsichtlich potenzieller Eingriffe in das ÜG erlangt habe. Die Landschaftsplanung findet in Primärintegration zur Flächennutzungsplanung statt. Das Zielkonzept Landschaftsplan als Beiplan 8 Grün- und Freiflächen/Entwicklungskonzept Landschaftsplan zum FNP 1999 nennt als 1. Punkt den Schutz der Elbe, ihres Uferbereiches und des Altelbarmes: Freihalten des Überschwemmungsgebietes. Der neue Leitsatz der Landschaftsplanung ist: "Die Stadt im ökologischen Netz". Unter Wirkungsbereich Wasserhaushalt rangiert das Handlungsfeld Hochwasserschutz - unter den bekannten Anpassungsmaßnahmen an die Gefahr vor Flutereignissen wird auch das Risikomanagement aufgeführt. Es ist eingebettet in ein Gesamtkonzept zum Klimaschutz, mit welchem Ansinnen die Stadt beim EU-Projekt AMICA mitarbeitet (Adaption and Mitigation - Integrated Climate policy Aproach). Im Planungsleitbild Innenstadt (Landeshauptstadt Dresden 2007) wird an mehreren Stellen der Hochwasserschutz als Voraus- setzung für weitere Entwicklung genannt bzw. als "entscheidendes Entwicklungskriterium". Dabei wird der Hochwasserschutz eher als Entwicklungshemmnis, Restriktion und Verzögerungsfaktor dargestellt. Zwar wird er tlw. in positive Formulierungen gekleidet, in dem Sinne, welche Chance er für bestimmte Projekte bedeute, etwa um finanzielle Mittel zu akquirieren. Als weiterer Grund wird angeführt, dass die öffentliche Aufmerksamkeit, die das Projekt "Grün- zug Weißeritz" in deren alten Flussbett aufgrund des Hochwassers erlangt hat, auch zur öffentlichen Anerkennung geführt hat. Insgesamt überwiegt aber den Eindruck, dass der Tenor durchscheint, das Thema Hochwasserschutz sei problematisch für die Stadt, wofür aber langfristig Lösungen gefunden werden können: "Die große Flut im Sommer machte (...) den Hochwasserschutz mit all seinen Herausforderungen und Restriktionen zu einer zentralen Querschnittsaufgabe für die Stadt". SHW 2002 hatte Rekordpegelstand, aber als überraschend stellte sich eine geringere Durchflussmenge als 1845 dar. Auch die überschwemmten Flächen waren geringer. Somit wurde vermutet, dass Veränderungen im Überschwemmungsbereich der Elbe das Stauvolumen eingeschränkt haben. Dies wurde für den Bereich der Oberelbe in der Sächsischen Schweiz auch bestätigt gefunden. Als weitere Ursachen werden von Seifert genannt: "die teilweise Auffüllung der Retentionsräume durch das Hochwasser einmündender Nebengewässer vor dem Durchfluss der Scheitelwelle der Elbe, die abflusshemmende Bebauung der Ostraflutrinne mit der Eissporthalle, der teilweise Versatz der Marienbrücke durch eine nicht beräumte Baustelle sowie die gegenüber 1845 durch Bebauung erhöhte Rauhigkeit des überfluteten Geländes [und insbesondere] die seit 1990 zugelassene Bebauung im faktischen ÜSG von 1845, die zum Einen selbst schwer geschädigt wurde, und zum Anderen als Abflusshindernis zur Gefahr für die Allgemeinheit geworden ist.".
Inhaltsangabe:Zusammenfassung: In der vorliegenden Arbeit wird eine erstmalige Entwicklung in der Gesellschaft des Menschen betrachtet: die gesellschaftliche Überalterung und deren Folgen und Konsequenzen für die Zukunftsfähigkeit der Städte. Der gesellschaftliche Alterungsprozess vollzieht sich in Deutschland seit Jahrzehnten unaufhaltsam – und geht in vielen strukturschwachen ostdeutschen Regionen einher mit einer kontinuierlich anhaltenden Abwanderung der Jungen und Leistungsträger. Beide Prozesse parallel exponieren die Zukunft der betroffenen Städte, Gemeinden und Regionen. Abwanderung und Überalterung bezeichnen Prozesse, die von den betroffenen Kommunen zumeist als Stigmatisierung empfunden werden. Eine offene und konstruktive Begleitung dieser Entwicklungen steckt noch in den Anfängen, häufig erfolgt die Fokussierung auf die Bedürfnisse der Abwandernden, nicht auf die der Bleibenden. Finanzierungen in soziale und technische Infrastrukturmaßnahmen erfolgen nach den jeweiligen Möglichkeiten der kommunalen Haushalte und der EU-, Bundes- und Landesförderprogramme und nicht immer nachhaltig im Sinne einer antizipativen baulichen Bestandsanpassung. Noch ist unsere Gesellschaft in vielen Bereichen auf die wachsende Langlebigkeit ihrer Mitglieder wenig vorbereitet. Solange die Themen Alter und Altern auch in der raumrelevanten Politik nicht entstigmatisiert werden, können keine zukunftsfähigen Strategien und Lösungen für die sich ändernden Anforderungen an Lebensraum, Sozialsystem und gesellschaftliches Miteinander entwickelt werden. Folgende Fragestellungen wurden vertiefend untersucht: - Wie zeichnet sich die wirtschaftliche und soziale Zukunft "alternder" und "schrumpfender" deutscher Klein- und Mittelstädte ab? - Welche Handlungsbedarfe bestehen? - Welche Potenziale liegen noch brach? Wie können diese aktiviert werden? - Leid: "Vergreiste Stadt" oder Leitbild: "Stadt für Alte"? – Wo liegen die beiderseitigen Chancen in der bewussten und gesteuerten Profilierung zur Stadt für Alte? - Wie begegnet man dem mentalen Problem des Entwicklungszieles "Stadt für Alte"? Gang der Untersuchung: Die vorliegende Arbeit gliedert sich in acht Kapitel. Kapitel 1: Der demografische Wandel in der Bundesrepublik Deutschland Die derzeitige Lebenssituation Älterer in der Bundesrepublik, die zunehmende Heterogenität der Lebensstile in der dritten Generation und die sich schlussfolgernd ergebenden Veränderungen der Lebens- und Wohnansprüche sind Gegenstand des ersten Kapitels. Zunehmende Langlebigkeit und wachsende Anteile von Altersarmut werden die Leistungsfähigkeit der ökonomischen und sozialen Netze zukünftig verändern. Einige Ursachen der disparaten räumlichen Verteilung der gesellschaftlichen Alterung in der Bundesrepublik werden aufgezeigt. Kapitel 2: Lebens- und Wohnbedürfnisse der dritten Generation Die heutige dritte Generation stellt sich wesentlich heterogener dar, als die Generationen der eigenen Eltern und Großeltern. Der Wandel der Familien- und sozialen Beziehungen, veränderte Ansprüche an die eigene Mobilität, Freizeitgestaltung und hat Auswirkungen auf die Gestaltung des Lebens- und Wohnumfeldes. Um Handlungsfelder anzuregen, wird die Entwicklung des Altenwohnens in der Bundesrepublik seit dem II. Weltkrieg dargestellt. Kapitel 3: Stadträumliche, funktionale und soziale Folgen der demografischen Überalterung Die Herausbildung der verschiedenen Seniorentypologien hat zunehmend Auswirkungen auf die sozialen und gesellschaftlichen Rahmenbedingungen ihres Lebensumfeldes. Auch aus städtischer Sicht muss sowohl ökonomisch als auch wohnungspolitisch und stadtstrukturell auf den demografischen Wandel und die parallelen Individualisierungs- und Singularisierungstrends der dritten Generation reagiert werden. Eine Alterungsfähigkeit verschiedener Stadtquartierstypen wird untersucht. Kapitel 4: Seniorenstädte in den USA In den USA sind die Retirement Communities ein Erfolgsmodell – und werden in den deutschen Veröffentlichungen immer wieder als "Altenghetto" diffamiert. Eine ausgesprochen hohe Wohnzufriedenheit und überdurchschnittliche Identifikation mit ihrer "Stadt" steht dem gegenüber. Vor- und Nachteile des Lebens unter Gleichaltrigen, die Integrations- und sozialen Angebote der Retirement Communities und ein bewährtes Marketingkonzept offerieren – bei aller Kritik – auch durchaus nachahmenswerte Handlungsfelder für bundesdeutsche Klein- und Mittelstädte. Kapitel 5: Profilierungsmöglichkeiten deutscher Mittel- und Kleinstädte als seniorengerechte Städte Übertragbare Muster der Retirement communities und daraus resultierend sektorale und integrale Handlungsansätze für deutsche Bestandsstädte zur Profilierung als seniorenfreundlich werden dargestellt. Stadträumliche Voraussetzungen und die Entwicklungsfähigkeit bisher vorrangig unbegleiteter mehrdimensionaler Prozesse wird dabei berücksichtig und Vorschläge bewusster Steuerung und Begleitung überalternder Städte zu modernen Städten mit vielseitigen alters- und alterungsspezifischen Angeboten unterbreitet. Kapitel 6: Von der Makro- zur Mikroebene: Wohnen in seniorengerechten Städten Bauliche und soziale Ansprüche an das alterungsgerechte Wohnen – von den tradierten und neuen Wohnformen über die vielseitigen Möglichen der Wohnraumanpassung bis zu den komplementären Angeboten und Bedarfen in Wohnumfeld und Stadtstruktur – werden mit den jeweiligen Wirkungen – Aktivierung, Mobilisierung, Integration, ... – dargestellt. Kapitel 7: Freizeit-; Kultur- und Bildungsangebote Mit der Ausbildung der zahlreichen Lebensstile in der dritten Generation wurden Senioren einerseits als ertragsbringende Zielgruppen für Kultur, Tourismus, Sport und Bildung erkannt und erschlossen, andererseits werden die gesellschaftlichen und sozialen Potenziale der dritten Generation in Deutschland noch absolut unzureichend aktiviert. Der Reichtum der fast freien Zeitverfügbarkeit der dritten Generation setzt nach dem Austritt aus der Erwerbstätig- keit ein enormes soziales Kapital frei, das gesellschaftlich bislang nur rudimentär genutzt wird. Im siebenten Kapitel werden Vorschläge unterbreitet, wie durch die Aktivierung des ehrenamtlichen Engagements Städte "weiche" Standortvorteile und Alleinstellungsmerkmale erringen können, die zumal für beide beteiligten Seiten durchaus gewinnbringend wäre. Kapitel 8: Zusammenfassung und Fazit "Stadt für Alte" Abschließend erfolgt eine Kurzfassung der Trends und der sich aus der demografischen Entwicklung ergebenden Chancen und Vorteile für die Profilierung deutscher Bestands- Klein- und Mittelstädte als alterungs- und altengerechte Städte. Die sich im Rahmen der Arbeit ergebenen offen gebliebenen Fragen können und sollen zur Weiterarbeit an dem Thema anregen, das abschließende Fazit unterstreicht die Machbarkeit der derzeitigen Vision einer modernen, sozialen und lebendigen "Stadt für Alte". Inhaltsverzeichnis: 1.DER DEMOGRAFISCHE WANDEL IN DER BUNDESREPUBLIK DEUTSCHLAND10 1.1DIE DEMOGRAFISCHE ENTWICKLUNG10 1.1.1Natürliche Bevölkerungsentwicklung11 Überalterung der Bevölkerung12 Verschiebung der Jugendlast- und Alterslastquotienten12 1.1.2Die räumliche Dimension des demografischen Wandels13 Verteilung der gesellschaftlichen Alterung13 Transformationsprozesse in Klein- und Mittelstädten und ländlichen Regionen der neuen Bundesländer14 Überalterung und regionale Schrumpfungsprozesse16 1.1.3Lebenserwartung - Rückblick und derzeitiger Stand16 1.1.4Grunddaten zur dritten Generation in der Bundesrepublik17 Bildungs- und Ausbildungsstand17 Eintrittsalter in den Ruhestand18 Finanzielle - und Eigentumssituation der Senioren18 Gesundheit im Alter21 Was ist neu am Altern heute?22 1.2RÄUMLICHE BEVÖLKERUNGSBEWEGUNGEN23 1.2.1Internationale Wanderungsbewegungen23 Internationale Wanderungsbewegungen der dritten Generation23 1.2.2Binnenwanderungen24 Alten- oder Altenruhesitzwanderungen innerhalb der Bundesrepublik25 Innerstädtische und innerregionale Wanderungsbewegungen25 1.2.3Notwendigkeit und Bereitschaft des Wohnortwechsels in den einzelnen Generationen26 2.LEBENS- UND WOHNBEDÜRFNISSE DER DRITTEN GENERATION27 2.1JUNG, ERWACHSEN, ALT?27 2.1.1Seniorentypologien nach Lebensstilen28 2.1.2Die drei Altersphasen der dritten Generation29 Die "Jungen Alten", Jungsenioren, Second Careers, Best Ager30 Die "Mittleren Alten", Senioren, Good Timers31 Die Hochbetagten, Hochaltrigen, Langlebigen31 2.2DIE INTEGRATION DER DRITTEN GENERATION32 2.2.1Familien- und Generationenbeziehungen im Wandel32 Bedeutung innerfamiliärer Beziehungen32 Die Ehe oder Lebenspartnerschaft33 Freunde34 2.2.2Die gesellschaftliche Integration34 Politische Integration34 "Altenhilfe" in der Bundesrepublik – eine langsame Metamorphose34 "Gewachsene" Integration von Senioren in die Gesellschaft35 Ein Ausblick35 2.3MOBILITÄT IN DER DRITTEN GENERATION36 2.3.1Aspekte der Mobilität für Ältere36 Häusliche Mobilität36 Alltagsmobilität und außerhäusliche Mobilität37 Freizeit- und Reisemobilität37 Mobilität und Gesundheit37 2.4DIE VERÄNDERUNG DES TAGESABLAUFES IN DER DRITTEN GENERATION39 2.4.1Schlüsselfaktor Zeit39 Verschiebung der Zeitanteile der Tagesgestaltung39 2.4.2Sinnsetzung und Lebensgestaltung nach der Erwerbstätigkeit40 Freizeitgestaltung und Freizeitkultur der dritten Generation40 Sozialzeiten der dritten Generation – Potenziale für tragfähige Netzwerke41 2.5VERÄNDERUNG DER ANSPRÜCHE AN WOHNUNG UND WOHNUMFELD IN DER GENERATIONENFOLGE42 2.5.1Wohnansprüche und Wohnverhalten42 Haushaltsstrukturen43 Aspekte der Wohnungsgröße und Ausstattung43 Frauenspezifische Belange43 2.5.2Sicherheitsaspekte der Wohnung und des Wohnumfeldes44 Sicherheitsgewährleistung in der Wohnung44 2.6WOHNANGEBOTE FÜR SENIOREN IN DER BUNDESREPUBLIK45 2.6.1Wo wohnt die dritte Generation?45 2.6.2Wohnen im eigenständigen Haushalt46 Seniorengerechte Einzelwohnungen46 Wohnen im Eigentum46 2.6.3Wohngruppen und "neue Wohnmodelle"46 "Neue Wohnmodelle" für Senioren47 Betreutes Einzelwohnen und betreute Wohngruppen47 Altendörfer bzw. Altenwohnsiedlungen48 Fazit48 2.6.4Pflegeheime, Altenwohnheime, Seniorenheime49 Die Entwicklung der Altenwohn- und Pflegeheime in der Bundesrepublik49 Altenpflegeheime50 Altenstifte, Altenheime und Seniorenheime50 Seniorenwohnanlagen, -häuser, -residenzen51 2.6.5Schlussbemerkung51 3.STADTRÄUMLICHE, FUNKTIONALE UND SOZIALE FOLGEN DERDEMOGRAFISCHEN ÜBERALTERUNG52 3.1VERÄNDERTE NUTZUNG DES WOHNUMFELDS, DES ÖFFENTLICHEN RAUMES UND DER SOZIALEN UND TECHNISCHEN INFRASTRUKTUR52 3.1.1Direktes Wohnumfeld53 3.1.2Öffentlicher Raum53 Transiträume53 Kommunikationsräume und Ruhezonen54 Saisonale Aspekte54 3.1.3Halböffentliche Räume54 Anpassung der Funktionsansprüche der städtischen sozialen Infrastruktur54 3.2DIE AUSWIRKUNGEN AUF DIE NACHBARSCHAFTLICHEN BEZIEHUNGEN UND SOZIALEN NETZE DER STÄDTE56 Bewahrung, Integration und Herstellung stabiler Nachbarschaften56 3.2.1Bewertung ausgewählter Wohnquartiers- und Stadtraumtypen hinsichtlich der Anpassungsfähigkeit alternder Bewohnerstrukturen56 Großsiedlungen des komplexen Wohnungsbaus57 Gründerzeitviertel59 Innenstadt- bzw. Altstadtbereiche61 Wohnsiedlungen in Einfamilien- und Doppelhausbauweise61 Wohnquartierstypen und Alterungsfähigkeit – Fazit63 4.EXKURS: SENIORENSTÄDTE IN DEN USA64 4.1DIE RÄUMLICHE UND SOZIALE FRAGMENTIERUNG AMERIKANISCHER STÄDTE64 4.2SENIORENSTÄDTE IN DEN USA66 4.2.1Rückblick – Das Entstehen der Winterwohnorte und Altersruhesitze in den USA66 4.2.2Marketing der Retirement communities66 4.2.3Zielgruppen und Organisationsstrukturen67 Bewohnerstrukturen67 Städtische Organisation67 4.2.4Bautypen und Gliederung der Retirement Communities68 Stadtgrundrisse und Baumerkmale68 Angebote und Ausstattung der Haustypen68 Ausstattung mit Infrastruktureinrichtungen und betreuten Wohnformen69 Bewohnerintegration und Bewohneraktivierung69 Freizeiteinrichtungen und -angebote69 4.2.5Zusammenfassung/ Fazit70 5.PROFILIERUNGSMÖGLICHKEITEN DEUTSCHER MITTEL- UND KLEINSTÄDTE ALSSENIORENGERECHTE STÄDTE71 5.1HANDLUNGSFELDER UND KRITERIEN AUF DEM WEG ZUR SENIORENGERECHTEN STADT72 5.1.1Kommunalpolitische Umorientierung72 Klares Entwicklungsleitbild72 Ausschöpfung der klein- und mittelstädtischen Potenziale72 Kommunale Altenplanung73 Neue Organisationsstrukturen74 Infrastrukturanalysen und Entwicklungsszenarien74 5.1.2Entspannter Wohnungsmarkt74 5.1.3Stadt(teil)- Seniorenmanagement – räumliche Schwerpunktsetzung75 5.1.4Integration in die Gemeinschaft75 Partizipations- und Netzwerkförderung75 5.1.5Ausbau städtischer Strukturen und Potenziale75 Stärkung des Stadt- bzw. Ortszentrums75 Versorgungsstrukturen76 Funktionsmischungen77 5.1.6Öffentlichkeitsarbeit77 Stadt(teil)zeitung77 Bewohnerberatung77 Anlaufstellen für Externe77 5.1.7Bewohnerwerbung78 Der "Schnupperkurs" Seniorenstadt: temporäres und saisonales Wohnen für Alte78 5.2AKTIVIERUNG UND PARTIZIPATION DER DRITTEN GENERATION79 5.2.1Methoden der Beteiligungsverfahren79 Bürgerbefragungen79 Öffentliche Anhörungen, Foren und Diskussionen80 Aktivierende Workshops80 Over Wonen van Ouderen Gesproken (OWOG)81 5.2.2Partizipation und Leitbild82 Bürgerjury und Bürgerbudget82 5.2.3Institutionen82 Seniorenbüros82 Seniorenreferate/ bzw. -beiräte, Seniorenbeauftragte und Interessenvertretungen84 5.2.4Fazit und Übersicht84 6.VON DER MIKRO- ZUR MAKROEBENE: WOHNEN IN SENIORENGERECHTENSTÄDTEN86 6.1WOHNUNG, WOHNBERATUNG, WOHNANPASSUNG UND WOHNFORMEN86 6.1.1Sozialverträgliche Mieten und Wohnsicherheit87 6.1.2Bauliche Voraussetzungen und Komponenten für differenzierte und alternative Angebote an altengerechtem Wohnraum87 Altengerechter Neubau87 Strukturelle Wohnraumanpassung87 Private Wohnraumanpassung88 Finanzierung von Wohnraumanpassungsmaßnahmen89 Das smart home89 6.1.3"Traditionelle" Wohnformen für Senioren89 Miet- und Eigentumswohnungen für Einzelhaushalte89 Service-Wohnen89 6.1.4"Neue" Wohnformen für Senioren90 Räumliche Voraussetzungen und individuelle Hindernisse90 Selbstbestimmte Wohnprojekte, selbstverwaltete Wohn- und Hausgemeinschaften91 Betreute Wohngruppen92 Beratung und Begleitung92 6.1.5Komplementäre Angebote zum Wohnen92 Wohnberatungsstellen und Wohnungstauschbörsen92 Hauswirtschaftliche Dienstleistungen93 6.1.6Medizinische Dienstleistungen93 Hausnotruf93 Tages- und Kurzzeitpflegeeinrichtungen93 Mobile Pflegedienste93 Häusliche Sterbebegleitung und Hospize94 6.2BEDARFE UND ANGEBOTE IN WOHNUMFELD UND STADTSTRUKTUR95 6.2.1Öffentlicher Raum, Grün- und Freiflächen, städtische Plätze und Möglichkeiten auf städtischen Verfügungsflächen95 Stadtplätze95 Grünflächen und Spielplätze96 Gedeckte und ungedeckte Sportanlagen96 Gemeinschaftsgärten, Mietergärten, Generationengärten und Seniorengärten97 Dog-runs97 6.2.2Mobilitätsgerechte städtische Strukturen98 Straßenraumgestaltung und Querungshilfen98 Motorisierter Individualverkehr (MIV)100 ÖPNV – Anforderungen an die Verkehrsmittel und Bahnhöfe101 Schutz vor Vandalismus und Kriminalität – Unterstützung des Sicherheitsempfindens101 Besondere Mobilitätsmodelle und gewährleistete Anbindung an die private Mobilität101 7.FREIZEIT-, KULTUR- UND BILDUNGSANGEBOTE102 7.1EHRENAMTLICHES ENGAGEMENT IN SENIORENGERECHTEN STÄDTEN102 7.1.1Die Aspekte ehrenamtlicher Arbeit103 Zielsetzung ehrenamtlicher soziale Arbeit und Selbsthilfe104 Wohlfahrt im Alter: wer wird sie sich zukünftig leisten können?105 7.1.2Organisationsformen und Zielsetzungen ehrenamtlicher Arbeit105 Offene Altenhilfe106 Seniorenselbsthilfeorganisationen und -selbsthilfegruppen106 Seniorenmentoring, Seniorenexpertenservice und Senior-Partners106 Freiwilligen- und Tauschzentralen106 Wissens-, Kontakt-, Zeit- und Hobbybörsen107 Weitere Engagementbereiche ehrenamtlicher Tätigkeiten107 Schaffung engagementfördernder Rahmenbedingungen108 7.2KULTURVERANSTALTUNGEN UND BILDUNGSMÖGLICHKEITEN IN SENIORENGERECHTEN STÄDTEN109 7.2.1Einzelkulturevents und saisonale Veranstaltungen109 7.2.2Kontinuierliche Angebote109 Vereine109 Quartiersbezogene Seniorentreffpunkte im Wohngebiet109 7.2.3Bildungs- und Weiterbildungsangebote110 Neue Medien und Kommunikation110 Internetkurse und Internetcafé111 Kurse und Vortragsreihen und Weiterbildungsmöglichkeiten111 7.3SENIORENTOURISMUS112 7.3.1Warum Tourismus in seniorengerechte Städte?113 Besonderheiten des Segments Seniorentourismus113 7.3.2Alternative Reise- und Ausflugsformen113 Angebote wie "Ferienlager" und "Klassentreffen" in seniorengerechten Städte114 Urlaub mit der Familie oder Urlaub mit Enkeln114 Urlaub und Bildung114 Vereinsreisen115 Tagesausflüge für Bewohner von Seniorenstädten115 Aufgaben eines lokalen Reisevereins115 8.ZUSAMMENFASSUNG UND FAZIT "STADT FÜR ALTE"116 8.1DIE TRENDS116 8.2DIE CHANCEN UND VORTEILE116 8.3DIE OFFENEN FRAGEN119 8.4FAZIT UND AUSBLICK122 ANHANG123 ABBILDUNGEN123 TABELLEN123 FOTOS124 LITERATURVERZEICHNIS125 INTERVIEWS129 INTERNETQUELLEN130
"We live in mythical times but without knowing that we do." (Wendy Hui Kyong Chun, S. 59.) "Clearly the rise of search engines has fostered the proliferation and predominance of keywords and terms. At the same time it has changed the very nature of keywords, since now any word and pattern can become 'key'. Even further, it has transformed the very process of learning, since search presumes that a) with the right phrase, any question can be answered and b) that the answers lie within the database. The truth, in other words, is 'in there'." (Vorwort zur Reihe, S. vii-viii.) Die Wahrheit ist irgendwo da draußen drinnen. (Ein Mulder-Bot) Welche Vorstellung von Freundschaft/Nachbarschaft macht die Netzwerkforschung operabel? Was haben algorithmische Mustererkennung und Sternbilder gemeinsam? Leben wir bereits in der Singularität? Gibt es einen produktiven Moment der Paranoia? Diese rhetorischen Fragen sollen die Stoßrichtung des schmalen, aber dichten Bandes Pattern Discrimination umreißen. Die vier eng verzahnten Beiträge von Clemens Apprich, Wendy Hui Kyong Chun, Florian Cramer und Hito Steyerl kreisen dabei vorrangig um "biases" in der algorithmisierten Verarbeitung riesiger Datenmengen und somit um das Spannungsverhältnis des Begriffs 'diskriminieren' als Terminus technicus in der Informatik – im Sinne von auseinanderhalten, unterscheiden – und in seiner politischen Bedeutung als Ungleichbehandlung oder Ausschluss bestimmter Personengruppen nach soziologischen Kategorien (vorrangig 'Race', Gender, Klasse, Sexualität). Das Verhältnis lässt sich zu keinem Zeitpunkt der einzelnen Prozessschritte der Datenanalyse nach einer Seite hin auflösen. Somit geht es ganz grundlegend um die Verstrickungen von Ideologie und Technik. Diese Problemstellung an sich ist für eine Medienwissenschaft, so sie weder sozial- noch technikdeterministisch sondern sozio-technisch argumentiert, nicht neu. "What is new, though, is the fragmentation of largely stable knowledge sources into an atomized world of updates, comments, opinions, rumors, and gossip. In order to be able to filter information from this constant stream of data, we rely on algorithms, helping us bring order into our new media life" (S. 103). Die Datafizierung bzw. Mathematisierung der Welt; die Quantifizierung und Entdeckung neuer Korrelationen macht uns also abhängig von rechenbasierter Informationsverarbeitung. Die Autor*innen unterscheiden zwischen Daten, Information und Wissen/Erkenntnis. Daten sind sowohl Rohmaterial (obgleich immer schon präfiguriert) und Hintergrundrauschen, aus welchem Informationen mittels quantitativer Methoden auf Basis von Mustererkennung ('Pattern Recognition') erst gewonnen bzw. extrapoliert werden müssen. Daten begegnen uns ebenfalls als unvorstellbare Totalität der Beziehungen bei Steyerl und Chun und als das Lacan'sche Reale bei Apprich. Alle vier Beiträge durchziehen auf unterschiedlichen Ebenen Fragen der Subjektivierung. Den Anfang macht Hito Steyerl. In "A sea of data: Pattern Recognition and Corporate Animism (Forked Version)" widmet sie sich der Bedeutung der Mustererkennung für die Datenanalyse staatlicher und privatwirtschaftlicher Kontrollinstanzen und Institutionen. Dabei entfaltet sie ihre Problematisierung entlang zweier politischer Fabeln. Louis Althussers Polizist, dessen simple sprachliche Geste "Hey, du!" das basale Modell sozialer Kontrolle darstellt, wäre an den digitalen Verkehrskreuzungen, die von ca. 414 Billionen Bits pro Sekunde passiert werden, schlicht verloren: "On top of that he has to figure out whether they [Anm.: Bits] are sent by a spam bot, a trader, a porn website, a solar flare, Daesh, your mum, or what" (S. 1). Aber dieser Polizist aus einer vergangenen Zeit operiert längst nicht mehr allein, noch soll durch seinen Zuruf ein einzelnes Subjekt identifiziert und subjektiviert werden. Die sich veränderte Problemlage für Geheimdienste wie die NSA illustriert folgender Hilferuf: "Developers, please help! We're drowning (not waving) in a sea of data – with data, data everywhere, but not a drop of information" (S. 2). Hier kommt die Musterkennung zum Einsatz, im Kern geht es also darum, Signal (information) von Rauschen (excessive data) zu unterscheiden indem große Datenmengen analysiert werden um zuvor unbekannte, interessante Muster zu extrahieren (vgl. S. 2). Dass die Unterscheidung von Signal und Rauschen nicht bloß eine quantitative Verarbeitung, sondern immer auch eine qualitative Bewertung erfordert und somit hoch politisch ist, macht Steyerl mit Bezugnahme auf Jacques Rancière deutlich. Im antiken Griechenland wurde quasi ein politischer spam filter eingesetzt, der die Äußerungen männlicher, reicher Bürger als Rede (Information) definierte und jene von Frauen, Kindern und Sklaven als wirres Gebrabbel (Rauschen) (vgl. S. 3). Diese kategorische Filter- bzw. Reinigungsarbeit produziert Anomalien. Dirty data, fehlerhafte oder auch unbrauchbare Eingabedaten, bilden bei Steyerl daher auch das Eingeschlossene-Ausgeschlossene ab – das, was mit einer bestimmten Weltsicht nicht vereinbar ist, z. B. "rich brown teenagers" (vgl. S. 5). Analog zur Antike, die sich an Sternbildern orientierte, navigieren wir das Datenmeer ebenfalls mit Hilfe von ideellen Modellen und Mustern und orientieren uns an Ähnlichkeiten und Wahrscheinlichkeiten. Steyerl plädiert nun nicht dafür, von jeglichen Kontrollmechanismen abzusehen, schlägt aber vor das gewaltige Datenmeer schlicht als "mess of human relations" zu akzeptieren (S.19). Florian Cramer widmet sich dem blinden Fleck der Datenanalyse als Determinismus eines Set-Ups, das nur scheinbar rein quantitativ-analytisch vorgeht. Sein Eingeschlossenes-Ausgeschlossenes ist die Hermeneutik, die Verdunkelung der Rolle qualitativ-subjektiver Interpretation für die Datenanalyse. "Crapularity Hermeneutics: Interpretation as the Blind Spot of Analytics, Artificial Intelligence, and Other Algorithmic Producers of the Postapocalyptic Present" stellt eine pointiert-polemische wie tiefgehende Analyse der Abgründe der digitalen Gegenwart dar. Cramer findet strukturelle Analogien für Big Data im Orakel von Delphi, standen doch die Priester ebenfalls vor der Frage, wie sie aus dem Strom aus (trancebasiertem) Kauderwelsch Sinn machen sollten (vgl. S. 23). Das Set-Up für Wahrsagerei im digitalen Zeitalter kennt keine Sprechakte bzw. Narrative mehr, die kritischer Exegese und semantischer Interpretation bedürfen, sondern Datensets, die mittels algorithmisierter "Analytics", also quantitativ-syntaktischen Operationen, enträtselt werden müssen (vgl. S. 24). Strukturell gesehen haben wir es jedoch immer noch mit Hermeneutik zu tun. Denn die Grenzen des Wissens bzw. der Interpretation legt der Algorithmus fest und somit liegt das epistemologische Kernproblem eigentlich eine Ebene tiefer, nämlich grundlegend in "using mathematics to process meaning" (vgl. S. 37). Folgerichtig sollten wir angesichts der Hoffnungen und Befürchtungen, die Künstliche Intelligenz (K. I.) weckt, die Perspektive ändern und nicht von einer eschatologisch-technischen 'Singularity' sondern der 'Crapularity' (Justin Pickard) sprechen, um der Fehleranfälligkeit und den Grenzen von K. I. Ausdruck zu verleihen (vgl. S. 40). Die Singularität versteht Cramer – wie auch Steyerl – dagegen als 'singularity of the market' und liest das Sillicon Valley als Chiffre für die Kulturindustrie des 21. Jahrhunderts, "with analytics of user-generated-content rather than content production as its (multibillion dollar) business model" (S. 35). Cramer spricht sich gegen eine offene Gesellschaft aus, die auf Gleichgewicht und Optimierung setzt und sich dabei vor dem Hintergrund gewaltiger Ausschlüsse errichtet. Behauptete Alternativlosigkeit, nichts Neues aber jede Menge Updates – die Gefahren für die Demokratie bringt er folgendermaßen auf den Punkt: "populist fascism against Big Data fascism" (S. 52). Wendy Hui Kyong Chun analysiert in "Queering Homophily" die Axiome der Netzwerkforschung und argumentiert, dass wir uns mit Identitätspolitik beschäftigen müssen, da Algorithmen reduktiv identitätslogisch operieren und Segregation ahistorisieren und verstetigen. Gleich und gleich gesellt sich gern – bei Chun nimmt der Kalenderspruch bedrohliche Züge an, liegt doch Homophilie, also die Liebe zum Ähnlichen, im Herzen des Bauplans von Netzwerken. Historisch bedingte Ungleichheiten, institutionelle Zwänge, Rassismus – Konflikte werden verdeckt und Diskriminierung naturalisiert, indem Hass in individuelle "Vorlieben" übersetzt und somit blackboxing mit der Vergangenheit betrieben wird (S. 75). Filterblasen und Echokammern sind das notwendige Resultat, wenn Prosumernetzwerke als homophile Nachbarschaften errichtet und Konsens, Komfort und Balance prämiert werden (ebd.). Dabei kartieren und verflachen Netzwerke realweltliche Phänomene, in dem sie zwei qualitative Ebenen von Verbundenheit, zwei zuvor diskontinuierliche Skalen verknüpfen: Strukturen auf Makro- und Verhalten auf Mikroebene (vgl. 70f). Dadurch entsteht eine 'grammar of action' (Phil Agre), jede individuelle Handlung, jedes individuelle Verhalten ist immer Teil eines größeren Musters oder Symptoms (vgl. S. 69). Wir werden somit konstant mit anderen verglichen und intersektional erfasst mit dem Ziel, prognostische Aussagen zu treffen. Dabei diskriminieren Algorithmen eben nicht nach essentialistischen Kategorien wie 'race/gender/class', da sie nicht auf Basis von Eigenschaften sondern von Handlungen und Verhaltensmustern operieren: "These algorithms, in other words, do not need to track racial or other differences, because these factors are already embedded in 'less crude' categories designed to predict industriousness, reliability, homicidal tendencies, et cetera" (S. 74/S. 65). Die Pointe ist entsprechend fies: Einerseits zwingen uns unsere digitalen Verhältnisse die Auseinandersetzung mit Identitätspolitik quasi auf, andererseits verrutschen uns die Angriffsflächen für Herrschaftskritik. Chun plädiert dafür, sich die Netzwerkanalyse zu eigen zu machen, um neue Hypothesen und Axiome zu kreieren und fragt beispielsweise, wie sich die Infrastruktur der Netzwerke ändern würde, wenn nicht Konsens, sondern Konflikt und größtmögliche Differenz konstitutiv wären. Clemens Apprich skizziert die Zielsetzungen und Argumente des Bandes im Vorwort und fasst diese mit "Data Paranoia: How to Make Sense of Pattern Discrimination" erneut zusammen. Paranoia war bereits bei Steyerl Thema, oder vielmehr eines deren Symptome: Apophenia, die Fähigkeit, Muster wahrzunehmen, auch wenn keine vorhanden sind, etwa Gesichter in Wolken. So lege etwa Googles Deep Dream Generator das Imaginäre unserer digitalen Erfassungssysteme und die Funktionsweise der Musterkennung neuronaler Netzwerke offen, die aus den Tiefen des Datenmeers nur jene Chimären heraufziehen können, die sie zuvor trainiert wurden zu erkennen (vgl. S. 9). Bei Apprich stellt Paranoia zum einen ein objektivierbares Phänomen jeglicher Medienbeobachtung dar. Je komplexer die Vermittlung, desto grundlegender der Verdacht, schließlich können wir immer nur die symbolische Oberfläche wahrnehmen und der submediale Raum bleibt strukturell verborgen (vgl. S. 104). Zum anderen ist Paranoia aber auch ein spezifisches Phänomen unseres aktuellen Medienwechsels – "from mass media to social media logic" (S. 116.) . Schließlich hat die Entstehung unterschiedlicher Teil-Öffentlichkeiten durch Social-Media Plattformen zum Verlust der Möglichkeit der Bezugnahme auf eine gemeinsame symbolische Ordnung geführt. Auch Chun fragte zuvor, über welchen Wahrheitsbegriff wir angesichts der flachen Ontologie unserer Netzwerke, die keine Kausalzusammenhänge aufdecken, sondern bloß Korrelationen hervorbringen und quantifizieren, heute verfügen (vgl. S. 67). Aber hat die Postmoderne von der Wahrheit ohnehin nichts mehr wissen wollen? Apprich hält dem eigenen rhetorischen Einwand entgegen, dass wir eine gemeinsame Übereinkunft dessen, was wahr oder falsch ist benötigen, um überhaupt etwas wie objektive Realität – also eine Wirklichkeit, basierend auf intersubjektiv verhandelten Normen und Regeln – zu konstituieren (vgl. S. 108). Paranoia im Kontext dieses Medienwechsels stellt also einen Versuch einer Wiederaneignung der Welt dar, eine entfesselte Sinnproduktion "at a time where data simply outnumbers facts" (S. 106f). Mit Big Data hätten wir eine völlig neue Dimension von Wahrsagerei erreicht bzw. sind in ein neues Zeitalter der Interpretation eingetreten, denn "data by definition can be interpreted in this or that way" (S. 108). Wie an mehreren Stellen angemerkt, geht es den Autor*innen vorrangig darum, den ideologischen Horizont von Big Data aufzuzeigen und somit den Digital Humanities ihr dringlichstes Forschungsgebiet zuzuweisen. In den einzelnen Beiträgen wird so auch keine defätistische Haltung eingenommen, sondern immanente Kritik geübt. Nahezu friktionsfrei aufeinander aufbauend, werden Kernargumente öfters wiederholt; Steyerl und Cramer fokussieren primär auf Datenverarbeitung, Chun und Apprich verstärkt auf Netzwerkforschung, stets steht jedoch die Verknüpfung epistemologischer und demokratiepolitischer Fragen im Vordergrund. Die auffällige Bezugnahme auf die griechische Mythologie erinnert dabei nicht nur daran, dass ältere geisteswissenschaftliche Disziplinen hilfreiche Analysewerkzeuge für die Auseinandersetzung mit Big Data und unseren digitalen Kulturen bereithalten. Die Analogieschlüsse legen umgekehrt die Vermutung nahe, sich ebenfalls (wieder) in einem mythischen Zeitalter zu befinden, da "alghorithmic computation no longer intellegible to the human mind" sei (S.101). Pattern Discrimination kann als Versuch gelesen werden, kritische Theorie auf die Netzwerkforschung anzuwenden sowie im erweiterten Sinn eine Ideologiekritik des Plattformkapitalismus zu formulieren.
Einleitung: Die Verfassungswidrigkeit der ARGEn und das Erfordernis, die Grundsicherung für Arbeitsuchende neu zu regeln: Eine der umfangreichsten Sozialreformen in der Geschichte der Bundesrepublik Deutschland trat in Form des Sozialgesetzbuches II, der Grundsicherung für Arbeitsuchende, am 01.01.2005 in Kraft und führte die vormals bestehende Sozialhilfe nach dem BSHG mit der Arbeitslosenhilfe nach dem SGB III zusammen. Ziel der Reform war unter anderem, das Nebeneinander mehrerer Transferleistungen zu beenden und die Hilfen aus einer Hand zu gewährleisten. Der während des Gesetzgebungsverfahrens entbrannte politische Streit, wer Träger dieser neu geschaffenen Leistungen sein sollte und wie die organisatorische Umsetzung auszusehen habe, konnte nur durch einen Kompromiss im Vermittlungsausschuss zwischen Bundestag und Bundesrat beigelegt werden, mit dessen Folgen sich diese Masterthesis in weiten Teilen beschäftigt. Während die damalige Regierungskoalition die Bundesagentur für Arbeit als alleinigen Grundsicherungsträger in den Gesetzesentwurf einbrachte, sah die Opposition die Aufgabe bei den Kommunen besser aufgehoben. Das verabschiedete Gesetz schrieb in der Folge sowohl dem Bund als auch den Kommunen Aufgaben nach dem SGB II zu, was zu gemeinsamen Grundsicherungsstellen, den so genannten Arbeitsgemeinschaften (ARGEn) als Regelmodell im Rahmen einer Mischverwaltung führte. Zusätzlich, als zunächst zeitlich begrenztes Experiment, wurde 69 Kommunen die alleinige Grundsicherungsträgerschaft als zugelassene kommunale Träger (zkT) übertragen, um Aussagen darüber gewinnen zu können, welche Trägerform die bessere sei. Vom Gesetzgeber ungewollt, etablierte sich eine dritte Umsetzungsform in Gebieten, in denen sich Kommunen und lokale Agenturen für Arbeit nicht auf eine Arbeitsgemeinschaft einigen konnten: die Aufgabenwahrnehmung in getrennter Trägerschaft (gAw), bei denen jeder Grundsicherungsträger die ihm jeweils zugeschriebenen Aufgaben in eigener Zuständigkeit erbringt. Knapp drei Jahre nach Einführung dieser Organisationsmodelle erklärte das Bundesverfassungsgericht in seinem Urteil vom 20.12.2007 die Mischverwaltung, und damit das im Bundesgebiet weit überwiegend umgesetzte Regelmodell der ARGE, für verfassungswidrig und gab dem Gesetzgeber bis zum 31.12.2010 Zeit, um unter Einbeziehung der Ergebnisse der gesetzlich verankerten Wirkungsforschung die Betreuung der Hilfebedürftigen neu zu regeln. Seitdem entstehen in schneller Abfolge sich je nach politischer Grundposition gegenseitig ausschließende Umsetzungsvarianten, die alle dem Prinzip des alten Weins in neuen Schläuchen, also der Beibehaltung der bisherigen Positionierungen zu folgen scheinen. Aus Sicht der Verfasser nähern sich die politischen Haltungen kaum an und es steht zu befürchten, dass die Grundsicherung für Arbeitsuchende wiederum Opfer eines Kompromisses wird, der inhaltlich kaum besser ausgestaltet ist als bisher und dem Willen des Gesetzes nach einheitlicher und bürgernaher Leistungsgewährung nach wie vor nicht gerecht wird. Es gilt deshalb, und das ist das Anliegen dieser Masterthesis, einen vom bisherigen, mittlerweile mehr als fünf Jahre andauernden politischen 'Machtgerangel' unabhängigen, überwiegend an inhaltlichen Kriterien orientierten Lösungsansatz für eine neue Organisationsform des SGB II zu entwickeln. Konkretes Vorgehen bei der Entwicklung einer funktionierenden Organisation: Ausgehend von den rechtlichen Hintergründen der Verfassungswidrigkeit der ARGEn, über die das Urteil des Bundesverfassungsgerichts Auskunft gibt, wird zunächst der Gesetzentwurf ('Hartz IV-Gesetz') und damit verbunden der ursprüngliche Wille des Gesetzgebers untersucht, der in dem neu zu entwickelnden Umsetzungsmodell Berücksichtigung finden soll. Des Weiteren wird die Entstehungsgeschichte der Grundsicherung für Arbeitsuchende beschrieben und die normative Kraft des Faktischen in Bezug auf die etablierten drei Umsetzungsmodelle kritisch hinterfragt. Es folgt eine differenzierte Analyse des bisherigen Standes der Evaluations- und Wirkungsforschung, aus der sich folgende zentrale Zwischenergebnisse ableiten lassen: Es lassen sich auf Bundesebene bislang keine systematischen Vorteile eines bestimmten Umsetzungsmodells erkennen. Die Unterschiede innerhalb jedes der drei Umsetzungsmodelle sind mindestens so vielfältig wie zwischen den Formen der Aufgabenwahrnehmung. Unterschiedliche Wirtschaftsräume scheinen einen größeren Einfluss auf die operativen Ergebnisse zu haben als die Modelle selbst. Zum einen veranlassen diese Resultate die Verfasser zu der Annahme, dass ein 'Festhalten' der Entscheidungsträger an Option, ARGE oder getrennter Aufgabenwahrnehmung unter wissenschaftlichen Aspekten wenig sinnvoll erscheint; zum anderen wird der Frage nachgegangen, inwiefern sich auf der Mikroebene in einem möglichst homogenen Wirtschaftsraum unterschiedliche Rahmenbedingungen minimieren und Vorteile entweder eines Modells oder bestimmter organisatorischer Ausgestaltungsformen finden lassen. Anhand der Resultate verschiedener Studien wird in einem ersten Schritt die Region Bodensee-Oberschwaben (speziell die Landkreise Ravensburg, Konstanz und Bodenseekreis) als weitgehend homogener Wirtschaftsraum identifiziert, in dem zudem alle drei Organisationsformen in unmittelbarer Nachbarschaft vorzufinden sind. Um vergleichbare operative Ergebnisse der drei Grundsicherungseinheiten zu erhalten, werden die umfangreichen statistischen Datenbanken der Bundesagentur für Arbeit genutzt, ausgewertet und aufbereitet, dabei die Parameter 'Aktivierung der Hilfebedürftigen' und 'Übergang in sozialversicherungspflichtige Beschäftigung' als wesentliche Indikatoren für erfolgreiche Arbeit der Grundsicherungseinheiten herangezogen. Festzustellen ist, dass bezüglich der gewählten Erfolgsparameter in allen drei Kreisen bei vergleichbarem Mitteleinsatz vergleichbar erfolgreich gearbeitet wird, also wiederum keine systematischen Unterschiede zwischen den Umsetzungsmodellen erkennbar sind. Es erscheint daher legitim, sich in der Folge mit der inhaltlichen Arbeit vor Ort im Jobcenter Konstanz, in der gAw in Ravensburg und im Amt 'Hilfen für Arbeit' in Friedrichshafen auseinanderzusetzen und inhaltliche Erfolgsfaktoren sowie hemmende Faktoren zu identifizieren, die sich in ein neues 'funktionierendes' Modell für die Region Bodensee-Oberschwaben integrieren lassen. Eine Erhebung in Form teilstrukturierter Leitfadengespräche bei den drei Grundsicherungsstellen führt zu Aussagen bezüglich der konkreten Ausgestaltung der jeweiligen Organisation und den subjektiv wahrgenommenen Erfolgs- und hemmenden Faktoren bei der Umsetzung des SGB II. Unter Einbeziehung der deskriptiven Forschungsergebnisse sowie organisations- und managementtheoretischer Aspekte wird darauf ein neuartiges regionales Umsetzungsmodell aufgesetzt, das möglichst vielen Kriterien einer erfolgreichen Aufgabenerledigung in Bodensee-Oberschwaben weitgehend Rechnung trägt. Das Modell erscheint durch seine Flexibilität sowohl im Rahmen einer bundesunmittelbaren als auch einer kommunalen Aufsicht funktionsfähig. Methodischer Ansatz: Ansatz dieser Arbeit ist es, einen zum Verständnis der Thematik erforderlichen Überblick über die Chronologie der Ereignisse, die (politischen) Grundpositionen sowie die Zwischenergebnisse der Forschung zu bieten und letztere nicht nur darzustellen, sondern teilweise auch zu integrieren, also als erweiterte Datenbasis für eine eigene, kleinräumige und als solche nicht repräsentative Erhebung bei drei Grundsicherungseinheiten in Bodensee-Oberschwaben zu nutzen. Neuartig ist in diesem Zusammenhang u. a. die Einbeziehung verschiedener operativer Ergebnisse als Indikatoren für die Qualität der Arbeit der drei Organisationseinheiten. Dadurch wird eine Verbindung zwischen einzelnen Forschungsansätzen, die sich entweder auf deskriptive Aussagen oder einzelne operative Ergebnisse beschränken, hergestellt. Es zeigen sich dabei Zusammenhänge; Kausalschlüsse können jedoch nicht gezogen werden. Das auf diese Weise anschließend erarbeitete regionale Lösungsmodell erscheint auf den Bund übertragbar; der Versuch, sowohl die Erfahrungen aus der Praxis als auch die Evaluationsforschung sowie management- und organisationsentwicklungstheoretische Aspekte bei der Entwicklung einer tragfähigen Lösung zu integrieren, stellt dabei die Einzigartigkeit dieses Ansatzes dar. Trotz des relativ hohen Umfangs dieser Arbeit handelt es sich – angesichts Hunderter allein in den letzten Jahren veröffentlichter, inzwischen weit mehr als 50.000 Seiten umfassender Fachbeiträge aus Wissenschaft, Politik und Gesellschaft – um einen Ansatz zur Reduktion von Komplexität und zur Rückbesinnung auf pragmatische Prinzipien des Managements bei der Umgestaltung sozialer Dienstleistungsorganisationen. Der Sachverstand, die Professionalität und die kreativen Denkansätze der Mitarbeiterinnen und Mitarbeiter, die täglich ihren Dienst in den Grundsicherungsstellen verrichten und dadurch wirkliche Experten sind, bilden dabei die Basis für bislang im politischen Dialog fast unbeachtete bottom up-Prozesse, die die Diskussion um inhaltliche und insbesondere 'unpolitische' Lösungsansätze bereichern und weiterbringen könnte.Inhaltsverzeichnis:Inhaltsverzeichnis: Danksagungii Inhaltsverzeichnisiii Abkürzungenvii Abbildungen und Tabellenix 1.Einleitung und Problemstellung1 1.1Die Verfassungswidrigkeit der ARGEn und das Erfordernis, die Grundsicherung für Arbeitsuchende neu zu regeln1 1.2Konkretes Vorgehen bei der Entwicklung einer funktionierenden Organisation2 1.3Methodischer Ansatz4 2.Das Bundesverfassungsgerichtsurteil vom 20.12.075 3.Die Geschichte des SGB II und der verschiedenen Umsetzungskonstellationen8 3.1Der Reformbedarf und der Wille der Regierung: Der Gesetzesentwurf zum 'Hartz IV-Gesetz'8 3.2Modifikationen des Gesetzes bis zur Verabschiedung15 3.3Der politische Weg: Neue Modelle seit dem Verfassungsgerichtsurteil vom 20.12.200720 3.3.1Das kooperative Jobcenter (KJC) – BMAS/BA20 3.3.2Zentrum für Arbeit – Deutscher Städte- und Gemeindebund21 3.3.3Die Bundesauftragsverwaltung (das 'Bayernmodell')22 3.3.4Aktueller Stand der politischen Diskussion – Modell 'ZAG' mit Verfassungsänderung und Festschreibung der Option24 3.4Die alles beherrschende Frage: Wer kann es besser? Der Bund oder die Kommunen?25 4.Evaluation der Experimentierklausel und allgemeine Wirkungsforschung29 4.1Wirkungsforschung zur Experimentierklausel im Auftrag des BMAS: ISG – Institut für Sozialforschung und Gesellschaftspolitik30 4.1.1Ergebnisse aus den Untersuchungsfeldern des ISG-Forschungsverbundes33 4.1.2Wer ist besser? ARGE, zkT oder gAw?37 4.2ISE – Internationales Institut für Staats- und Europawissenschaft im Auftrag des DLT (Deutscher Landkreistag)39 4.3Bundesagentur für Arbeit (BA): Sonderbericht – 'Übergänge aus Grundsicherung in Beschäftigung'42 4.4Weitere Forschungsansätze44 4.5Zusammenfassung des aktuellen Forschungsstandes46 5.Die Ausgestaltung des SGB II im regionalen Kontext 'Bodensee-Oberschwaben'49 5.1Methodische Erläuterungen49 5.2Überprüfung der Vergleichbarkeit des Landkreises Ravensburg, des Bodenseekreises und des Landkreises Konstanz50 5.2.1SGB II-Vergleichstypen nach IAB50 5.2.2Regionenmatching des ZEW im Rahmen der Evaluation der Experimentierklausel des § 6c SGB II51 5.2.3Deskriptive Analyse des regionalen Arbeitsmarkts54 5.3Zeitreihen zur Entwicklung der Arbeitsmarktlage sowie der Situation im SGB II – Bereich der untersuchten Kreise56 5.4Erfolgsparameter: Aktivierungs- und Integrationsquoten62 5.5Fazit aus dem Vergleich der Erfolgsparameter72 5.6Die organisatorische Ausgestaltung der drei Grundsicherungsträger ARGE Konstanz, zkT Bodenseekreis und gAw Ravensburg – Vorstellung der dazu verwendeten Methode (Befragung)75 5.6.1Umsetzung des SGB II in der gAw Ravensburg77 5.6.1.1Entstehungsgeschichte und organisatorische Ausgestaltung77 5.6.1.2Ausgestaltung des Fallmanagements und der Vermittlung88 5.6.1.3Qualitätsmanagement92 5.6.1.4Einsatz der Arbeitsmarktinstrumente ('Maßnahmemix')94 5.6.1.5Bewertung der getrennten Aufgabenwahrnehmung und der Umsetzung des Gesetzes durch die befragten Mitarbeiter96 5.6.2Die Umsetzung des SGB II beim zkT Bodenseekreis99 5.6.2.1Entstehungsgeschichte und organisatorische Ausgestaltung100 5.6.2.2Ausgestaltung des Fallmanagements und der Vermittlung105 5.6.2.3Qualitätsmanagement109 5.6.2.4Einsatz der Arbeitsmarktinstrumente ('Maßnahmemix')110 5.6.2.4Bewertung der kommunalen Option und der Umsetzung des Gesetzes durch die befragten Mitarbeiter112 5.6.3Die Umsetzung des SGB II in der ARGE Konstanz115 5.6.3.1Entstehungsgeschichte und organisatorische Ausgestaltung115 5.6.3.2Ausgestaltung des Fallmanagements und der Vermittlung125 5.6.3.3Qualitätsmanagement127 5.6.3.4Einsatz der Arbeitsmarktinstrumente ('Maßnahmemix')128 5.6.3.5Bewertung der ARGE und der Umsetzung des Gesetzes durch die befragten Mitarbeiter130 5.7Gemeinsamkeiten und Unterschiede bezüglich der Erfolgsfaktoren bei der Umsetzung des SGB II in den befragten Grundsicherungsstellen der Region Bodensee-Oberschwaben134 5.7.1Organisatorische Ausgestaltung134 5.7.2Wahrgenommene Erfolgsfaktoren138 5.7.3Wahrgenommene hemmende Faktoren143 5.7.4Zusammenfassung der bisherigen Ergebnisse147 6.Entwicklung eines regionalen Trägermodells für Bodensee-Oberschwaben150 6.1Die Entscheidungsgremien des regionalen Modells150 6.2Die Aufbau- und Ablauforganisation des regionalen Modells151 6.3Fallmanagement und Vermittlung156 6.4Der 'Maßnahmemix'159 6.5Das Qualitätsmanagement160 6.6Die trägerübergreifende IT-Lösung163 7.Übertragung des regionalen Modells auf den Bund164 7.1Einbettung des regionalen Modells in die Kompetenzordnung des Bundes und der Länder165 7.2Alles schon mal da gewesen…? – ein möglicher Ausweg166 8.Schlussbemerkung und Ausblick167 9.Literatur169 AnhangI–XVITextprobe:Textprobe: Kapitel 5.7.4, Zusammenfassung der bisherigen Ergebnisse: Betrachtet man die Darstellungen in den letzten Abschnitten zusammenfassend, so ist festzustellen dass sich in einer kleinräumigen Wirtschaftsregion mit ähnlichen Rahmenbedingungen im Rahmen einer 'Mikroanalyse' die bisherigen Forschungsergebnisse im Wesentlichen replizieren lassen. So fallen kontinuierliche organisatorische Veränderungsprozesse ins Auge sowie die Tatsache, dass sich unterschiedliche organisatorische Ausgestaltungen angesichts der zu verzeichnenden 'atypischen' Ausprägungen größtenteils nicht auf die Art des Trägermodells zurückführen lassen. Unabhängig vom Trägermodell und der (sich noch immer im Wandel befindlichen) Organisationstypologien entwickeln sich im Zeitverlauf in einigen Aspekten anscheinend unterschiedliche, in anderen Aspekten ähnliche Strukturen, Erfolgsfaktoren und Problematiken, unabhängig davon, ob die Organisationsform nun zentral vorgegeben ist, sich dezentral entwickelt hat oder eine 'Mischform' darstellt. Dazu gehört der bei allen Befragten geäußerte Wunsch bzw. die als Erfolgsfaktor benannte Individualisierung im Leistungsprozess, einerseits bei den eingesetzten Maßnahmen, andererseits im persönlichen Beziehungsaufbau zum Kunden, der letztlich auch entgegen vorgegebener Strukturen 'durchgesetzt' wird. Das weiter oben angeführte 'Baden-Württemberg-Paradox' zeigt sich in hohem Maße: Deutlich die Mehrheit der eHb werden als nicht direkt vermittelbar eingestuft und die Notwendigkeit sozial stabilisierender und nicht ausschließlich beschäftigungsorientierter Maßnahmen für diese Klientel in den Vordergrund gerückt. Individualisierung als Erfolgsfaktor im Prozess der Erbringung sozialer Dienstleistungen zeigt sich nicht nur im direkten Umgang mit dem Kunden, sondern ist auch in Aspekten der Mitarbeiterzufriedenheit bzw. der Mitarbeitermotivation, Engagement und Identifikation mit der Aufgabe zu finden, und zwar um so mehr dort, wo Mitarbeitern Gestaltungs- und Entscheidungsfreiheiten eingeräumt werden. Dem stehen andererseits Bemühungen des Gesetzgebers in Richtung zunehmender und größtmöglicher Standardisierung und 'Entpersonalisierung' der Leistungsprozesse entgegen, die durchweg als hemmend und die Arbeit beeinträchtigend erlebt werden. Transparenz, Einheitlichkeit und Einfachheit der Aufbau- und Ablaufstrukturen in der Organisation werden dagegen, ebenso wie eine komfortable und einheitliche EDV-Lösung und transparente, realisierbare geschäftspolitische Ziele als Erfolgsfaktoren wahrgenommen bzw. vermisst, wenn sie nicht vorhanden sind. Eher bzw. 'zu' informelle Strukturen, zu viele Ansprechpartner für die Mitarbeiter innerhalb der Organisation oder für die Kunden werden dagegen wegen der zu verzeichnenden Reibungsverluste und 'Brüche' in der Beziehung zum Kunden sowie der schwierigen Einarbeitung neuer Mitarbeiter eher als hemmend erlebt. Kommunale Strukturen und Netzwerkarbeit werden als Erfolgsfaktoren benannt, am Beispiel der gAw Ravensburg zeigt sich dabei, dass trotz institutionell bedingter Nachteile und entgegen anders lautender bundesweiter Evaluationsergebnisse dennoch ein relativ hohes Maß an Kooperation und Kundenfreundlichkeit sowie auch Netzwerkarbeit möglich ist, wenn die beteiligten Akteure entsprechende Handlungsspielräume erkennen und nutzen. Ganz deutlich wird dem Bedürfnis nach Individualisierung im zkT Bodenseekreis Rechnung getragen, was sich für die Mitarbeiter in einem hohen Beteiligungsgrad einerseits sowie andererseits in einem kaum vorzufindenden quantitativen Controlling zeigt. Auch die 'echte' Sozialarbeit und die wahrgenommene Unterstützung durch die Leitung hinsichtlich der Nicht-Quantifizierbarkeit vieler Ziele werden hervorgehoben. Andererseits sind hier dann auch die Befürchtungen, Gestaltungsspielräume künftig abgeben und sich verstärkt den Reglementierungen des BMAS oder des Bundes 'unterwerfen' zu müssen, am deutlichsten ausgeprägt, während ARGE- und gAw – Mitarbeiter an eine zunehmende Standardisierung eher gewöhnt zu sein scheinen und sich 'Nischen' im System suchen. Bezüglich der Erfolgsindikatoren deuten sich Zusammenhänge mit einzelnen, subjektiv wahrgenommenen Erfolgsfaktoren an, z. B. die Initiative '0 Prozent Jugendarbeitslosigkeit' im Bodenseekreis und die dort zu beobachtende geringe Jugendarbeitslosigkeit, die Betonung präventiver Ansätze und sozial stabilisierender Maßnahmen im Bodenseekreis und der leichte Vorsprung bei der Integration der eHb in Beschäftigung. Andererseits könnte die stärkere Beschäftigungsorientierung in Ravensburg und Konstanz mit der zu verzeichnenden, besseren Integrationsrate von arbeitslosen Hilfebedürftigen in Zusammenhang stehen. Hieraus Kausalzusammenhänge abzuleiten wäre angesichts der schmalen Datenbasis und der sehr schwachen Zusammenhänge jedoch nicht nur vermessen, sondern schlicht falsch. Auch können keine Zusammenhänge zwischen einzelnen Maßnahmen der jeweiligen 'Maßnahmemixe' oder zwischen verschiedenen organisatorischen Ausgestaltungen und 'messbarem' Erfolg festgestellt werden. Auch unter Hinzuziehung der Evaluationsforschung scheint das Modell der Aufgabenwahrnehmung unerheblich zu sein: Innerhalb der Modelle zeigt sich auch in einer kleinräumigen Studie ein derart hohes Maß an Abweichungen und gegenläufigen Tendenzen in mehreren Aspekten, dass letztlich festzuhalten bleibt, dass in Bodensee-Oberschwaben keines der Modelle eine erfolgreiche Wahrnehmung bzw. Umsetzung der sich aus dem SGB II ergebenden Aufgaben 'verhindert' sondern dass sich vielmehr unter Nutzung der Gestaltungsspielräume Abläufe entwickeln, die mehr oder weniger effizient sein mögen, aber – das zeigen die dargestellten Erfolgsparameter – offensichtlich ähnlich effektiv 'funktionieren'. Aus den postulierten Erfolgsfaktoren aller Träger versuchen die Verfasser nun, eine Organisationsform zu entwickeln, die möglichst viele der genannten Aspekte berücksichtigt und Reibungsverluste minimiert.
Agricultural plant production has negative environmental impacts such as nitrate leaching and emissions of greenhouse gasses (N2O and CO2). Both phenomena are affected by the decomposition of soil organic matter and plant litter in soil, which is influenced by soil properties, climate, and agricultural management. Modeling is essential to improve the understanding and to predict the effects of management and its dependence on climate and soil properties. This thesis compiles three modeling studies performed with the objective to enhance our understanding of how organic matter decomposition and N dynamics in agricultural soils influence environmental impacts from plant production. Models have been applied at three levels of scale, ranging C and N mineralization of plant residues decomposed under lab conditions, field N dynamics, and a national C balance inventory for cropland. For optimal utilization of green manure and crop residue amendments, N mineralized during plant residue decomposition should be synchronized with plant N demand to minimize N losses to the environment. To achieve such synchronization, we need good prediction of net N mineralization immobilization kinetics during decomposition of relevant agricultural plant materials. This requires robust estimation of the partitioning of plant litter C and N into rapidly and slowly decomposing pools. This study presents a novel approach to partition plant C and N between two litter pools (rapidly and slowly decomposing), i.e., the simultaneous optimization of plant-specific and global parameters (against observed C and N mineralization kinetics in laboratory incubations). The study demonstrated that for a majority of the 76 plant residues, the model was able to predict C and N mineralization with reasonable precision. However, outliers were detected, which may indicate that the use of a global parameter for the C/N-ratio of the microbial biomass is not valid in all cases (i.e., specific plant materials appear to stimulate the growth of microbes with higher or lower C/N ratios than the ratio for the majority of the residues). Biochemical fractionation (SCD) and NIR-spectra of the plant residues were available and used for regression analyses to predict the optimized partitioning of C and N between the litter pools, thus searching for ways to accurately predict partitioning parameters using NIR and SCD data. Validation against a part of the dataset, which was not used for regression analyses, demonstrated that partitioning parameters obtained by regression models of NIR and SCD data were more appropriate than from chemical fractions directly. To investigate the environmental and production efficiency of organic stockless grain production, we studied the N dynamics in organic clover-grass and cereal of a stockless organic farm in Southeast Norway for an 8-10 year period using an ecosystem model (SPN). Additionally, scenario simulations of alternative crop rotations and plowing season in the present (1980-2009) and future (2071-2100) climate conditions were performed to explore the potential for improving stockless organic grain production. In an evaluation of efficiency indicators based on production and environment, only marginal improvements were possible by changing management, and this was also the case for the simulations using the future climate. This study clearly indicates that external nutrient resources are necessary to substantially improve the N use efficiency in stockless cereal systems. Consequently, such systems may be discouraged in the future and the reintegration of livestock is recommended. With the objective to estimate the soil C balance of Norwegian cropland on mineral soils, the IPCC methodologies for default (Tier 1) and Tier 2 were applied to agricultural activity data for the inventory period 1999-2009. National CO2 emissions were primarily caused by a reduction in manure available. The default Tier 1 method overestimated the decline in soil organic C, particularly for crop rotations without manure applications, compared to the Tier 2 method. National net CO2 emissions were 313 Gg CO2 yr–1 for Tier 1 and 139 Gg CO2 yr–1 for Tier 2. A reduction in livestock numbers during the inventory period appears to be an important reason for the high emissions. Thus, the emissions (as estimated) could be reduced by maintaining a high number of livestock. However, in the total greenhouse gas budget, the accompanying methane emissions from enteric fermentation would more than outweigh the reductions in CO2 emissions by high livestock numbers. Thus, care should be taken when focusing greenhouse gas mitigating strategies on C sequestration. This study highlights the need for integrated emission budgets for policy development and also for the collection of agricultural activity data regarding manure application practices such as application rates, water content, C content, and import export dynamics. This thesis delivers a contribution to the understanding of organic matter decomposition and N dynamics in agricultural soils by modeling studies performed at different scales. The findings herein support the notion that several factors beyond the biological system are crucial to reduce the adverse environmental impacts from agricultural soils, e.g., consumption patterns, market dynamics, and legislation. Also, fundamentally restructuring current production systems by reintegration of livestock and arable farming seems the best option to improve N use efficiency and sustain soil organic matter levels. To optimize the biological capacity to reduce environmental impacts, agroecosystem models that account for plant and livestock interactions are indeed needed and useful tools to characterize sustainable agricultural systems. ; Landbrukets planteproduksjon har negative miljømessige konsekvenser som for eksempel nitratutvasking og utslipp av klimagasser (N2O og CO2). Begge fenomener påvirkes av nedbryting av jordas organiske materiale og planterester i jord, som er påvirket av jordas egenskaper, klima og agronomisk praksis. Modellering er viktig for å bedre forståelsen og forutsi effekten av praksis og dennes avhengighet av klima og jordsmonnsegenskaper. Denne avhandlingen sammenslår tre modellstudier utført med det formål å forbedre vår forståelse av hvordan nedbrytning av organisk materiale og N dynamikk i dyrket jord påviker miljøet fra planteproduksjon. Modeller ble anvendt på tre nivåer: karbon (C) og nitrogen (N) mineralisering fra planterester nedbrutt under kontrollerte forhold i laboratorium, N dynamikk i felt, og et nasjonalt C budsjett for dyrket mark. For optimal utnyttelse av grønngjødsel og planterester tilført jorden og minimere N tap til miljøet, bør N mineralisert fra nedbrytning av planterester være synkronisert med plante N opptaket. For å oppnå en slik synkronisering, trenger vi god prediksjon av netto N mineraliserings- og immobiliseringskinetikk under nedbrytning av plantematerialer. Dette krever robust estimering av fordelingen av plante C og N i rasktog sakte-nedbrytende puljer. Denne studien presenterer en ny tilnærming til å skille plante C og N mellom to planterestpuljer, dvs. simultan optimalisering av plantespesifikke og globale parametere (mot observerte C- og N-mineralisering kinetikk i laboratorieinkubasjoner). Studien viste at for et flertall av de 76 planterestene, var modellen i stand til å forutsi C- og N-mineralisering med tilstrekkelig presisjon. Men der var outliers, hvilket kan tyde på at bruken av en global parameter for C/N-forholdet for den mikrobielle biomasse ikke er gyldig i alle tilfeller (dvs. spesifikke plantematerialer ser ut til å stimulere veksten av mikrober med høyere eller lavere C/N-forhold enn de som vokser på flertallet av planterester). Biokjemiske fraksjonering (SCD) og NIR-spektra av planterester var tilgjengelig og ble brukt for regresjonsanalyser for å forutsi den optimaliserte fraksjonen av C og N mellom plantepuljene, og dermed søke etter måter å nøyaktig forutsi fraksjonsparameterne ved å bruke NIR og SCD data. Validering mot en del av datasettet, som ikke var brukt for regresjonsanalysene viste at fraksjoneringsparameterne ved regresjonsmodeller av NIR og SCD data var mer passende enn fra kjemiske fraksjoner direkte. For å undersøke miljø- og produksjonseffektivitet av økologisk husdyrløs kornproduksjon, studerte vi N dynamikken i et vekstskifte med kløvergress og korn på en gård i Sørøst-Norge for en 8-10 års periode ved hjelp av en økosystemmodell. I tillegg, ble scenario simuleringer av alternative vekstskite og pløyesesong under nåværende (1980-2009) og fremtidige (2071-2100) klimaforhold utført for å undersøke potensialet for forbedring av husdyrløs økologisk kornproduksjon. I en evaluering av effektivitetsindikatorer basert på produksjon og miljø var bare marginale forbedringer mulige ved å endre vekstskifte og pløyesesong og dette var også tilfellet for simuleringer med det fremtidige klima. Denne studien indikerer klart at eksterne næringsstoff er nødvendig for å vesentlig forbedre produktivitet og bærekraft i husdyrløse kornsystemer. Derfor bør slike systemer kanskje frarådes i fremtiden og muligens burde husdyr reintegreres. Med det formål å estimere jord C balansen i norsk dyrket mark på mineraljord ble IPCC standard (Tier 1) og Tier 2 metodene anvendt med landbruksaktivitetsdata for beregningsperioden 1999-2009. Nasjonale CO2-utslipp var hovedsakelig forårsaket av en reduksjon i husdyrgjødseltilgjengelighet. Standard Tier 1 metode overvurdert nedgangen i jord organisk C, spesielt for vekstskifter uten husdyrgjødsel i forhold til Tier 2 metoden. Det nasjonale netto CO2-utslipp var 313 Gg CO2 år-1 for Tier 1 og 139 Gg CO2 år-1 for Tier 2. En reduksjon i husdyrtallet i løpet av beregningsperioden synes å være en viktig årsak til utslippene. Dermed kan utslippene (som estimert) reduseres ved å opprettholde et høyt antall husdyr. Men totale klimagassutslipp fra landbruket målt i CO2-ekvivalenter ville dermed øke fordi metanutslipp fra gjæring i vommen fra et større antall dyr veier tyngre enn den oppnådde reduksjonen i CO2-utslippene fra jorden. Derfor bør man være forsiktig med å fokusere klimagassformildende strategier for C lagring i jord. Denne studien understreker behovet for integrerte utslippsbudsjetter for politikkutvikling og også for innsamling av data om driftspraksis vedrørende husdyrgjødsel, så som bruksmengder, vanninnhold, C innhold, og import-eksport dynamikk. Denne avhandlingen gir et bidrag til forståelsen av nedbrytning av organisk materiale og N dynamikk i landbruksjord ved modellstudier utført på ulike skalaer. Funnene her støtter oppfatningen at flere faktorer utover det biologiske system er avgjørende for å redusere miljøulempene fra dyrket mark, for eksempel forbruksmønster, markedsdynamikk og lovgivning. Modelleringsøvelsene støtter også oppfatningen at reintegrering av husdyr og kornproduksjon kan forbedre N effektiviteten i landbruket som helhet, og bidra til å opprettholde jordas innhold av organisk materiale. For å optimalisere den biologiske evnen til å redusere miljøbelastningen, er agroøkosystemmodeller, som inkluderer plante- og husdyrinteraksjonen, et nyttig verktøy for å karakterisere bærekraftige landbrukssystemer.
Gegenstand der Studie: " In den hundert Jahren zwischen 1789 und 1880 erlebte die bäuerlich strukturierte, westfälische Landwirtschaft einen langanhaltenden Aufschwung, so daß sich allein zwischen 1830 und 1880 die Agrarproduktion mehr als verdoppelte. Die vorliegende Studie betrachtet dabei die Entwicklung des westfälischen Agrarsektors konsequent vom Markt her. Im Mittelpunkt steht die expandierende Marktnachfrage, die Entstehung eines einheitlichen Binnenmarktes und die Auswirkungen des Eisenbahnbaus. Wachstumsbeeinflußende strukturelle Veränderungen auf den Agrarmärkten werden untersucht. Eine Auswertung der Rechnungs- und Anschreibebücher einzelner Höfe macht deutlich, daß die Kommerzialisierung und Marktbezogenheit der bäuerlichen Ökonomie Westfalens schon um 1800 weit fortgeschritten war." (Kopsidis, M. 1996)
Untersuchungsraum und –zeit: "Aufgrund der bäuerlichen Besitzstrukturen und des frühen Vorhandenseins gewerblicher Verdichtungsräume mit schnell wachsender nichtlandwirtschaftlicher Bevölkerung eignet sich Westfalen besonders gut zur Untersuchung der landwirtschaftlichen Entwicklung im Zusammenhang mit Märkten. Die westfälische Landwirtschaft produzierte in erster Linie für den heimischen Verbrauch. Systematische Exportproduktion spielte bei fehlenden Küsten und einer geringen Durchdringung mit anderen günstigen Wasserwegen keine nennenswerte Rolle. Die protoindustriellen Zentren in Minden-Ravensberg, im Niedersauerland und insbesondere der beginnende Aufstieg des Ruhrgebietes zum industriellen Kerngebiet Westdeutschlands bieten gute Voraussetzungen für eine Untersuchung der Entstehung eines agrarischen Binnenmarktes und der Intensivierung lokaler Marktstrukturen. Der Erhebungszeitraum erlaubt es, den regionalen Entwicklungsstand der westfälischen Landwirtschaft kurz vor Beginn der Agrarreformen, vor Aufhebung der Grundherrschaft, zu erfassen. Des weiteren stand das Ruhrgebiet um 1780 noch in der Vorphase der Industrialisierung und somit erst am Beginn seines Aufstieges zum größten industriellen Ballungsraum Deutschlands. Die Nachfrage der nichtlandwirtschaftlichen Bevölkerung im Ruhrrevier konnte in den 30er Jahren des 19. Jahrhunderts – dem Beginn der Frühindustrialisierung – noch durch die lokale Produktion gedeckt werden und beeinflußte nicht die Produktionsstruktur anderer westfälischer Gebiete. Allerdings waren die protoindustriellen Verdichtungsräume der Mittelgebirge schon um 1830 in erheblichem Ausmaß von Zufuhren zur Sicherung ihrer Getreideversorgung angewiesen, so daß nicht ein völliges Fehlen überregionaler Marktbeziehungen für 1822/35 gegeben war. Die Ausstrahlung der Nachfrage dieser Gebiete ist aber in keiner Weise mit der des aufstrebenden Ruhrgebietes nach 1840 zu vergleichen. Die Jahre 1878/82 dienen als Endpunkte des Untersuchungszeitraumes, weil es für diese Zeit erstmals möglich ist, auf der Basis der Erntestatistik kleinräumige Produktionsdaten als Durchschnittsgrößen zu errechnen. Gleichzeitig markiert dieser Zeitraum mit der Einführung der agrarischen Schutzzölle 1878/79 das Ende der liberalen Phase deutscher Agrar-Marktpolitik. Somit ist der Untersuchungszeitraum auch gekennzeichnet von einer liberalen Politik, in der staatliche Interventionen die Marktkräfte nur in geringem Ausmaß beschnitten. Die Reaktionsfähigkeit bäuerlicher Familienbetriebe am Markt kann somit unter fast idealtypischen Bedingungen untersucht werden." (Kopsidis, 1996, S. 83f.)
Daten und Datenaufbereitung, Quellenproblematik: Fundierte Daten zur Flächennutzung, den Hektarerträgen, der Agrarproduktion oder der Wertschöpfung im Agrarsektor vor 1880 liegen bisher für die westfälischen Gebiete nicht vor. Nachvollziehbare, gesicherte und detaillierte Produktionsdaten für die erste Hälfte des 19. Jahrhunderts sind bisher für die wenigsten Territorien auf dem Gebiet des Deutschen Reichs verfügbar. Im Rahmen dieser Arbeit werden umfangreiche Aktenbestände zur Katastralabschätzung von 1822/35, die zur Ermittlung der Grundsteuer dienten, quantitativ-statistisch ausgewertet. Bäuerliche Rechnungs- und Anschreibebücher dienen als eine weitere Quellengrundlage. Sie enthalten über die quantitativen Preisangaben hinaus eine Vielzahl an Informationen, welche die Funktionsweise von ländlicher Pacht-, sowie von Kredit-, Arbeits- und Absatzmärkten beleuchten. Somit gewähren diese Bücher schon für das späte 18. Jahrhundert einen Einblick in die Funktionsweise und die spezifischen Besonderheiten ländlicher Märkte. Diese Quellen behandeln die Mikroebene des Integrationsprozesses der Landwirtschaft in den Markt. Preisreihendaten dienen neben den Grundsteuerakten und den Rechnungsbüchern als dritte Quelle, da Preisen als Regulierungsmechanismus auf Märkten eine zentrale Rolle zukommt. Preise und Preisentwicklungen stellen die entscheidendste Einflußgröße auf bäuerliche Produktionsentscheidungen dar, die wiederum das langfristige landwirtschaftliche Wachstum beeinflussen. Landwirtschaftliche Produktionsdaten für 1822/35 und 1878/82 sind nur für die Regierungsbezirke Münster und Arnsberg ermittelbar, da nur hier die Aktenbestände der Katastralabschätzung vollständig vorliegen. Der Verlust der Quellen des Regierungsbezirks Minden ist jedoch nicht sehr gravierend, da das Ruhrgebiet am westlichen Rand des Regierungsbezirks Arnsberg angrenzt und somit sein Einfluß erfasst werden kann. Die Bezirke Münster und Arnsberg weisen eine solche Vielfalt an agrarisch, ökonomisch, demographisch und verkehrsmäßig gut abgrenzbaren Regionen auf, daß die wichtigsten Einflußgrößen des Prozesses der Marktintegration und ihre Auswirkungen analysiert werden können. (Kopsidis, 1996, S. 86-92)
Die Studie setzt sich zusammen aus Daten zu einzelnen Jahren (Querschnitte) sowie aus Zeitreihen, in denen einzelne Aspekte der landwirtschaftlichen Marktintegration über die Zeit deutlich werden. Die Zeitreihen-Daten sind in der online-Datenbank HISTAT unter dem Thema Landwirtschaft frei zugänglich. Die Querschnitt-Daten können auf Anfrage zugesendet werden. Auch die Querschnittdaten werden ohne Beschränkungen zur Verfügung gestellt.
Datentabellen dieser Studie insgesamt:
A. Strukturmerkmale der westfälischen Landwirtschaft
A.1 Die Bevölkerung
A.01.01 Anteil der landwirtschaftlichen Bevölkerung an der Gesamtbevölkerung 1849 und 1882 A.01.02a Bevölkerungsstand nach Kreisen (1828-1880) A.01.02b Bevölkerungsdichte und Bevölkerungswachstum nach Kreisen (1828 und 1880)
A.2 Verkehrserschließung
A.02.01 Die Verkehrsinfrastruktur der Regierungsbezirke Münster und Arnsberg 1868 A.02.02 Die Bahnhofsdichte in den Regierungsbezirken Münster und Arnsberg 1855, 1865 und 1875
A.3 Bodengüte und monetäre Reinerträge landwirtschaftlicher Flächen
A.03.01 Die natürliche Bodengüte der Regierungsbezirke Münster und Arnsberg auf Kreisebene nach August Meitzen (1866). A.03.02 Monetäre Reinerträge zur Steuerbemessung pro Morgen Gesamtfläche, Acker und Wiesen auf Kreisebene in Reichstalern für 1822/35 und 1861/65. A.03.03 Bildung von Regionen in Westfalen anhand von Reinerträgen, Bevölkerungswachstum und agrarischem Bevölkerungsanteil. A.03.04 Ranking der Reinertragshöhe pro Morgen für die preußischen Provinzen nach Meitzen für 1861/65.
A.4 Betriebsstruktur und Bodenverteilung
A.04.01a Summe der landwirtschaftlichen Betriebe nach Region und Anteil unterschiedlicher Betriebsgrößen nach Region, 1849 und 1868.. A.04.01b Zunahme der landwirtschaftlichen Betriebe nach Region und Betriebsgrößenklasse, absolut und in Prozent, zwischen 1849 und 1868. A.04.02 Die regionale landwirtschaftliche Betriebsstruktur in den Regierungsbezirken Münster und Arnsberg 1882.
B. Die marktbezogene Entwicklung der westfälischen Landwirtschaft
B.1 Entwicklung der landwirtschaftlichen Produktion: Hektarerträge
B.01.01 Hektarerträge in Kilo nach Feldfruchtart und nach Regionen (geschätzt) für 1822/35. B.01.02 Hektarerträge in Kilo nach Feldfruchtart und nach Regionen (geschätzt) für 1878/82. B.01.03 Absolute und prozentuale Zunahme der Hektarerträge nach Feldfruchtart und nach Regionen (geschätzt) für 1822/35 und 1878/82. B.01.04 Hektarerträge nach Regionen und Getreidesorten zwischen 1800 und 1830, nach verschiedenen Quellen. B.01.05: Hektarerträge in Doppenzentner für Ackerklassen mit Weizenanbau nach Regionalverbänden, 1822/35.
B.2 Entwicklung der landwirtschaftlichen Produktion: landwirtschaftliche Nutzfläche
B.02.01 Landwirtschaftliche Nutzfläche nach Regionen und Nutzungsart in Prozent von der gesamten landwirtschaftlichen Nutzfläche 1822/35 und 1878/82. B.02.02 Absolute und prozentuale Entwicklung (Zunahme) der landwirtschaftlichen Nutzfläche 1822/35 und 1878/82. B.02.03 Anteil der einzelnen Anbaufrüchte am Anbauland 1822/35 und 1878/82 sowie ihre absolute und prozentuale Veränderung. B.02.04 Anbau von Ackerpflanzen als Nebenfrüchte – Fläche in Hektar und in Prozent an der sog. Restfläche.
B.02.05 Jahresproduktion ausgewählter Feldfrüchte und für Heu in Tonnen und in regionalen Anteilen, 1822/35 und 1878/82. B.02.06 Jahresproduktion ausgewählter Feldfrüchte und für Heu in Tonnen und in regionalen Anteilen, 1822/35 und 1878/82. B.02.07 Die Relation von Nahrungsgetreide zu Futtergetreide, 1822/35 und 1878/82.
B.3 Entwicklung der landwirtschaftlichen Produktion: Tierbestand und pflanzliche Produktion, Produktivität
B.03.01 Regionale Entwicklung der Tierbestände nach Tierart in abs. Zahlen 1828-1883. B.03.02 Prozentuale Entwicklung der Tierbestände nach Tierart und nach Region 1828-1883. B.03.03 Regionaler Schweinebestand in Tonnen 1828, 1864 und 1883. B.03.04 Regionaler Rinderbestand nach Rindergruppen (Kälber, Jungtiere, Stiere + Ochsen, Kühe, Rinder insgesamt) in Tonnen und jährlicher Wachstum 1828, 1864 und 1883. B.03.05 Schweinebestand im Verhältnis zum Rinderbestand nach Regionen 1828, 1864 und 1883. B.03.06 Regionaler Kapitalbestand an Nutztieren in Mio Mark in Preisen von 1883 für 1828 und 1883. B.03.07 Regionale Wertschöpfung an der tierischen Produktion in Preisen von 1878/82 für 1828 und 1883. B.03.08 Regionale Wertschöpfung an der pflanzlichen Produktion in Preisen von 1878/82 für 1822/35 und 1878/82. B.03.09 Regionale Wertschöpfung im Agrarsektor in Mio Mark für 1822/35 und 1878/82. B.03.10 Anteil der Ackerkühe und –ochsen am gesamten Kuh- und Ochsenbestand 1882. B.03.11 Anteil der Kühe am gesamten Rinderbestand 1828, 1858 und 1883. B.03.12 Die regionale Arbeitsproduktivität in der Landwirtschaft 1878/82. B.03.13 Anzahl und prozentuale Verteilung des regionalen Zugviehbestandes an Pferden, Ackerochsen und Ackerkühen nach Betriebsgrößen in ha, 1882. B.03.14 Regionale Nutzung der Rinder in Prozent nach Betriebsgrößen in ha, 1882. B.03.15 Regionale Milchkuh- und Schweinehaltung pro Hektar landwirtschaftlicher Nutzfläche nach Betriebsgrößen in ha, 1882. B.03.16 Anteil der Betriebe mit Maschinennutzung nach Region, Maschinentyp (Dampfmaschinen, Dreschmaschinen, Mähmaschinen und Sämaschinen) und nach Betriebsgrößen in ha, 1882. B.03.17 Die von der Landwirtschaft lebenden Personen 1849 und 1882 sowie ihr Wachstum. B.03.18a Das Verhältnis der regionalen pflanzlichen Nahrungsmittelproduktion zum Konsum: Brutto- und Nettoerträge nach ausgewählten Feldfrüchten in Tonnen, 1822/35 und 1878/82. B.03.18b Das Verhältnis der regionalen pflanzlichen Nahrungsmittelproduktion zum Konsum: Bedarf, Nettoertrag und Differenz für Getreide, Kartoffeln und Brennereiprodukten in Tonnen, 1822/35 und 1878/82. B.03.19 Getreideeinfuhr und -ausfuhr sowie der Importüberschuß in den Regierungsbezirken Münster und Arnsberg im Jahresdurchschnitt, 1826/28. B.03.20 Das Verhältnis der verfügbaren Getreidemenge zu verschiedenen Bedarfsschätzungen in den Regierungsbezirken Münster und Arnsberg in Tonnen, 1822/35. B.03.21 Die Fleischproduktion pro Kopf 1828 und 1883. B.03.22 Die Entwicklung der Futterproduktion an Hafer, Klee und Wiesenheu in Tonnen und je Pferd und Rind, 1822/35 und 1878/82.
C. Der westfälische Agrarmarkt im Integrationsprozeß zwischen 1780 und 1880
C.01 Struktur der Betriebe und Entwicklung der Hofeinnahmen
C.01.01 Größe, Flächennutzung und Reinertrag der einzelnen Höfe nach dem preußischen bzw. lippischen Katasterakten in Prozent C.01.02 Die durchschnittliche Umsatzhöhe für ein Erntejahr, 1750-1889 C.01.03 Die Struktur der Einnahmen eines Hofes pro Jahrzehnt, 1750-1889 C.01.04 Der durchschnittliche Getreideverkauf pro Erntejahr, 1750-1889 C.01.05 Die durchschnittlich pro Erntejahr verkaufte Roggen-, Weizen- und gesamte Getreidemenge in preußischen Scheffeln, 1750-1889 C.01.06 Der durchschnittliche jährliche Getreideexport und –import über die Zollgrenzen der Provinz Westfalen 1826 und 1828 C.01.07 Gliederung der westfälischen Getreideexport und –import nach Regierungsbezirken 1826/1828
C.02 Entwicklung der Einnahmen ausgewählter Höfe
C.02.01 Roggenanbau, Roggenernte und Roggenverkauf des Hofes Schulte zu Dellwig, 1812-1823 C.02.02 Der Viehverkauf des Hofes Schulze, 1811-1886 C.02.03 Der Viehverkauf des Hofes Meierherm, 1848-1883 C.02.04 Der Viehverkauf des Hofes Schulte zu Dellwig, 1810-1819 C.02.05 Der Viehverkauf des Hofes Schuth-Schepsmeier, 1828-1875 C.02.06 Die durchschnittlichen Einnahmen pro Jahrzehnt für ein Erntejahr aus 'betriebsfremden Arbeiten' sowie aus Krediten, Mieten und Pachten in Reichstalern, 1750-1889 C.02.07 Die Kredit-, Pacht- und Mieteinnahmen der Höfe Schulte zu Dellwig und Schulze Froning, 1810/11-1855 bzw. 1886 C.02.08 Die Kredit-, Pacht- und Mieteinnahmen der Höfe Meierherm, Meyer zu Müdehorst, Behmer/ Schulte und Wenning, 1750-1883
C.03 Lange Reihen: Getreideverkäufe und Einnahmen ausgewählter Höfe, Roggen- und Weizenpreise
C.03.01 Die Getreideverkäufe des Hofes Behmer/ Schulte pro Erntejahr 1790- 1819 C.03.02 Die Getreideverkäufe, -entlohnungen und -pachten des Hofes Janning pro Erntejahr 1798- 1815 C.03.03 Die Getreideverkäufe des Hofes Meierherm pro Erntejahr 1848- 1883 C.03.04 Die Getreideverkäufe und Zehnten des Hofes Meyer zur Müdehorst pro Kalenderjahr 1750- 1774 C.03.05 Die Getreideverkäufe des Hofes Schulte zu Dellwig pro Erntejahr 1810- 1855 C.03.06 Die Getreideverkäufe des Hofes Schulze Froning pro Erntejahr 1811- 1886 C.03.07 Die Getreideverkäufe und -entlohnungen des Hofes Schuth- Schepsmeier pro Erntejahr 1826- 1875 C.03.08 Die Getreideverkäufe des Hofes Wenning pro Erntejahr 1846- 1889 C.03.09 Die Summe der gesamten ermittelten jährlichen Einnahmen aus den Rechnungsbüchern der Höfe C.03.10 Roggenpreise (Jahresdurchschnitt) für ein Kalenderjahr für alle acht Höfe 1750 - 1889 C.03.11 Die Weizenpreise für ein Kalenderjahr für fünf Höfe 1750 - 1889
D. Anhang-Tabellen
D.01 Der jährliche Getreideverbrauch pro Kopf nach verschiedenen Quellen zwischen 1830 und1860 D.02 Die jährlichen Durchschnittspreise in Westfalen für Weizen, Roggen, Gerste und Hafer, 1784-1880 D.03 Die jährlichen Durchschnittspreise in Westfalen für Erbsen, Kartoffeln, Rind- und Schweinefleisch, 1818-1880 D.04 Die jährlichen Durchschnittspreise in Westfalen für Erbsen, Kartoffeln, Rind- und Schweinefleisch, 1818-1880 D.04.b Preise: Monatliche Durchschnittspreise landwirtschaftlicher Produkte für die Provinz Westfalen, 1865-1880 D.04.c Jährliche Variationskoeffizienten der mtl. Getreide-Preise in Westfalen, 1791-1880 ZA8559_D-04c.xls D.05.01 Preise: Preise (Jahresdurchschnitt) für Weizen, Roggen, Gerste und Hafer pro Berliner Scheffel in Reichstaler 1789 bis 1819 D.05.02 Preise: Berliner und Münsteraner Roggenpreise (Jahresdurchschnitt) pro preußischem Scheffel in Reichstalern, 1560 bis 1909 D.05.03 Preise: Mtl. Getreidepreise der Kriegs- und Domänenkammer Minden pro Berliner Scheffel, 1790-1807 D.05.04 Preise: Mtl. Marktpreise pro preuß. Scheffel der Stadt Münster in Reichstaler, 1814-1819 D.05.05 Preise: Monatliche Durchschnittspreise einiger Lebensmittel für den Regierungsbezirk Arnsberg, 1818-1866 D.05.06 Preise: Monatliche Durchschnittspreise einiger Lebensmittel für den Regierungsbezirk Münster, 1828-1868 D.05.07 Preise: Monatliche Durchschnittspreise einiger Lebensmittel für den Regierungsbezirk Minden, 1826-1867 D.05.08 Preise: Monatliche Getreidepreise des Kornmarktes zu Herdecke, 1820-1850 D.05.09 Preise: Getreidepreise (Jahresdurchschnitt) in den Städten Münster, Köln, Aachen und Berlin in Reichstaler pro preußische Scheffel, 1820-1860 D.05.10a Ernteschätzungen für die Provinz Westfalen in Prozent von der Mittelernte 1846 - 1871 D.05.10b Normierte Ernteschätzungen für die Provinz Westfalen (1870=1,0) D.05.11a Durchschnittspreise pro Erntejahr 1846 - 1871 D.05.11b Normierte Preise pro Erntejahr 1846 - 1871 (1870=1,0)
Tabellen in HISTAT
Von den oben aufgeführten Tabellen sind folgende Tabellen über histat frei downloadbar (Thema: Landwirtschaft):
A.01.02a Bevölkerungsstand nach Kreisen (1828-1880) A.02.02 Die Bahnhofsdichte in den Regierungsbezirken Münster und Arnsberg 1855, 1865 und 1875
B.03.01 Regionale Entwicklung der Tierbestände nach Tierart in abs. Zahlen 1828-1883
C.03.01 Die Getreideverkäufe des Hofes Behmer/ Schulte pro Erntejahr 1790- 1819 C.03.02 Die Getreideverkäufe, -entlohnungen und -pachten des Hofes Janning pro Erntejahr 1798- 1815 C.03.03 Die Getreideverkäufe des Hofes Meierherm pro Erntejahr 1848- 1883 C.03.04 Die Getreideverkäufe und Zehnten des Hofes Meyer zur Müdehorst pro Kalenderjahr 1750- 1774 C.03.05 Die Getreideverkäufe des Hofes Schulte zu Dellwig pro Erntejahr 1810- 1855 C.03.06 Die Getreideverkäufe des Hofes Schulze Froning pro Erntejahr 1811- 1886 C.03.07 Die Getreideverkäufe und -entlohnungen des Hofes Schuth- Schepsmeier pro Erntejahr 1826- 1875 C.03.08 Die Getreideverkäufe des Hofes Wenning pro Erntejahr 1846- 1889 C.03.09 Die Summe der gesamten ermittelten jährlichen Einnahmen aus den Rechnungsbüchern der Höfe C.03.10 Roggenpreise (Jahresdurchschnitt) für ein Kalenderjahr für alle acht Höfe 1750 - 1889 C.03.11 Die Weizenpreise für ein Kalenderjahr für fünf Höfe 1750 – 1889
D.02 Die jährlichen Durchschnittspreise in Westfalen für Weizen, Roggen, Gerste und Hafer, 1784-1880 D.03 Die jährlichen Durchschnittspreise in Westfalen für Erbsen, Kartoffeln, Rind- und Schweinefleisch, 1818-1880 D.04.b Preise: Monatliche Durchschnittspreise landwirtschaftlicher Produkte für die Provinz Westfalen, 1865-1880 D.04.c Jährliche Variationskoeffizienten der mtl. Getreide-Preise in Westfalen, 1791-1880 D.05.01 Preise: Preise (Jahresdurchschnitt) für Weizen, Roggen, Gerste und Hafer pro Berliner Scheffel in Reichstaler 1789 bis 1819 D.05.02 Preise: Berliner und Münsteraner Roggenpreise (Jahresdurchschnitt) pro preußischem Scheffel in Reichstalern, 1560 bis 1909 D.05.03 Preise: Mtl. Getreidepreise der Kriegs- und Domänenkammer Minden pro Berliner Scheffel, 1790-1807 D.05.04 Preise: Mtl. Marktpreise pro preuß. Scheffel der Stadt Münster in Reichstaler, 1814-1819 D.05.05 Preise: Monatliche Durchschnittspreise einiger Lebensmittel für den Regierungsbezirk Arnsberg, 1818-1866 D.05.06 Preise: Monatliche Durchschnittspreise einiger Lebensmittel für den Regierungsbezirk Münster, 1828-1868 D.05.07 Preise: Monatliche Durchschnittspreise einiger Lebensmittel für den Regierungsbezirk Minden, 1826-1867 D.05.08 Preise: Monatliche Getreidepreise des Kornmarktes zu Herdecke, 1820-1850 D.05.09 Preise: Getreidepreise (Jahresdurchschnitt) in den Städten Münster, Köln, Aachen und Berlin in Reichstaler pro preußische Scheffel, 1820-1860 D.05.10a Ernteschätzungen für die Provinz Westfalen in Prozent von der Mittelernte 1846 - 1871 D.05.10b Normierte Ernteschätzungen für die Provinz Westfalen (1870=1,0) D.05.11a Durchschnittspreise pro Erntejahr 1846 - 1871 D.05.11b Normierte Preise pro Erntejahr 1846 - 1871 (1870=1,0)
Soziokulturelle Funktionen von daytime Talkshows: Die den Untersuchungen zugrundeliegenden Annahme war, TV-Talkshows als Teil eines gesellschaftlichen Diskurses, als eine mit spezifischen Merkmalen ausgestattete Art der Sprachverwendung zu betrachten, die gerade als kollektive, gesellschaftliche Praxis determinierende Faktoren und spezifische Wirkungen hat. Ihre Manifestationen als Programm, Videoband oder (in reduzierter Form) als verschriftetes Transkript wurden als "Text" definiert, der innerhalb der soziokulturellen Ordnung bestimmte Aufgaben hat, und dessen Funktionen sich nicht allein als lokale Funktionen (die sich auf die unmittelbare Situation als gelenktes Gespräch im Studio vor Publikum beziehen) erklären lassen. Der gesellschaftliche Effekt (die Funktion?) der hier untersuchten daytime talkshows ist ein öffentliches In-Erscheinung-Treten und ein komplementär dazu wirkendes Wahrnehmen des Privatmenschen in seiner Alltäglichkeit, des Durchschnittsmenschen im Medium Fernsehen. Dieser alltägliche Durchschnittsmensch kann durchaus als "the nigger of tv" gesehen werden, denn außer seiner (bisweilen nackten) Haut - oder seinem Innenleben hat er dem Fernsehen nichts zu verkaufen, denn er ist ja gerade nicht prominent, attraktiv, glamourös oder aus anderen Gründen begehrenswert für ein Publikum. Doch zu der Bedingung, seine seelischen Defekte öffentlich vorzuführen, ist auch ihm jederzeit ein Platz im Glanz der Scheinwerfer gewiß. Daß sich so viele zu einer öffentlichen Innenschau entschließen können, hängt vermutlich mit einem medialen Narzißmus zusammen, der die Spiegelung im Blick des Anderen zum Beweis seiner Existenz braucht. In einer von den visuellen Medien, insbesondere dem Fernsehen durchdrungene Lebenswelt, ist das Bedürfnis des namenlosen, unscheinbaren Alltagsmenschen, ebenfalls als ein in dieser TV-Welt existierendes Subjekt wahrgenommen zu werden, möglicherweise verständlich. Dieses Subjekt der Talkshow wird jedoch erst durch Konventionen des Sprachgebrauchs und der Interaktion, durch gezielte Bildführung und Auswahl der Einstellungen, durch sozial signifizierte Formen von Makeup und Dresscodes, aber auch durch Zuschreibungen und Kategorisierungen sowie durch Möglichkeiten (oder Unmöglichkeiten) der zumeist konversationell narrativ realisierten Selbstdarstellung etc. konstituiert und als "Typus" entwickelt. Es ist ein Effekt des Talkshowspezifischen Diskurses. Gleichzeitig ist es Objekt dieses Diskurses, insofern sich alle Teilnehmer über dieses Subjekt (über sein Innenleben, seine Probleme, geeignete Korrekturverfahren etc.) unterhalten. Die soziale (nicht die individuelle!) Identität als Durchschnittsmensch in seiner öffentlichen, gesellschaftlichen Erscheinungsform wird in solchen TVDiskursen erst produziert, und historisch betrachtet ist sie noch eine junge Erscheinung: TV-Talkshows dieses Zuschnitts haben sich erst Ende der achtziger Jahre herausgebildet. Die Showproduzenten sehen explizit eine auf Selbsterkenntnis ausgerichtete, beratende, (alltags-)problemlösende Funktion ihrer Programme, "der Alltagsmensch in Not wird hier geholfen", so würde V. Feldbusch von Sat1 vermutlich formulieren. Als selbsternannte Fernsehvariante eines Ratgeberdiskurstyps ist das Alltagssubjekt aufgefordert, einen Diskurs über es selbst zu halten (Gestehen), Diskursen anderer über es selbst zuzuhören (Informiert-/Belehrt-/Ermahnt-Werden). In dieser Hinsicht ist die hier untersuchte Form von Talkshows auch als gesellschaftliche Praxis zu verstehen, die auf ihre triviale Weise ein "Wissen vom Subjekt" (über sog. subjektive, innere Verfaßtheit, psychische Eigenschaften) hervorbringt, täglich reproduziert und massenhaft verbreitet. Dieses weitgehend durch eine therapeutische Weltanschauung strukturierte, entblößende "Wissen" wird zwischen den Beteiligten jedoch in Formen verhandelt, die die Strukturen und Merkmale eines privates Gespräch simulieren. Das Sprechen über den Privatbereich wird formal auch als privates Gespräch simuliert, weist aber eine hybride Struktur zwischen Abfrageformat und informellem Gespräch auf. Dabei war festzustellen, daß die Teile des Hybrids den Teilnehmerkategorien GUE und HOST nicht zu gleichen Teilen zufallen, sondern die Moderatorin die Optionen informeller Gesprächsorganistationen und Merkmale nutzt, während den Gästen nur die Optionen des reaktiven Parts im Interviewrahmen zustehen und sie auch im Bereich der Lexis selten Gebrauch vom informellen Register machen . In einer merkwürdigen Umkehrung des Faktischen erweist sich die "Redeweise des Volkes" gerade ausschließlich als Option der Moderatorin, die eben nicht die Massen, sondern die Institution, das Medium verkörpert. Talkshowdiskurse formieren öffentlich wahrnehmbare, medial konstituierte soziale Subjekte, die jedoch nicht als Rollen und Statusträger oder Repräsentanten von Institutionen, auch nicht als "Popstars", sondern gerade als "einfache Durchschnittsmenschen" konstituiert werden. Diese Typisierung bzw. Konturierung einer öffentlichen Form des Alltagsmenschen erfolgt jedoch nicht allein über Bilder und Repräsentationen, sondern weitgehend, aber unmerklicher durch diskursive Praktiken, durch den Umgang mit dem Subjekt der Talkshow, durch Interaktionskonventionen und anderen Modalitäten des Sprechens wie Höflichkeitsstrategien oder bestimmte narrative Verfahren, die in selbstdarstellerischer Absicht Sprecheridentitäten artikulieren. Die je Talkshow spezifische Konfiguration solcher subjektkonstitutiver Praktiken auf verschiedenen Ebenen des Diskurses ergibt eine Kontur, einen durch die Talkshow produzierten und nur vermittels der Praktiken, nie jedoch explizit charakterisierten "Entwurf" des Alltagsmenschen (z.B. ohnmächtig, Autoritäten unterworfen, selbstermächtigt, einsichtsfähig, vereinzelt, einer neben vielen usw.). Diese Typisierung bzw. implizite Charakterisierung durch Konventionen des Sprachgebrauchs und der Gesprächsstruktur wird maßgeblich in der Differenz zu den Positionen der anderen Diskursteilnehmer (Experten, Studiopublikum, Moderatorin) herausgebildet. Diese Diskurssubjekte stehen in einem für den Diskurstyp je charakteristischen Verhältnis zum Diskurs, zu den Modalitäten des Sprechens und zu anderen Subjektpositionen, von denen aus gesprochen werden kann. Subjektpositionen sind die unabhängig vom jeweils auf dem Podium platznehmenden Individuum vorstrukturierten, mit bestimmten Möglichkeiten des Sprechens ausgestatteten, an bestimmte kommunikative Handlungen gebundenen, mit bestimmten interaktionellen Vorrechten ausgestatteten etc. transindividuellen Äußerungsmöglichkeiten, die, realisiert, ein typisches Exemplar dieser Subjektposition zur öffentlichen Erscheinung bringen. Insofern sind diskursiv positionierte (konstituierte) Subjekte bzw. Subjektpositionen gleichzusetzen mit den spezifischen Äußerungsmodalitäten des jeweiligen Diskurstyps. Unter der Perspektive einer kritischen Diskursanalyse werden diese Vorgänge als moderne Form von Machtausübung und Ideologie betrachtet. Der Fokus auf die diskursiven Praktiken, die unscheinbare Normalisierungs und Disziplinierungseffekte bewirken als explizite Repräsentationen und Repression, lenkt das Augenmerk auf das, was Foucault den technologischen Aspekt von Macht bezeichnet. Machttechnologien stellen über konventionalisierte Diskurspraktiken gesellschaftliche Ordnung und Dominanz her, regulieren über Kommunikationsverhalten die Masse der Bevölkerung bzw. reproduzieren diese (hegemoniale) Ordnung in unzähligen, alltäglichen Mikropraktiken zwischen Institutionen und ihrer Klientel. Nicht nur in Talkshows handelt es sich bei solchen Praktiken weitgehend um sprachlich strukturierte Praktiken. Auch sprachlich konstituierte Verhältnisse artikulieren Machtverhältnisse, sie strukturieren sich nach Gleichheit/Nähe oder Ungleichheit/Distanz. Subjektpositionen sind die Pole in diesem Verhältnis. Da jedoch Subjektpositionen von diskursiven Positionen, d.h., Sprecherpositionen bestimmt werden, gilt es die Formen und Möglichkeiten des Sprechens der unterschiedlichen Teilnehmerkategorien im Talkshowdiskurs genau zu analysieren: In welcher Form zu welchen Bedingungen kann wer was wem gegenüber wie artikulieren? Wer mit wem in welcher Form interagieren? Welche Implikationen hat das? Welche sprachlichen Strukturen und Prozesse strukturieren dieses Sprechen und inwiefern strukturieren die sprachlich diskursiven Formen das Verhältnis der Diskurspositionen? In welchen sprachlichen Formen wird das Subjekt/ive verhandelt, und vor allem: Welches Sprechen legitimiert den medial konstituierten Durchschnittsmenschen? Prämissen, Vorgehensweise und Ergebnisse Um sich der Problemstellung zu nähern und die Mikropraktiken des Sprachgebrauchs funktional zu erfassen, wurde eine systemischlinguistische sprachtheoretische Perspektive eingenommen, die die primären Funktionen von Sprache in eine repräsentationsorientierte, eine interpersonell ausgerichtete und eine textuelle Dimension gliedert. Da es galt, diskursive Praktiken hervorzuheben, die sich nur durch den Bezug auf Akteure und Handlungen zwischen diesen beschreiben lassen, lag der Schwerpunkt der Untersuchung auf den sprachlichdiskursiven Merkmalen, die die Verhältnisse zwischen den Diskursbeteiligten bzw. die der Teilnehmer zum Diskurs regulieren und artikulieren. Die Entscheidung, zwei unterschiedliche Talkshowreihen zu untersuchen, beruht auf der Annahme, daß erst der kontrastierende Blick es ermöglicht, wesentliche Merkmale und Spezifika des Diskurstyps zu erfassen. Oft rücken nur über vergleichende Analysen kennzeichnende Aspekte in den Mittelpunkt, die bei homogeneren Daten möglicherweise unterbeleuchtet blieben. So konnten unterschiedliche Optionen der Realisierung bestimmter funktional definierter Vorgänge (z.B. das Vorstellen, die Einführung, die Befragung usw.), die innerhalb ähnlich strukturierter Diskurstypen zur Verfügung stehen und für z.T. signifikante Unterschiede sorgen, präzisiert werden. Die Auswahl der zu untersuchenden Phänomene und Merkmale wurden durch dieses vergleichende Lesen der Transkripte erheblich beeinflußt. Der Reihe nach wurden mit sprachwissenschaftlichem sowie interaktionsanalytischem Instrumentarium die Gesprächsorganisation, die Fremddefinitionen und Kategorisierungen des Subjekts der Talkshow durch die Einführungs und Einleitungsverfahren auf verschiedenen (visuellen, graphischen und sprachlichen) Ebenen untersucht. Im Anschluß daran standen kommunikative Handlungen zwischen den Diskursteilnehmern im Mittelpunkt, mit dem Schwerpunkt auf Analysen von Fragehandlungen und Frageformaten der Moderatorinnen und persönlichen Erzählungen der Alltagsmenschen/Gäste. Implikationen der sprachlichen Organisation und der verbalen oder kommunikativen Strukturen für die Subjektpositionen der Beteiligten wurden herausgearbeitet. Sodann habe ich mich auf den Diskurs der Experten konzentriert und Strategien der Subjektkonstitution dargestellt. Dabei ging es vor allem darum, wie das "ExpertenWissen" in diesen Shows auf das Subjekt zurückwirkt, welche Formen der "Beratungs/Ratgeberdiskurs" annimmt und welche SubjektEffekte dies zeitigt. Dabei wurde deutlich, daß beide Showreihen unterschiedliche Subjektpositionen für den Fernseh Durchschnittsmenschen konstituieren, die sich aus den ebenfalls unterschiedlichen Strukturierungen und Differenzen zu den anderen Positionen (Experten, Moderatorinnen, Studiopublikum) ergeben. Um den Aspekt der Macht und die gesellschaftliche Funktion der Talkshowpraktiken in die Untersuchungen einzuführen, wurde auf das Konzept der Machttechnologien zurückgegriffen, wie von Foucault (z.B. 1977) skizziert. Er verweist auf zwei grundlegende Metastrategien, die ungeregelte "Masse Mensch" gesellschaftlich (staatlich, hegemonialkulturell) zu disziplinieren, zu steuern und letztenendes verwaltbar zu machen, auf seinen gesellschaftlichen Platz zu verweisen, indem sie zu Subjekten (gemacht) werden. Es handelt sich dabei um die Machttechnologien der Objektivierung und der Subjektivierung von Individuen, die sich jeweils durch verschiedene Verfahren auszeichnen, wie ein Wissen vom Menschen hervorgebracht wird, das dann von den Individuen als "ihre Wahrheit" bzw. als die Beschreibung ihres "wahren Selbst" von ihnen selbst angenommen und diskursiv reproduziert wird. Die Möglichkeiten, sich als Selbst wahrzunehmen, die Formen, in denen dies geschieht und die Repräsentationen, die damit verbunden sind, stehen daher immer in einem sei's konservierenden, sei's subversiven Verhältnis zu Macht. Die Kennzeichen beider Machttechnologien habe ich in Anlehnung an Ausführungen von Foucault (1977;1983) bzw. seiner Interpreten Dreyfus und Rabinow (1987) versuchsweise und relativ frei auf interaktionelle und diskursive Verfahren in den Talkshows übertragen, was mir allerdings unproblematisch erscheint, denn die "Strategien" sind in aller Regel in Verbindung mit Sprache realisierte Vorgänge. Insofern entspricht es nur einer Präzision auf konkreter sprachlicher Ebene (was Foucault schuldig bleibt). Es wurde also der Versuch unternommen, diskursive Korrelate zu den von Foucault nur sehr allgemein formulierten Merkmalen der Technologien zur Subjektkonstitution zu finden und gesprächsanalytisch erfaßbar zu machen. Als Objektivierungsprozesse lassen sich die Verfahren beschreiben, die die Diskursteilnehmer zu AusstellungsObjekten (des Blicks und der Rede) machen. Andererseits gibt es subjektivierende diskursive Verfahren, die die Teilnehmer als Subjekt konstituieren, indem sie zur relativ ungelenkten, freigewählten Diskursproduktion, d.h. zu längerem und ggf. auch eigenintitiativen Sprechen animiert werden, allerdings immer in Erwartung, ihr "wahres Selbst" der Öffentlichkeit auszustellen ("gestehen"), das im Anschluß daran von einer Experteninstanz ausgedeutet wird. Sprachlichdiskursiv realisierte Objektivierungsstrategien definieren sich z.B. durch Verfahren der (mit negativ konnotierten Werten beladenen) Identifizierung, Fremdkategorisierung, Aussonderung und Vereinzelung, die in überaus großem Maß in den Shows von Rolonda festzustellen sind. Das impliziert den Fokus auf das konkrete Individuum und den Einzelfall, der vor den Augen der Öffentlichkeit vorgeführt, belehrt und ermahnt wird. Durch Identifikation und Fremdkategorisierung wird das Subjekt der Talkshow zum Objekt der Rede gemacht, anstatt es selbst sprechen zu lassen. In dieser Hinsicht spielen vor allem die Untertitel, die Einleitungsdefinitionen der Moderatorin (v.a. in Rolonda) und der Gebrauch der Personalpronomen, insbesondere des persönlich gebrauchten, definiten "you" eine große Rolle, die als personalisierende Identifizierungspraktiken stark vereinzelnde Effekte haben. Kategorisierungen der Personen, die im Dienste der Show operieren und sie von vornherein auf bestimmte Wahrnehmungen festlegen, sind ebenfalls objektivierende Talkshowpraktiken: Reduktionen auf die "Eigenschaft" der Familienzughörigkeit, Subsumtion unter das Tagesthema und Definitionen in Abhängigkeit von selbstdefinierten Absichten der Showgestalter ("helfen, glücklich machen, bessern") klassifizieren das TalkshowSubjekt jeden Tag aufs Neue in den immer gleichen Mustern als unfähig zur Selbsthilfe, als Schädling und Problem für die anderen und als disziplinierungsbedürftig. In Rolonda fand sich zudem ein spezielles Aussonderungsverfahren, das in der Moderationsstrategie des inhaltlichthematisch definierten "Stehenlassens" der Fragerunden bei spektakulären Details besteht. Das hat den Effekt, ein grelles Schlaglicht auf das Individuum zu werfen, es in einem Detail bloßzulegen, ohne ihm im Anschluß weitere Relativierungen und Kommentare zu ermöglichen (da die Moderatorin schon zum nächsten Gast und nächsten Thema gewechselt hat). Dazu gehören die auf Lupeneffekte und Details ausgerichtete Frageführung der Moderatorin, die Hinführung der persönlichen Erzählungen auf MiniSzenen und affektiv aufgeladene Einzelmomente, die das Subjektive auf spektakuläre Ereignisse reduzieren und aus seinem lebensweltlichen Zusammenhang reißen. Spiegelvorhaltungstechniken als verdinglichende Disziplinierungsmaßnahme wurden ebenfalls identifiziert. In visuellen Repräsentationen soll das Subjekt sich spiegeln und wiedererkennen. Ein Verfahren in Rolonda ist es, den ZuschauerInnen das Alltagsleben der als Gäste eingeladenen Durchschnittsmenschen in Form eines pseudo dokumentarischen Filmclips zu präsentieren und sie im Anschluß daran mit dem (darin gezeigten) Fehlverhalten zu konfrontieren, sie zu veranlassen, es zu verurteilen und andere Stimmen zu diesen Spiegelungen Stellung nehmen zu lassen (in Form von Verurteilung, Tadel, Zurechtweisung). Ein weiteres Spiegelungverfahren (mit disziplinierender oder kathartischer Absicht) in Rolonda stellt die Strategie dar, das Fehlverhalten im Studio zu provozieren und live auf dem Podium in Szene zu setzen (z.B. der Streit zwischen Mutter und Tochter, der vorführt, daß die Mutter ihre Tochter nicht disziplinieren kann in Anger; Zornausbruch und Kommunikationszusammenbruch in der Auseinandersetzung von Jeremy und dem Mann im Publikum, wobie vorführt wird, daß Jeremy nicht in der Lage ist, seinen Frustrationen Ausdruck zu verleihen etc.). Dabei wird jedoch eher dem Publikum als den Gästen ein Spiegel vorgehalten, der vermutlich als Abschreckung dienen soll. Zum Objekt der Rede wird der FernsehPrivatmensch auch im Expertendiskurs, der seine Innenwelt analysiert oder ggf. korrigiert. Das Interaktionsarrangement in Rolonda ist dabei so, daß nicht GUE Dialogpartner dieser Analysen sind, sondern die Moderatorin. Das Subjekt wird so zum Gegenstand der Analyse eines Autoritätendiskurses, der aber mit anderen Autoritäten (nämlich mit der medienspezifischen Machtposition HOST) geführt wird. Durch Befragungstechniken und Frageformate wird die Innenschau auf das Subjekt möglich und seine diskursive Position gleichzeitig stark beschränkt und kontrolliert. Auf linguistischer Ebene korrespondiert dies mit Frageformaten in Deklarativformen, die inhaltlich aus vollständigen Propositionen bestehen, die nur noch bestätigt werden müssen. Dies schränkt den inhaltlichen wie den kommunikativen Spielraum der Befragten ein, weil es konversationell präferiert ist, eine Bestätigungshandlung im Anschluß zu produzieren, und weil es kommunikativ nur einer minimalen Antwort (ja/nein) bedarf, um die Replik zu vollziehen. Dadurch sind die Gäste, bereits schon in reaktiver Position durch den Interviewrahmen, abhängig von einer weiteren, expliziten Aufforderung, einen längeren oder einen inhaltlich konträren Redebeitrag zu liefern. Andererseits ist auf der interpersonellen Ebene eine Deklarativfrage der HOSTs prekärer als ein klassisches Frageformat mit Fragewort und Verbinversion. Denn HOST kann ihr (interaktionell definiertes) Gesicht verlieren, wenn sie eine unrichtige oder nur teilweise richtige Proposition formuliert. In dieser Hinsicht wurde die Präferenz für Deklarativfragen als Modus des informellen Sprechens definiert, weil eine gegenseitige Abhängigkeit entsteht, die in der Regel mit dem egalitär strukturierten ChatModus assoziiert wird. Es wurde festgestellt, daß HOST/Rolonda kaum, HOST/Winfrey jedoch häufig mit diesem Format operiert, sich also auch als gleichwertiger Interaktionspartner ihren Gästen gegenüber konstituiert. Normalisierung und Messen an Standards ist ein weiteres Merkmal der Machttechnologie durch Objektivierungspraktiken. Normalisierungsversuche verweisen das Subjekt auf seinen Platz, häufig im Zusammenhang mit Normgeboten, Aufforderungen zur Veränderung usw. Normalisierende Disziplinierungsdiskurse werden in Talkshows u.a. durch die Warnungen und Zurechtweisungen des Studiopublikums gegenüber den Gästen bzw. durch den kategorischen, einflußnehmenden Redestil der ExpertInnen realisiert. Das Subjekt wird immer wieder Gegenstand und Zielscheibe für disziplinierende Interventionen und Eingriffe. Ein Äquivalent zu den objektivierenden Teilungspraktiken, die durch klare Entweder/OderTrennungen Individuen bestimmten Klassen und Ordnungen zuteilen, findet sich in der emotionell aufgeheizten, und von HOST durch Unterlassen von Schlichtungshandlungen aktive unterstützten Frontenbildung bei Rolonda zwischen den Teilnehmerkategorien GUE und AUD (Saalpublikum). An der Grenze von objektivierenden zu subjektivierenden Praktiken liegen die Verfahren, die den SprecherInnen zwar Rede abverlangen, diese aber durch kommunikative Strategien und Dynamiken in den Beteiligunsstrukturen inhaltlich bereits vorgegeben ist. Hierzu gehören u.a. Selektion von und Präferenz für bestimmte Frageformate (in der grammatischen Form des Deklarativs) und Dynamiken des Zitierens der Rede der Gäste sowie das Suggerieren, Soufflieren und Vorsprechen dessen, was das zu erkennende Subjekt erwidern muß indem ihm die Wahrheit über sein Selbst bereits fertig in den Mund gelegt wird. Zu den subjektivierenden Praktiken in Talkshows, die die Teilnehmer zum freien Reden über sich selbst bringen und diskursproduktiv wirken, zählen besonders ChatMomente in den Shows. Passagen, in denen die Gäste auch längere Redebeiträge machen ohne vorstrukturierende Fragestellungen. Die Abwesenheit von Interviewtechniken bzw. sehr offen strukturierte Frageformate geben einen Hinweis auf solche Stellen im TalkshowDiskurs. Narrative Sequenzen, die nicht von Zwischenfragen unterbrochen werden verweisen in der Interaktion zwischen den Gästen (den Alltagssubjekten) und anderen TeilnehmerInnen auf subjektivierende Momente, genauso wie die Häufung bzw. Anwesenheit von Rückmelde und Hörersignalen der Moderatorinnen denn sie sind ein Signal zum Verlängern ihres Redebeitrags, das in keiner Hinsicht strukturierend oder einschränkend wirkt. Die Analysen der Subjektpositionen und Positionierungen geben so meines Erachtens den Blick frei für zwei unterschiedliche Möglichkeiten, Diskurse mit dem Durchschnittsmenschen über seine subjektive Verfaßtheit in der Öffentlichkeit zu führen (und ein Bild von ihm in der Öffentlichkeit zu zeichnen). Es stellt sich heraus, daß die beiden TalkshowReihen unterschiedliche Präferenzen und Gewichtungen der diskursiven Korrelate subjektkonstituierender Machttechnologien aufweisen. Objektivierende Praktiken fanden sich zahlreiche in der RolondaShowreihe, viele Verfahren ausschließlich dort (Spiegelungen, derogative Untertitel, auf Kommunikationsakte ausgerichtete Dressur etc.). Der Diskurs ist auch auf der sprachlichinteraktionellen Mikroebene stark von objektiverenden Praktiken des Aussonderns, Isolierens, dem spektakulären BlickFreigebens auf Details und des inhaltlichen Vorgebens bzw. Repetition der fremden Rede (Aufoktroyieren der fremden Perspektive) geprägt. Als Objekte der analytischen und interpretierenden Rede werden sie in ihrem Subjektstatus (z.B. als eigenständige Sprecher) reduziert und mit den Regeln und Normen eines Kollektivs konfrontiert. Durch diskursive Mikropraktiken werden auf verschiedenen Ebenen Machtgefälle konstruiert, die das Talkshowsubjekt unterordnen unter die Stimmen der Autorität und des Kollektivs, die fordernd und zurechtweisend auf den einzelnen einwirken und direkten Einfluß nehmen. Konfrontative Sequenzen führen auf interpersoneller Ebene zu einem hohen Gesichtsverlust für die Gäste, die gesichtsbedrohliche Sprechhandlungen in der Regel nicht parieren können, weil HOST ihnen keine Gelegenheit gibt und der Interaktion einen "zurechtstutzenden" Grundton gibt. Durch gesichtsbedrohende Akte wie Zurechtweisung und Ermahnung wird die Distanz zu den Gästen gering gehalten, was einem umgangssprachlichen "Zunahetreten" entspricht. Zudem zeichnet sich der Diskurs durch eine extrem dramatisierende Verlaufsform aus, die eine kommunikative Katastrophe (Zusammenbruch der Interaktionsordnung), einen Dressur bzw. Disziplinierungsakt durch eine Autorität (Expertin) und die Katharsis einschließen (Reue, von HOST evozierte, nach außen gekehrte Einsichtsbekundungen und Gutheißen der "Lektion"). Der dramatische Konflikt samt Eskalationen und Konfrontationen mit den kollektiven Forderungen wird dann erst mit Hilfe von anweisenden Autoritäten gelöst. Die Ermächtigung der Autoritäten geht einher mit Objektivierungen, der Degradierung zum Objekt von fremden Blicken, fremder Rede und fremden Regeln. Allerdings auch mit der Reduzierung der Position der Moderatorin, die sich gegenüber den Experten stark zurücknimmt. Die Übernahme von Wissen ("Lernen" und Erkenntnis gewinnen) wird artikuliert als Drill und Gefügigmachen (inklusive Dankbarkeit, vgl. HOSTFrage an GUE/Kathy: Are you happy now?), und baut nicht auf Einsicht. Vorhaltungen und negative Spiegelungen sollen zur Abschreckung und Besserung dienen. Das Subjekt muß zum Nutzen der Gemeinschaft erzogen werden und sich ihren Normen unterordnen. Der SubjektEffekt dieses Diskurses ist ein Autoritäten untergeordnetes Subjekt, das bei Fehlverhalten isoliert und "an den Pranger" gestellt wird, korrekturbedürftig ist und durch Drill (nicht Einsichtsfähigkeit) an die Forderungen einer größeren Gemeinschaft anzupassen ist. Das Verhältnis zu den Autoritäten und zur Gemeinschaft ist ein stark personalisiertes und das Individuum ist gleichzeitig extrem abhängig von diesen, aber auch durch die Detaillierung und die Fokussierung auf den Einzelfall stark überhöht. Diese Entwürfe vom Subjekt lassen sich mühelos in hierarchischautoritären Kontexten wiederfinden und könnten innerhalb eines traditionellen sozio politischen "RechtsMitteLinks"Schemas möglicherweise als Bestandteil eines recht(spopulistisch)en Diskurses betrachtet werden. Die Daten aus der WinfreyReihe zeichnen sich durch insgesamt weniger objektivierende Strategien aus und weisen an manchen Stellen Spuren von subjektivierenden Verfahren auf (die Gäste kommen ausführlicher und weniger als Ausgefragte zu Wort, haben bisweilen Möglichkeiten, sich als Partner in einem informellen Gespräch zu konstituieren etc.). Mehr noch als das Vorhandensein von subjektivierenden Techniken fällt das NichtVorhandensein vieler Objektivierungsstrategien auf. D.h., eine Vereinzelung und Ausrichtung auf das Subjekt im Besonderen ist nicht auffällig ausgeprägt (sie ist vorhanden und im Fernsehen auch medienstrukturell verankert). Viel eher findet ein verallgemeinernder Diskurs statt, der das Subjekt und seine Erfahrung als Ausgangspunkt für generalisierbare Erörterungen nimmt. In den Daten gab es kaum dissentive Sequenzen, wenn es zu spontanen Frontbildungen kam, wurden diese von HOST geschlichtet, die hier untersuchten Shows weisen keine dramatisch strukturierten Formen auf jedenfalls nicht im selben Maß wie die ihrer Kollegin. Natürlich kann man im Mikrobereich sicher ebenfalls Zuspitzungen finden. Aber im Gesamtablauf ist die Show zyklisch strukturiert. Hier erscheint eine zweite Option, wie durch die Praktiken einer "Show für den Privatmenschen in seiner Alltäglichkeit" dieser medial konstituiert wird. Der einzelne wird weder auffällig häufig zum Objekt, noch wirklich frei in seiner Rede, sondern vielmehr zum Ausgangspunkt für Verallgemeinerungen gemacht. Der im Vergleich relativ weitgehende Verzicht auf Aussonderung des konkreten Falls und die Bezugnahme auf den generellen Fall hat als diskursive Korrelate Möglichkeiten der Gleichheit zwischen den Diskursteilnehmern und die Relativierung der Stimme der Autorität (der Experten). Die Übernahme von Wissen und Erkenntnis wird durch die Abhandlung der Problembereiche als denkbare Fälle und Optionen fürs Handeln der Eigenverantwortlichkeit der Subjekte anheimgestellt (ohne evozierte Affirmation und Ausstellung von Akten der Einsicht). SubjektEffekte sind: der einzelne wird als wichtiger Träger von verallgemeinerbaren Erfahrungen konstituiert, allerdings auch als einer neben vielen anderen (vgl. auch die Funktion der AUD, die die Perspektiven der Aussagen erweiteren, keine Fronten zu GUE bilden), das Verhältnis zu den anderen Diskurspositionen, v.a. zu den Autoritäten ist distanzierter, gesichtsbedrohende Sprechhandlungen sind nicht direkt an GUE gerichtet usw. Das Subjekt wird als lernfähig durch rationale Einsicht konstituiert. Analog zur Einordung in ein gesellschaftspolitisches Spektrum, könnte behauptet werden, diese Subjektkonzeptionen reflektieren Normen eines neoliberalen Diskurses der bürgerlichen Mittelschicht über das Individuum, der sich über die Besetzung der Position "egalitär" bzw. "antiautoritär" und "eigenverantwortlich" in Opposition zu "hierarchisch", "autoritär" und fremddefiniert bzw. abhängig von übergeordneten Instanzen definiert. Insofern stehen die beiden Pole der Möglichkeiten der Subjektkonzeption (und medialen Konstitution des Durchschnittsmenschen als Subjekt) in direkter Abfolge hintereinander auf dem Programm USamerikanischer Fernseh Nachmittage. Eine Entscheidung darüber, ob der immense Erfolg von Winfreys neoliberalem Diskurs, der jeden für sich allein und individuell "verantwortlich" macht, oder die Absetzung der ReiheRolonda mit ihrem autoritären und explizit hierarchisch operierenden Diskursmodus Anlaß zur Hoffnung geben sollte, muß anderen medien und sozialkritischen Untersuchungen überlassen bleiben.
The increasing emissions from the transport sector have become a global concern as these emissions contribute to climate change. One way to reduce carbon dioxide (CO2) emissions from the transport sector is to replace fossil fuels with biofuels. The diesel engine is important for transports in society, especially since it is more efficient and more powerful compared with the gasoline engine. Therefore, replacing fossil diesel with biodiesel is one feasible option for achieving short and long-term emission targets. Fatty acid methyl esters (FAME) and hydrotreated vegetable oils (HVO) are the two kinds of biodiesel being used in Sweden. The raw materials are vegetable and animal oils and fats and the production method is esterification for FAME and hydrotreatment for HVO. HVO is more similar to fossil diesel and higher blends can be used in existing diesel engines if the vehicle manufacturer has approved it whereas FAME requires vehicle modifications when used in higher blends. Both HVO and FAME can be used as drop-in fuel with fossil diesel, but only up to 7% for FAME according to regulations. The Swedish consumption of HVO has increased rapidly in recent years. In 2017 it was more than 20% of the total globally produced HVO that year. Furthermore, the dependence on imported raw materials is heavy. Only 3% of the raw materials for FAME and only 5% of the raw materials for HVO sold in Sweden were of Swedish origin in 2017. Since the feedstocks used for biodiesel production are of limited availability and have competing uses, it is important to increase the knowledge of local resources. The County of Gävleborg has many large forest-related industries. The actors at different levels of the supply chain have important roles in the challenges to reduce fossil fuel dependence. The overall aim of this report is to investigate the current status and future prospects of biodiesel feedstocks and production technologies for FAME and HVO from a regional perspective. This is achieved by two separate approaches. First, a literature review is done through which potential feedstocks and production processes are described. The feedstocks are categorized into different generations. Second, ongoing and upcoming activities related to biodiesel production in Gävleborg County are explored through interviews with regional actors. The interviewees are representatives from companies with activities in Gävleborg County: Setra, BillerudKorsnäs, Iggesund, Rottneros and Colabitoil. Raw materials belonging to the first generation compete with food production. For biodiesel these raw materials are different types of vegetable oils. The main ones worldwide are palm oil, soybean oil, rapeseed oil and sunflower oil. These raw materials can be used as feedstock for both FAME and HVO. In Sweden the agricultural activity is relatively low and even lower in Gävleborg County. The extensive use of land and competition with food production makes these type of raw materials for biodiesel production questionable. But arguments can be made that the vegetable oils have good traceability and this can lead to better control to ensure a sustainable biodiesel value chain. Second-generation raw materials are non-food based. There are a variety of different types. Some are already being used and some are potential biodiesel feedstocks for the future. The ones presented in this report are animal fats, fish oils, waste cooking oils (WCO), pyrolysis oil, lignin and crude tall oil (CTO). Animal fats and fish oils can also be considered first-generation raw materials since they might be edible. There are strict health regulations for human food and the fats and oils that do not live up to the regulations can be used for other purposes. Animal fats and fish oils can also be used as animal feed and production of different chemicals. It is not obvious which use is best, but generally it seems that biodiesel and other energy uses are regarded as the least valuable in comparison. An important issue to consider is that the availability of animal fats and fish oils depends on the demand for meat. WCO is a feedstock for biodiesel which is currently used by Colabitoil in their pilot plant for HVO. It seems that the profitability of using WCO is dependent on the production capacity of the WCO producers and the distance between them since these two factors affect the fuel consumption during collection. It is optimal to have one big WCO producer in order to minimize the collection costs. In theory, there could be a situation in which there are so many small producers that more fuel is required for collection than is gained in biodiesel production. Pyrolysis oil from biomass is an interesting future source for biodiesel. It is a heterogeneous mixture of compounds and contains a lot of oxygen. Pyrolysis oil is definitely a raw material that needs catalytic hydrotreatment for upgrading. It is therefore considered an HVO feedstock and not feasible for FAME. This study did not clarify how much pyrolysis oil will end up as diesel fuel and how much will end up as gasoline or other products. A pyrolysis plant for production of pyrolysis oil from sawdust might be built at Setra's sawmill Kastet in Gävle. The pyrolysis oil will then be used as a feedstock for diesel and gasoline fuels in Preem's refinery. Lignin is one of the main components of wood. In the production of pulp by the sulfate process lignin is separated from the pulp as a component in the black liquor. The lignin is then primarily burned for energy purposes in the recovery boiler. The three pulp mills within Gävleborg County all use the sulfate process. At the pulp mill owned by Rottneros in Vallvik a plant for extraction of lignin and a plant for conversion into a lignin oil might be built. This pulp mill has a surplus of energy and therefore a potential to extract some of the lignin. The lignin will be processed together with a bio-based carrier oil to the lignin oil. This lignin oil will then be used as a feedstock for gasoline and diesel fuel in Preem's refinery. It was not clarified in this study what the source of the bio-based carrier oil will be. Additionally, the composition of the lignin oil was not revealed and therefore it could not be determined what share of it can be used for biodiesel production. Lignin oil is very interesting as a feedstock due to the large amount of lignin that is available in the forests. However, the interviews with the two other pulp mills (i.e., Iggesund and BillerudKorsnäs) showed that the availability is limited by other factors. These two pulp mills are integrated with production of paper products and therefore they have no surplus of energy. If lignin is extracted the energy has to be replaced by other sources. An eventual extraction of lignin is associated with reconstruction of different parts of the plant and thereby large investment costs. CTO is a by-product from pulp mills that use the sulfate process. It is of limited availability and consists mainly of fatty acids and rosin acids. The fatty acids can be converted to biodiesel. One way to utilize the components of CTO is to fractionate it into different product streams through distillation. These product streams include one stream with fatty acids, one stream with rosin acids and one stream called pitch. The pitch can be seen as a residue. There are two main refineries to which the three pulp mills in Gävleborg County deliver their CTO: Sunpine in Piteå and Kraton in Sandarne. Sunpine produces tall oil diesel and other products from the CTO, and the tall oil diesel is used for HVO production by Preem. Kraton produces different chemicals from the CTO. For all three pulp mills an important factor is to get tall oil pitch back from Sunpine and Kraton to be used for energy purposes. A potential source of lipids for biodiesel production was mentioned in the interview with Colabitoil. This was the conversion of lignocellulosic material into lipids by microbes. A particularly suitable feedstock for the microbes would be waste fibers from pulp and paper industries. This still appears to be at the research stage, but it will be interesting to follow the development since it has promising opportunities if it can be achieved at a commercial scale. Third-generation feedstocks for biodiesel are oils obtained from microalgae. Microalgae are potentially superior to the other raw materials. Biodiesel from microalgae is not commercially available so it is up to the future to determine its destiny. Due to the cold climate of Gävleborg County it is questionable if it is a good place for large-scale cultivation of microalgae. The optimal feedstock for FAME are triglycerides. Therefore, first-generation raw materials are wanted. Catalytic hydrotreatment can handle more complex raw materials and the feedstock range can thereby be increased to second-generation feedstocks. There is no producer of FAME in Gävleborg County, but there is a company (Colabitoil) that distributes HVO produced by Neste. Colabitoil also has a pilot plant for HVO production and might build a large-scale production plant in the future. The activities in Norrsundet, which Colabitoil is part of, has a potential to provide synergy effects if different companies settle there. There can then be knowledge-sharing and utilization of different by-products between the companies. There are two aspects about the limitations of the report that should be mentioned. First, the environmental performance of the different raw materials and production technologies is not considered. This is an important issue since the main purpose of biofuels is to reduce the environmental impact of fossil fuels. Second, it cannot be ruled out that there could have been intentional or unintentional bias in the interviews, even though there is no reason to suspect this. Additionally, it is very tricky to assess the certainty behind different statements from different persons since they have different backgrounds and different expectations about the future. Apart from this, the aim of the report was met to a large extent by shedding light on the future prospects of biodiesel through the challenges, uncertainties and success factors related to projects that the different actors described in the interviews. The challenges are technical and financial. The uncertainties are related to political stability but also to the environmental permit and future availability of raw materials. The success factors are the high demand for transport fuels and cooperation with other companies. ; De ökande utsläppen från transportsektorn har blivit en global angelägenhet, eftersom dessa utsläpp bidrar till klimatförändringen. Ett sätt att minska koldioxidutsläppen från transportsektorn är att ersätta fossila bränslen med biobränslen. Dieselmotorn är viktig för transporter i samhället, speciellt eftersom den är effektivare och mer kraftfull jämfört med bensinmotorn. Att ersätta fossil diesel med biodiesel är därför ett möjligt alternativ för att uppnå korta och långsiktiga utsläppsmål. Fettsyrametylestrar (FAME) och vätebehandlade vegetabiliska oljor (HVO) är de två typerna av biodiesel som används i Sverige. Råvarorna är vegetabiliska och animaliska oljor och fetter och produktionsmetoden är förestring för FAME och vätgasbehandling för HVO. Sammansättningen hos HVO är mer lik fossil diesel och högre inblandningsnivåer kan därmed användas i befintliga dieselmotorer om fordonstillverkaren har godkänt det. FAME däremot kräver modifiering hos dieselmotorsystemet vid användning i högre blandningar. Både HVO och FAME kan användas som drop-in bränsle med fossil diesel, men bara upp till 7 procent för FAME enligt föreskrifter. Den svenska konsumtionen av HVO har ökat snabbt de senaste åren. År 2017 var den över 20 procent av den totala globala produktionen det året. Det finns ett starkt beroende av importerade råvaror. Endast 3 procent av råvarorna för FAME och endast 5 procent av råvarorna för HVO som säljs i Sverige var av svenskt ursprung 2017. Eftersom råvarorna som används för biodieselproduktion har begränsad tillgänglighet och konkurrerande användningsområden är det viktigt att öka kunskapen om lokala resurser. Gävleborgs län har många stora skogsrelaterade industrier. Aktörerna på olika nivåer i försörjningskedjan har viktiga roller i utmaningen att minska beroendet av fossila bränslen. Det övergripande syftet med denna rapport är att undersöka nuvarande status och framtidsutsikterna för biodieselråvaror och produktionsteknologier för FAME och HVO ur ett regionalt perspektiv. Detta uppnås genom två separata tillvägagångssätt. För det första görs en litteraturöversikt där potentiella råvaror och produktionsprocesser beskrivs. Råvarorna kategoriseras i olika generationer. För det andra undersöks pågående och kommande aktiviteter relaterade till biodieselproduktionen i Gävleborgs län genom intervjuer med regionala aktörer. Intervjuerna är gjorda med representanter för företag med aktiviteter i Gävleborgs län: Setra, Billerud, Korsnäs, Iggesund, Rottneros och Colabitoil. Första generationens råvaror konkurrerar med livsmedelsproduktionen. För biodiesel är dessa råvaror olika typer av vegetabiliska oljor. De vanligast förekommande i världen är palmolja, sojabönsolja, rapsfröolja och solrosolja. Dessa råvaror kan användas till produktion av både FAME och HVO. I Sverige är jordbruksverksamheten relativt låg och i Gävleborgs län är den lägre än det Svenska genomsnittet. Den omfattande användningen av mark och konkurrensen med livsmedelsproduktionen gör att denna typ av råvaror för biodieselproduktion kan ifrågasättas. Men det kan argumenteras att vegetabiliska oljor har bra spårbarhet vilket kan leda till bättre kontroll för att säkerställa en hållbar biodieselvärdekedja. Andra generationens råvaror är icke-livsmedelsbaserade. Det finns en mängd olika typer. Vissa används redan och vissa är potentiella biodieselråvaror. De som presenteras i denna rapport är animaliska fetter, fiskoljor, spilloljor (WCO), pyrolysolja, lignin och råtallolja (CTO). Animaliska fetter och fiskoljor kan också betraktas som första generationens råmaterial eftersom de kan vara ätbara. Det finns höga hälsokrav för livsmedel och de fetter och oljor som inte uppfyller kraven kan användas för andra ändamål. Animaliska fetter och fiskoljor kan också användas som foder och produktion av olika kemikalier. Det är inte uppenbart vilken användning som är bäst, men i allmänhet verkar det som biodiesel och annan energianvändning anses vara den minst värdefulla. En viktig fråga att beakta är att tillgången på animaliska fetter och fiskoljor är beroende av efterfrågan på kött. WCO är ett råmaterial för biodiesel som för närvarande används av Colabitoil i deras pilotanläggning för HVO. Det verkar som om lönsamheten för att använda WCO är beroende av produktionskapaciteten hos WCO-producenterna och avståndet mellan dem, eftersom dessa två faktorer påverkar bränsleförbrukningen vid insamling. Det är optimalt att ha en stor WCO-producent för att minimera insamlingskostnaderna. Teoretiskt sett kan det uppstå en situation där producenterna är så små och så många att mer bränsle krävs för insamling än som uppnås i biodieselproduktionen. Pyrolysolja från biomassa är en intressant framtidskälla för biodiesel. Det är en heterogen blandning av föreningar och den innehåller mycket syre. Pyrolysolja är definitivt en råvara som behöver katalytisk vätgasbehandling för uppgradering. Den anses därför vara en råvara för HVO och inte för FAME. Denna studie klargör inte hur stor del av pyrolysoljan som kan omvandlas till dieselbränsle och hur mycket som kan omvandlas till bensin eller andra produkter. En pyrolysanläggning för produktion av pyrolysolja från sågspån kan komma att byggas vid Setras sågverk Kastet i Gävle. Pyrolysoljan kommer då att användas som råvara för diesel- och bensinbränsle i Preems raffinaderi. Lignin är en av huvudkomponenterna i trä. Vid framställning av massa genom sulfatprocessen separeras lignin från massan som en komponent i svartluten. Lignin bränns sedan i första hand för energianvändning i samband med återvinningen av kokningskemikalierna. De tre massafabrikerna i Gävleborgs län använder alla sulfatprocessen. Vid massabruket som ägs av Rottneros i Vallvik kan en anläggning för utvinning av lignin och en anläggning för omvandling till ligninolja komma att byggas. Denna massafabrik har ett överskott av energi och därmed en potential att extrahera en del av ligninet. Ligninet kommer att processas tillsammans med en biobaserad bärar-olja till ligninoljan. Denna ligninolja kommer då att användas vid produktion av bensin och dieselbränsle i Preems raffinaderi. Det framgår inte i denna studie vad källan till den biobaserade bäroljan kommer att vara. Dessutom avslöjas inte ligninoljans sammansättning och därför kan det inte fastställas hur stor del som kan användas för biodieselproduktion. Ligninolja är mycket intressant som råmaterial på grund av den stora mängd lignin som finns i skogen. Intervjuerna med de två andra massafabrikerna (dvs Iggesund och BillerudKorsnäs) visade emellertid att tillgängligheten är begränsad av andra faktorer. Dessa två massafabriker är integrerade med produktion av pappersprodukter och har därför inget överskott av energi. Om lignin extraheras måste energin ersättas med andra energikällor. En eventuell extraktion av lignin är förknippad med ombyggnad av olika delar av fabriken och därmed med stora investeringskostnader. CTO är en biprodukt från massafabriker som använder sulfatprocessen. Den är av begränsad tillgänglighet och består huvudsakligen av fettsyror och hartssyror. Fettsyrorna kan omvandlas till biodiesel. Ett sätt att utnyttja komponenterna i CTO är att fraktionera den till olika produktflöden genom destillation. Dessa produktflöden innefattar en ström med fettsyror, en ström med hartssyror och en ström som kallas beckolja, som kan ses som en restprodukt. Det finns två raffinaderier till vilka de tre massafabrikerna i Gävleborgs län levererar sin CTO: Sunpine i Piteå och Kraton i Sandarne. Sunpine producerar talloljediesel och andra produkter från CTO. Talloljediesel används för HVO-produktion av Preem. Kraton producerar olika kemikalier från CTO. För alla tre massabruken är det viktigt att få tillbaka beckolja från Sunpine och Kraton. En potentiell källa till lipider för biodieselproduktion nämns i intervjun med Colabitoil. Detta är omvandling av biomassa till lipider av mikrober. Ett särskilt lämpligt råmaterial för mikroberna skulle vara en typ av restprodukt från massa- och pappersindustrin som kallas fiberslam eller nollfiber. Intrycket är att detta fortfarande är i en forskningsfas, men det kommer att vara intressant att följa utvecklingen eftersom det finns lovande möjligheter om detta kan nå kommersiell skala. Tredje generationens råvaror för biodiesel är oljor erhållna från mikroalger. Mikroalger är potentiellt överlägsna de övriga råvarorna. Biodiesel från mikroalger är inte kommersiellt tillgänglig så framtiden avgör dess öde. På grund av det kalla klimatet i Gävleborgs län är det tveksamt om detta är ett bra ställe för storskalig odling av mikroalger. Den optimala råvaran för FAME är triglycerider. Därför är första generationens råvaror önskade. Katalytisk vätgasbehandling kan hantera mer komplexa råvaror och råvarubasen kan därmed ökas till andra generationens råvaror. Det finns ingen producent av FAME i Gävleborgs län, men det finns ett företag (Colabitoil) som distribuerar HVO producerat av Neste. Colabitoil har även en pilotanläggning för HVO-produktion och kan i framtiden komma att bygga en storskalig produkt-ionsanläggning. Verksamheten i Norrsundet, som Colabitoil ingår i, har potential att ge synergieffekter om olika företag etablerar sig där. Det kan då ge förutsättning för kunskapsdelning och utnyttjande av olika biprodukter mellan företagen. Det finns två aspekter kring rapportens begränsningar som bör nämnas. För det första beaktas inte miljöpåverkan från de olika råmaterialen och produktionsteknologierna. Detta är en viktig fråga eftersom biobränslenas huvudsakliga syfte är att minska miljöpåverkan jämfört med fossila bränslen. För det andra kan det inte uteslutas att intervjuerna kan vara avsiktligt eller oavsiktligt partiska, även om det inte finns anledning att misstänka detta. Dessutom är det väldigt svårt att bedöma säkerheten i uttalanden från olika personer eftersom de har olika bakgrund och olika förväntningar på framtiden. Bortsett från detta, uppnåddes i stor utsträckning målsättningen med rapporten att bedöma framtidsutsikterna för biodiesel genom belysning av utmaningar, osäkerhetsfaktorer och framgångsfaktorer relaterade till de projekt som de olika aktörerna beskrev i intervjuerna. Utmaningarna är tekniska och finansiella. Osäkerheten är relaterad till politisk stabilitet, men också till miljötillstånd och framtida råvarutillgång. Framgångsfaktorerna är den höga efterfrågan på drivmedel och samarbete mellan olika företag. ; Forskningsfinansiärer: Europeiska regionala utvecklingsfonden (ERUF), Region Gävleborg, Högskolan i Gävle
Overview and introduction "Which organizational forms produce science? Expansion, diversity, and cooperation in Germany's higher education and science system embedded within the global context, 1900-2010". Already the title of my dissertation manifests an approach that examines the topic of the development of scientific productivity in the German higher education and science landscape from different perspectives: levels, dimensions, and an extensive timeframe. Deriving from and contributing to the international research project "Science Productivity, Higher Education, Research and Development, and the Knowledge Society" (SPHERE), my research focuses on the investigation of the influence of higher education development and science capacity-building on scientific knowledge production, globally, comparatively, and considerable depth for Germany, a key science producer for well over a century. Focusing mainly on the different structures and institutional settings of the German higher education and science system, the dissertations shows how these affected and contributed to the long-term development of scientific productivity worldwide. The historical, comparative, and in-depth analyses are especially important in light of advancing globalization and internationalization of science, stronger networks of scientists worldwide, and the emergence of the "knowledge society". The research design combines macro- and meso-level analyses: the institutionalized and organizational settings in which science is produced. Since information about single authors was limited in availability, extensive micro-level analyses were not possible here, yet the research articles analyzed were all written and published by individuals working in organizations, which are in the center of analysis here. By reference to the dimensions expansion, diversity, and cooperation, I elaborated the frame of my investigation, and sorted my research questions, including country, organizational field and form, and organizational levels. The structure of this work (see outline) addresses these themes and the observed timeframe spans the years from 1900 to 2010 – more than a century (see section 1.2). My main goal was to investigate how and why scientists publish their research results in peer-reviewed journal articles. The point is to emphasize the importance of scientific findings/discoveries, because non-published results are non-existent for the scientific community. From the ways and in which formats scientists publish their work, we can deduce how science is organized (within and across disciplines). My dissertation analyzes publications in peer-reviewed journals, because they are the most important format – alongside patents in applied fields – to disseminate new knowledge in science, technology, engineering, mathematics, and health (hereafter STEM+ fields). Articles not only record new knowledge, but also contribute to the reputation of researchers and their organizations. Journal publications in reputable journals with peer-review have become the "gold standard" measure of scientific productivity. Within the last several decades, the scientization of many dimensions of societal life proceeded, and the generation of new knowledge increasingly became the focus of political, economic, and social interests – and research policymaking. Therefore, it is important to identify the institutionalized settings (organizations/organizational forms) in which science can best be produced. Here, the diverse types of organizations that produce science – mainly universities, research institutes, companies, government agencies and hospitals – were identified and differences and similarities of these organizational forms were analyzed on the basis of their character, goals, tasks, and the kinds of research their members produce. In a first step, I show why I structured my work at the interface of higher education research, science studies, and bibliometrics (see chapters 2 and 5). Analyzing publications is still the key task of bibliometrics, but the results are used by many other actors as well: higher education managers, politicians, and scientists themselves to make claims about the quality of science, to compare each other, or to influence the structure, organization, and output of the higher education and science system. While it is difficult to make direct statements about the quality of research on the basis of simply counting the number of research articles a scientist publishes, the quality of journals is used as a proxy to compare across disciplines. To measure quality, other parameters are necessary. Thus, here statements focus on the quantity of science produced, not on the intrinsic quality of the analyzed research articles, the specific research achievements of individual scholars, organizations or organizational forms, or even countries. Nevertheless, output indicators elaborated here definitely show the huge expansion of scientific production and productivity, the stability of the research university over time as the most important science producer in Germany, but also rising differentiation and diversification of the organizational forms contributing to overall scientific output. Furthermore, the start of a considerable and on-going rise in national and international collaborations can be dated to the early 1990s. The chapter about the multidisciplinary context (see chapter 2) discusses the relationship between higher education research and science studies in Germany as well as the special position of scientific knowledge in comparison to other forms of knowledge. Scientific knowledge is generated, distributed, and consumed by the scientific community. To get an overview about the most important studies in the field, and to contextualize my work within the already existing empirical studies, I describe the current state of research in chapter 3. Research questions Section 1.2 provides a detailed description of my research questions: Which organizational forms produce science? 1. How has worldwide and European scientific productivity developed between 1900 and 2010 in comparison? 2. How has the German higher education and science system been embedded in the global developments of higher education and science over time? 3. How has scientific productivity in Germany developed between 1900 and 2010? 4. Among all science-producing organizational forms, what do the key organizational forms contribute to scientific productivity? 5. Which organizational forms provide the best conditions for scientific productivity? 6. Which single organizations produce the most research in Germany? 7. What is the impact of increasing internationalization of research on national and international cooperation, measured in publications in scientific journals? Theoretical framework Theoretically (see chapter 4), I apply a neo-institutional (NI) framework to explore and explain both the tremendous expansion of higher education and science across the world and considerable differences across time and space in the institutional settings, organizational forms, and organizations that produce scientific research in Germany. Sociological NI focuses on understanding institutions as important in guiding social action and shaping processes of social development. Such an approach emphasizes the development, functioning, and principles of institutions. Milestones in NI describe the nexus of organization and society supposing that organizational structures express myths and reflect ideals institutionalized in their environment. While capturing, copying, and asserting these, structural similarity (institutional isomorphism) between organizations in society will be established. The concept of "organizational field" emphasizes relationships between organizations within an environment. Organizational fields (communities) consist of all relevant organizations. In section 4.1.2 I discuss the differences between institutions and organizations and the difficulty of a distinction of the terms, especially in German-speaking sociology, which does not distinguish clearly between these terms. Fundamentally, NI approaches differ in the dimensions or pillars and levels of analysis they privilege (see figure 5, p. 80), but they share fundamental principles and the theoretical framework. Thus NI is particularly suitable for a multi-level analysis of scientific productivity across time and space. The historical development of the German higher education and science system must analyzed considering also global developments, because on the one hand it had an enormous impact on the development of other systems worldwide, and, on the other hand, global trends affect the on-going institutionalization and organization(s) of science in Germany. Intersectoral and international cooperation is growing and becoming increasingly important, leading to diverse networks within and between higher education and science systems worldwide. The classical, national case study is hardly longer possible, because macro units like countries are highly interdependent, embedded in global, regional and local relationships, such that borders between the global and the national dimension are increasingly blurred. Nevertheless, countries are units with clearly defined boundaries and structures, thus they can be handled as units to compare. The theoretical perspectives and different levels of analysis addressed here are displayed in Figure 5. I apply the "world polity" approach as a broader lense with which to make sense of the truly global arena of higher education and science (macro level). The focus of this perspective is on global and international structures and processes, which developed over time. Through this perspective, I explore global diffusion and formal structures of formal principles and practical applications. Combining historical and sociological institutionalism helps to focus on developments and processes over time on the meso level, to explain how institutions have developed and change(d). The concepts of "critical junctures" and path dependencies are useful to explain these processes over time. To describe the transformation of knowledge production over the entire twentieth century, and to analyze different organizational forms that produce science in Germany, two prevalent theoretical concepts are discussed: Mode 1 versus Mode 2 science, and the Triple-Helix model to describe the relationship between science, industry and state. In "The New Production of Knowledge" Michael Gibbons and his colleagues describe the transformation of knowledge from an academic, disciplinary, and autonomous – "traditional" – organization of science (Mode 1) with a focus on universities as the key organizational form, to a more applied, transdisciplinary, diverse, and reflexive organization of science (Mode 2) that features a more diverse organization of science, relying on a broader set of organizations producing knowledge. Within the literature, debates center on whether this new model has replaced the old, and which of these models best describes the contemporary organization of science (here: the STEM+ fields). In turn, the Triple-Helix model preserves the historical importance of the universities. This approach assumes that future innovations emerge from a relationship between universities (production of new knowledge), industry (generation of wealth), and state (control). Data and methods In these analyses, only peer reviewed journal publications were used – as the best indicator for measuring the most legitimated, authoritative produced science. This focus enabled an investigation of publications in-depth and over a 110 year timeframe. Research articles in the most reputable, peer-reviewed, and internationally reputable journals are the gold standard of scientific output in STEM+. The data I used is based on a stratified representative sample of published research articles in journals in STEM+-fields. My measure relies on the key global source for such data, the raw data from Thomson Reuters' Web of Science Science Citation Index Expanded (SCIE) (the other global database is Elsevier's Scopus, which also indexes tens of thousands of journals), which was extensively recoded. Methodologically, my approach is based on a combination of comparative institutional analysis across selected countries and historically of the German higher education and science system, and the systematic global evaluation of bibliometric publication data (see chapter 6). The SCIE includes more than 90 million entries (all types of research), mainly from STEM+-fields. I focus on original research articles, because this type of publication contains certified new knowledge. The SPHERE dataset covers published research articles from 1900 to 2010. From 1900 to 1970, we selected data in 5-year-steps in the form of a stratified representative sample. From 1975 onwards full data is available for every year. Depending on the research question, either five or ten-year steps were analyzed. A detailed description of the sampling and weighting of the data can be found in chapter 6. In consideration of the criteria above, I analyzed 17,568 different journals (42,963 journals were included into the database if we count the same journals in different years), and a total of 5,089,233 research articles. To prepare the data for this research, it had to be extensively cleaned and coded. Very often our international research team found missing information on the country level and/or on the level of organizations/organizational forms. From June 2013 to December 2015, research in the archives of university libraries was necessary to manually add missing information, particularly organization location and author affiliations. In the field of bibliometrics, we find different methods to count publications. In this work, I mainly apply the "whole count" approach (see table 1, p. 126). This decision is based on the assumption that every author, organization, or country contributed equally to a publication. An overestimation of publications can't be precluded, because research articles are counted multiple times, if a paper is produced in co-authorship, which has been rising worldwide over the past several decades. The absolute number of publications (worldwide, Europe, Germany) is based on a simple counting of research articles (without duplicates, in cases of co-authored articles). Summary of the most important results The empirical part of my work is divided into three parts. In the following sections, I will present the most important findings. The global picture – higher education and science systems in comparison The central question of my research project was "which organizational forms produce science"? For a better understanding and classification of the results of my case study, I embedded the German higher education and science system into the European and global context. I answered the questions "how did the worldwide and European scientific productivity developed between 1900 and 2010 in comparison", and "how was/is the German higher education and science system embedded in global developments of higher education and science over time" as follows: First, I show that the worldwide scientific growth followed a pure exponential curve between 1900 and 2010 (see figures 3 and 10; pp. 50, 147) – and we can assume that this strong upward trend continues today. The massive expansion of scientific production had and still has a tremendous influence on societal developments, beyond simply economic and technical developments, but rather transforming society. I show that higher education and science systems worldwide exhibit communalities, which have led to similar developments and expansion of scientific productivity. The comparison of important European countries (Germany in comparison with Great Britain, France, Belgium and Luxembourg) uncovered the contribution of the development and spread of modern research universities and the extraordinary and continued rise in publication output (see section 7.2; Powell, Dusdal 2016, 2017a, 2017b in press). Within the global field of science, three geographical centers of scientific productivity have emerged over the twentieth century: Europe, North America, and Asia. Their relative importance fluctuates over time, but today all three centers continue to be the key regions in the production of scientific research in STEM+ journals. Especially in Asia, the growth rates have risen massively in recent years (Powell et al. 2017 in press). Second, I investigated that all countries worldwide invest more into research and development (R&D) (figure 9, p. 140). These investments have a clear impact on the scientific productivity of nations, yet there are important differences between countries in absolute production and productivity rates. Alongside direct investments in R&D or the application of patents in STEM+-fields that influence the expansion of science, the capacity for producing more knowledge fundamentally depends on rising student enrolments, a growing number of researchers, the widening of research activities into various arenas of society, the development of products, and the (re-)foundation of universities (Powell, Baker, Fernandez 2017 in press). As part of the higher education expansion and massification during the 1960s and 70s, the numbers of researchers and students rose tremendously. The growth of scientific publications thus results from the on-going institutionalization of higher education and science systems worldwide. The growth of publications is also explained by the steady growth in the number of researchers working within these growing – and increasingly interconnected – systems. Third, I could reject the argument of Derek J. de Solla Price that the pure exponential growth of scientific literature has to flatten or would slow-down several decades after the advent of "big science" (see paragraph 2.4; figure 4 and 10; p. 53, 147). Although radical historical, political, economical, and technical events (see figure 11, p. 150) led to punctual short-term decreases in publication outputs, the long-term development of universities and other organizational forms producing science led to sustained growth of scientific publications, with the numbers of publications rising unchecked over the long twentieth century. In 2010, the worldwide scientific productivity in leading STEM+ journals was about one million articles annually. Fourth, I could show that the absolute numbers have to be put into perspective and standardized in relation to the investments in R&D, the size of the higher education and science systems, the number of inhabitants (see figure 12, p. 159), and the number of researchers (table 3, p. 162; figure 13, p. 164). The initial expansion of scientific publications in STEM+-fields is based on a general growth of higher education and science systems. The different institutional settings and organizational forms that produce science have an impact on scientific productivity. The selected country case studies – Germany, Great Britain, France, Belgium and Luxembourg – demonstrate that systems with strong research universities are highly productive; they seem to provide conditions necessary for science. As a result, not only the number and quality of researchers is important, but also the institutional and organizational settings in which they are employed. Fifth, in international comparison, Germany continues to contribute significantly to scientific productivity in STEM+ fields. With an annual growth rate of 3.35%, Germany follows the United States and Japan. In 2014, German governments invested €84.5 billion in R&D – 2.9% of overall GDP. The EU-target of 3% by 2020 was barely missed. In 2010, Germany produced 55,009 research articles (see table A5). In comparison to Great Britain, France, Belgium and Luxemburg, Germany still leads in scientific output in Europe –comparing just the absolute numbers. The size of the country itself and the institutionalization of the higher education and science systems influence publication outputs, of course, with these absolute numbers in relation to other key indicators showing a different picture. Standardized by the number of inhabitants, Germany published less articles per capita than Belgium and Great Britain. The number of researchers amounted to 327,997 (FTE) in 2010. The ratio of inhabitants to scientists was 1,000:4. Among these countries studied in-depth, Luxembourg and Great Britain had more researchers per capita than did Germany. The interplay of the organizational forms of science in Germany between 1900 and 2010 On the basis of the analysis of the global and European contexts, and development of worldwide scientific productivity over time in chapter 7, I started the in-depth case study of Germany. Bridging this overview and the following in-depth analyses is a chapter on the institutionalization of the German higher education and science system (see chapter 8). Here, I described the most important institutions and organizations and the organizational field – universities, extra-university research institutes and universities of applied sciences. Furthermore, I discussed the differences between West and East Germany during their division (1945–1990). Summarizing the most important results shows that the development of publications in Germany follows global and European trends (on a lower scale) (see figure 16, p. 208). Over time, Germany experienced pure exponential growth of scientific publications and a rising diversity of organizational forms that contribute to scientific productivity (see sections 9.1 and 9.3). I answered the following three research questions: "how has the scientific productivity in Germany developed between 1900 and 2010", "among all science producing organizational forms, what do the key organizational forms contribute to scientific productivity", "which organizational forms provide the best conditions for scientific productivity", and "which single organizations are the most research intense in Germany"? First, the growth curve of scientific publications in Germany turns out as expected – it shows pure exponential graph, comparable with the worldwide and European development of scientific productivity between 1900 and 2010. Here, too, cataclysmic events such as the two world wars and the Great Depression as well as reunification had only short-term (negative) impact (figure 11, p. 150) on scientific productivity, without even a medium-term slow-down or flattening of the curve. By 2010, the total number of publications in STEM+ fields by researchers in German organizations topped 55,000 in one year alone. Second, a detailed examination and comparison of the development of scientific productivity in West Germany and East Germany between 1950 and 1990 showed that the growth rate of Germany (altogether) was based mainly on steady growth of scientific publications in West Germany (see figure 17, p. 211). The growth curve of the former GDR was quite flat and proceeded on a very low level. As a result, I conclude that the GDR's higher education and science system, based on its academy model, did not provide conditions for scientific productivity as optimally as did the BRD. Third, a detailed analysis of the "key classical" organizational forms of science – universities and extra-university research institutes – show that universities were and are the main producers of scientific publications in STEM+ from 1975 to 2010 (see figure 18, p. 217). On average, university-based researchers produced 60% of all articles and defended their status against other organizational forms, which leads to the rejection of the Mode 2 hypothesis. Non-university publications reached an average of 40%. But that does not mean that other organizational forms were not producing science as well. The percentage share of articles is ultrastable and shows only marginal variations. The thesis that the proportion of university publications should decrease over time can be rejected for the period from 1975 to 2010. This suggests that scientific productivity of universities is actually rising, since despite decreasing financial support (R&D) in favor of extra-university research institutes, the universities produced more research articles with less resources over time. Fourth, although not only scientists within universities and research institutes publish their research in scientific journals, jointly these organizational forms have produced more than three-quarters of all research articles since 1980. Already in the earlier years, they produced a large number of scientific articles. Other organizational forms also generate scientific knowledge (for an extensive description of the organizational form matrix, see table 4, pp. 222f.). Especially scientists in firms, government agencies, and hospitals publish articles in peer-reviewed journals in STEM+ (see figures 19 and 20; pp. 220, 246). Indeed, the universities have been the driving force of scientific productivity for more than a century. With their specific orientation to basic research and their linkage of research and teaching, they provide conditions that facilitate the production of science. Universities are among the oldest institutions with a high degree of institutionalization. All other organizational forms (academies, associations, infrastructures, laboratories, military, museums and non-university education) were identified in the dataset played only a minor role and were summarized in the category "further types". Fifth, the analysis of the ten most research-intensive single organizations in Germany in the year 2010 confirmed the results. Only universities and institutes were part of this group. A summary of publications of single institutes under their umbrella organizations shows that the institutes of the Max Planck Society and of the Helmholtz Association are the leading science producers in Germany, outpacing the scientific productivity of universities, but only when aggregating the contributions of dozens of individual institutes (see table 5, p. 259f). An analysis of single institutes shows that these research institutes cannot compete with universities, because of their size and the number of researchers. The Charite – Universitätsmedizin Berlin, a hybrid organization, is another leading science producer in Germany. National and international cooperation of scientific research Finally, increasing internationalization of research has impacted on national and international cooperation. leading to collaboratively-written publications in scientific journals. Through advancing globalization, national and international scientific cooperation increased in volume and importance. International cooperation in STEM+ is facilitated by the reputation of the research organization and of the co-authors, higher visibility within the scientific community and more possibilities for interdisciplinary research as well as better or more specialized facilities. Today, more than a third of all research articles worldwide are produced in scientific collaboration; only around a quarter are single-authored articles. In contrast to Humboldt's principle "in Einsamkeit und Freiheit" (in loneliness and freedom), research is no longer done by one scientist, but is much more likely the result of collaboration. Research networks are increasingly important, and researchers share their common interests on a research question, publishing their results in joint publications. Researchers, organizations, and indeed countries differ in the ways they organize their research and thus how they enable research and collaboration. This depends on location, size, higher education and science system, the organizational field and organizations. Here, varying patterns of scientific cooperation were presented, showing a massive increase in scientific collaboration in (inter)national co-authorships over time. Until the 1990s, researchers in all investigated countries (France, Germany, Great Britain, USA, Japan, China, Belgium, Luxembourg) published their research articles mainly as single-authored papers. Only since the 1990s have co- and multi-authored publications risen (considerably): In 2000, only a third of all publications were published by one author. In 2010, the proportion reached its lowest level with only one-fifth of all papers single-authored (see table 6, pp. 279f). Countries differ considerably in their amount of collaboratively-written research articles. References Powell, J. J. W. & Dusdal, J. (2016). Europe's Center of Science: Science Productivity in Belgium, France, Germany, and Luxembourg. EuropeNow, 1(1). http://www.europenowjournal.org/2016/11/30/europes-center-of-science-science-productivity-in-belgium-france-germany-and-luxembourg/. Last access: 13.12.2016. Powell, J. J. W. & Dusdal, J. (2017a): Measuring Research Organizations' Contributions to Science Productivity in Science, Technology, Engineering and Math in Germany, France, Belgium, and Luxembourg. Minerva, (). Online first. DOI:10.1007/s11024-017-9327-z. Powell, J. J. W. & Dusdal, J. (2017b in press). The European Center of Science Productivity: Research Universities and Institutes in France, Germany, and the United Kingdom. IN Powell, J. J. W., Baker, D. P. & Fernandez, F. (Hg.) The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing. Powell, J. J. W., Baker, D. P. & Fernandez, F. (2017 in press). The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing. Powell, J. J. W., Fernandez, F., Crist, J. T., Dusdal, J., Zhang, L. & Baker, D. P. (2017 in press). The Worldwide Triumph of the Research University and Globalizing Science. IN Powell, J. W., Baker, D. P. & Fernandez, F. (Hg.) The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing. ; Überblick und Einleitung Bereits der Titel meiner Dissertation "Welche Organisationsformen produzieren Wissenschaft? Expansion, Vielfalt und Kooperation im deutschen Hochschul- und Wissenschaftssystem im globalen Kontext, 1900-2010" verspricht, dass sich dem Thema der Entwicklung wissenschaftlicher Produktivität in Deutschland aus verschiedenen Perspektiven (Analyseebenen, Dimensionen und Zeitrahmen) genähert werden soll. Eingebettet in das international vergleichende Forschungsprojekt Science Productivity, Higher Education, Research and Development, and the Knowledge Society (SPHERE) rückt meine Dissertation die Analyse des Einflusses der Hochschulentwicklung und der wissenschaftlichen Kapazitätsbildung auf die wissenschaftliche Wissensproduktion in den Vordergrund. Es interessiert mich, wie die im deutschen Hochschul- und Wissenschaftssystem vorherrschenden Strukturen und institutionellen Settings die langfristige Entwicklung wissenschaftlicher Produktivität beeinflusst und verändert haben. Besonders vor dem Hintergrund einer voranschreitenden Globalisierung und Internationalisierung der Wissenschaft, einer weltweiten Vernetzung von Wissenschaftlern und der Herausbildung einer Wissensgesellschaft. Die Annäherung an den Forschungsgegentand erfolgt auf der Makro- und Mesoebene: den institutionalisierten und organisationalen Settings, in denen Wissenschaft produziert wurde und wird. Da Informationen zu einzelnen Autoren nicht zur Verfügung standen, können keine Aussagen auf der Mikroebene getroffen werden, wenngleich Publikationen natürlich immer von Individuen verfasst werden und nicht von den hier untersuchten Ländern oder Organisationsformen und Einzelorganisationen. Anhand der Dimensionen Expansion, Vielfalt und Kooperation wird der Untersuchungsrahmen abgesteckt und eine Ordnung der Fragestellung vorgenommen, an denen die Struktur der Arbeit ausgerichtet ist. Der Zeitrahmen der Arbeit umfasst die Jahre 1900 bis 2010, also mehr als ein Jahrhundert (siehe Abschnitt 1.2). Ziel dieser Arbeit ist es darzulegen, warum Wissenschaftler ihre Ergebnisse in Form von Zeitschriftenartikeln publizieren. Es geht unter anderem darum, die Wichtigkeit wissenschaftlicher Erkenntnisse hervorzuheben, da nicht publizierte Ergebnisse für die Wissenschaft nicht existieren und sich aus der Art und Weise, wie publiziert wird, die Organisation der Forschung innerhalb und übergreifend einer Disziplin oder eines Fachs ableiten lässt. In den in dieser Arbeit untersuchten Fächergruppen Mathematik, Ingenieur-, Natur- und Technikwissenschaften sowie Medizin (im Folgenden angelehnt an die englische Abkürzung STEM (Science, Technology, Engineering and Mathematics) plus Medicine als STEM+ bezeichnet) spielen Publikationen in peer reviewed Zeitschriften eine wichtige Rolle – neben Patenten in den angewandteren Fächergruppen sind sie heutzutage das wichtigste Publikationsformat. Sie dienen nicht nur der Dokumentation generierten Wissens, sondern sind auch ein Anzeiger für die Reputation eines Forschers und dienen der Messung wissenschaftlicher Produktivität. Zeitschriftenpublikationen in hochklassigen Zeitschriften, die einem peer review Verfahren unterliegen, können als gold standard zur Messung wissenschaftlicher Produktivität herangezogen werden. In den letzten Jahrzehnten kam es zu einer zunehmenden Verwissenschaftlichung vieler gesellschaftlichen Teilbereiche und die Generierung wissenschaftlichen Wissens rückte immer weiter ins Zentrum des politischen und wirtschaftlichen Interesses, unabhängig davon, wo es produziert wurde. Aus diesem Grund werden die Orte und institutionellen Settings (Organisationen, Organisationsformen) wissenschaftlicher Produktivität (hauptsächlich Universitäten, außeruniversitäre Forschungsinstitute, Unternehmen, Behörden und Ressortforschungseinrichtungen und Krankenhäuser) identifiziert und voneinander abgegrenzt. Indem ihre Gemeinsamkeiten und Unterschiede anhand ihrer Aufgaben und Ziele sowie der Art der Forschung diskutiert werden. In einem ersten Schritt lege ich dar, warum ich diese Arbeit an der Schnittstelle zwischen Hochschul- und Wissenschaftsforschung und der Bibliometrie angelegt habe (siehe Kapitel 2 und 5). Publikationsanalysen werden zwar immer noch als Hauptaufgabe der Bibliometrie gesehen, aber ihre Ergebnisse werden auch von anderen Akteuren wie Hochschulmanagern, Politikern und Wissenschaftlern genutzt, um einerseits Aussagen über die Qualität der Wissenschaft zu treffen, aber auch um sich miteinander zu vergleichen oder steuernd in die Struktur und Organisation einzugreifen und Aussagen über den Output des Hochschul- und Wissenschaftssystems zu treffen. Direkte Aussagen über die Qualität der Forschung auf Basis der Anzahl an Zeitschriftenartikeln, die ein Wissenschaftler publiziert, können nicht getroffen werden, es kann aber über die Qualität einer Zeitschrift (Impactfactor) ein Proxi gebildet werden, mit dessen Hilfe Vergleiche zwischen Disziplinen getroffen werden können. Um wissenschaftliche Produktivität zu messen, müssten ergänzende Parameter hinzugezogen werden. Aus diesem Grund werden in dieser Arbeit lediglich Aussagen über die Quantität wissenschaftlicher Produktivität getroffen, nicht aber über die Qualität der untersuchten Zeitschriftenartikel, die Forschungsleistung einzelner Wissenschaftler, Organisationen oder Organisationsformen und einzelner Länder. Nichtdestotrotz zeigen Indikatoren zur Messung wissenschaftlichen Outputs eine große Expansion wissenschaftlicher Produktivität, eine Stabilität der Universitäten im Zeitverlauf und die Wichtigkeit Deutschlands als Wissensschaftsproduzent sowie eine steigende Differenzierung und Diversifizierung der Organisationsformen. Zudem können die 1990er Jahre als Startpunkt steigender nationaler und internationaler Kooperationen gesehen werden. In Kapitel 2 zum multidisziplinären Kontext der Arbeit zeige ich, in welcher Beziehung sich die Hochschul- und Wissenschaftsforschung in Deutschland zueinander befinden. Wissenschaftliches Wissen nimmt eine Sonderstellung im Vergleich zu anderen Wissensformen ein, da es unter bestimmten Bedingungen, die von der wissenschaftlichen Gemeinschaft selbst bestimmt werden, generiert und verbreitet wird. Um einen Überblick über die wichtigsten Studien innerhalb meines Feldes zu bekommen, und um meine Arbeit in den empirischen Kontext zu rücken, beschreibe ich in Kapitel 3 dieser Arbeit den aktuellen Forschungsstand. Forschungsfragen Abschnitt 1.2 stellt einen detaillierten Überblick über die dieser Arbeit zugrunde liegenden Forschungsfragen bereit: Welche Organisationsformen produzieren Wissenschaft? 1. Wie hat sich die wissenschaftliche Produktivität weltweit und im europäischen Vergleich zwischen 1900 und 2010 entwickelt? 2. Wie war/ist das deutsche Hochschul- und Wissenschaftssystem in die globalen Entwicklungen der Hochschulbildung und Wissenschaft im Zeitverlauf eingebettet? 3. Wie hat sich die wissenschaftliche Produktivität in Deutschland zwischen 1900 und 2010 entwickelt? 4. Unter allen Wissenschaft produzierenden Organisationsformen, was tragen die "klassischen" Formen zur wissenschaftlichen Produktivität bei? 5. Welche Organisationsformen stellen die besten Bedingungen für wissenschaftliche Produktivität bereit? 6. Welche Einzelorganisationen gehören zu den forschungsstärksten in Deutschland? 7. Welchen Einfluss hat die zunehmende Internationalisierung der Forschung auf nationale und internationale Kooperationen in Form von Publikationen in Zeitschriftenartikeln? Theoretischer Rahmen Theoretisch (siehe Kapitel 4) basiert meine Arbeit auf einem neu-institutionellen (NI) Ansatz zur Untersuchung und Erklärung der Expansion des Hochschulwesens und der Wissenschaft weltweit. Trotz des allgemeinen Wachstums wissenschaftlicher Produktivität bestehen beträchtliche Unterschiede zwischen den institutionellen Settings, Organisationsformen und einzelner Organisationen, die maßgeblich zur wissenschaftlichen Produktivität beitragen. Der soziologische NI konzentriert sich auf das Verständnis von Institutionen und Organisationen. Institutionen sind ein wichtiger Baustein, um soziales Handeln und Prozesse der Gesellschaftsentwicklung zu verstehen. Organisationen und Institutionen stehen in einer wechselseitigen Beziehung zueinander. Die zentralen Annahmen des NI wurden von Walter Powell, Paul DiMaggio und Richard Scott formuliert. Meilensteine: der Zusammenhang von Organisation und Gesellschaft und die Annahme, dass formale Organisationsstrukturen Mythen zum Ausdruck bringen, die in ihrer gesellschaftlichen Umwelt institutionalisiert sind. Indem Organisationen diese Mythen erfassen, kopieren und zeremoniell zur Geltung bringen, werden Strukturähnlichkeiten (Isomorphien) zwischen Organisationen und der Gesellschaft hergestellt. Das Konzept der "organisationalen Felder" dient der Beschreibung der Beziehung zwischen verschiedenen Organisationen und beinhaltet alle relevanten Organisationen, die sich mit ihrer gesellschaftlichen Umwelt auseinander setzen. In Abschnitt 4.1.2 werden die Unterschiede zwischen den Begriffen Institutionen und Organisationen diskutiert, da diese besonders in der deutschsprachigen Soziologie nicht trennscharf genutzt werden. Grundsätzlich unterscheiden sich Ansätze institutioneller Theorie in ihrer Anwendungsebene, sie sind aber durch ihren Überbau miteinander verschränkt. Folglich ist der NI als theoretische Basis besonders gut geeignet, um eine Mehrebenenanalyse der wissenschaftlichen Produktivität zeit- und ortsübergreifend durchzuführen. Die historische Entwicklung des deutschen Hochschul- und Wissenschaftssystems kann nicht ohne eine Berücksichtigung der globalen Entwicklungen durchgeführt werden, da es einerseits einen enormen Einfluss auf die Entwicklung anderer Systeme weltweit hatte/hat und andererseits globale Entwicklungen die Institutionalisierung und Organisation der Wissenschaft in Deutschland beeinflussen. Intersektorale und internationale Kooperationen sind im Zeitverlauf angewachsen, werden immer wichtiger und führen zu ausgeprägten Netzwerken innerhalb und zwischen Hochschul- und Wissenschaftssystemen weltweit. Aufgrund einer zunehmenden Verzahnung einzelner Länder und den damit einhergehenden Wechselwirkungen zwischen den unterschiedlichen Analyseebenen (makro, meso, mikro) ist eine klassische, nationalstaatliche Analyse nicht mehr zielführend. Nichtsdestotrotz können Länder als vergleichbare Einheiten gesehen werden, da sie über klar definierte Grenzen und Strukturen verfügen. Die unterschiedlichen theoretischen Perspektiven und Analyseebenen werden in Abbildung 5 genauer beschrieben. Der theoretische Ansatz der "Weltkultur" bietet eine breitere Linse des soziologischen NI auf die globale Arena. Der Fokus liegt auf globalen und internationalen Strukturen und Prozessen, die sich über lange Zeit entwickelt haben. Mit Hilfe dieser Perspektive können globale Diffusion und formale Strukturen der Entkopplung von formalen Grundsätzen und praktischer Anwendung erklärt werden. Zusammen nehmen der historische und soziologische Institutionalismus zeitliche Entwicklungen und Prozesse in den Blick, die erklären, wie Institutionen entstehen und sich verändern. Die Konzepte critical junctures und Pfadabhängigkeit sollen helfen diese Prozesse auf der Mesoebene zu verstehen. Um die Transformation der Wissensproduktion im Zeitverlauf des 20. Jahrhunderts zu verstehen und um zu analysieren, welche Organisationsformen an der Produktion wissenschaftlichen Wissens beteiligt waren, werden zwei theoretische Konzepte herangezogen: Modus 1 versus Modus 2 Wissenschaft und das Triple-Helix Modell zur Beschreibung der Beziehung zwischen Wissenschaft, Industrie und Staat. In The New Production of Knowledge beschreiben Michael Gibbons und seine Kollegen den Wandel der Wissenschaft von einer akademischen, disziplinären und autonomen, traditionellen, Organisation der Wissenschaft (Modus 1) mit einem Schwerpunkt auf Universitäten als wichtigste Organisationsform, hin zu einer anwendungsorientierteren, transdisziplinären, diversen und reflexiven Organisation der Wissenschaft (Modus 2), die eine diversere Organisation der Wissenschaft unterstützt und auf einem breiteren organisationalen Setting der Wissensproduktion beruht. Innerhalb der Literatur wird diskutiert, ob das neue Modell das alte ersetzen soll und welches der Modelle die gegenwärtige Organisation der Wissenschaft am besten beschreibt. Im Gegensatz hierzu bleibt beim Triple-Helix Modell die historische Rolle der Universitäten erhalten. Der Ansatz geht davon aus, dass zukünftige Innovationen aus einer Beziehung von Universitäten (Wissensproduktion), Industrie (Generierung von Wohlstand) und dem Staat (Kontrolle) resultieren. Daten und Methoden In dieser Arbeit werden ausschließlich Publikationen in peer reviewed Zeitschriften als Kennzeichen wissenschaftlicher Produktivität herangezogen. Dieser Schwerpunkt ermöglicht mir eine tiefgreifende Analyse von Publikationen über einen Zeitraum von mehr als einem Jahrhundert. Zeitschriftenartikel in hochklassigen und möglichst internationalen Journalen bilden den gold standard wissenschaftlichen Outputs in den hier untersuchten Mathematik, Ingenieur-, Natur- und Technikwissenschaften sowie der Medizin (STEM+). Meine Daten basieren auf einem stratifizierten, repräsentativen Sample (siehe ausführlich Kapitel 6) publizierter Zeitschriften, die als Rohdaten aus Thomson Reuters Web of Science Science Citation Index Expanded (SCIE) zur Analyse zur Verfügung stehen (eine vergleichbare Datenbank stellt Elseviers Scopus bereit). Methodologisch wird eine Kombination aus einer vergleichenden institutionelle Analyse ausgewählter Länder, eine historische Untersuchung des deutschen Hochschul- und Wissenschaftssystems und eine systematische, globale Auswertung bibliometrischer Publikationsdaten angestrebt. Der SCIE umfasst mehr als 90 Millionen Einträge (gespeichert werden nahezu alle Typen wissenschaftlichen Outputs), hauptsächlich aus den oben genannten Fächergruppen. Diese Arbeit beschränkt sich auf originale Zeitschriftenartikel (Originalmitteilungen), da lediglich dieser Publikationstyp zertifiziertes und neues Wissen enthält. Der SPHERE Datensatz umfasst publizierte Zeitschriftenartikel aus den Jahren 1900 bis 2010. Von 1900 bis 1970 wurden die Daten in 5-Jahres-Schritten mittels einer geschichteten Zufallsstichprobe ausgewählt. Ab 1975 stehen die Daten vollständig und ab 1980 in Jahresschritten zur Verfügung. Abhängig von der untersuchten Fragestellung werden die Daten in 5-Jahres- oder 10-Jahres-Schritten analysiert. Eine detaillierte Beschreibung des Samplings und der Gewichtung der Daten kann den Abschnitten 6.2.2 und 6.8 entnommen werden. Unter Berücksichtigung dieser Kriterien werden 17.568 unterschiedliche Zeitschriften (42.963 Zeitschriften, wenn dieselbe Zeitschrift in unterschiedlichen Jahren mehrfach berücksichtigt wird) und 5.089.233 Forschungsartikel untersucht. Um die Daten für die Analyse aufzubereiten muss eine intensive Vorarbeit geleistet werden. Sie werden umfassend (nach-)kodiert und bereinigt. Besonders häufig sind Fehler oder fehlende Informationen auf Ebene der Länder und/oder der Organisationen/Organisationsformen, in denen die Forschung betrieben wurde. Im Zeitraum von Juni 2013 bis Dezember 2015 habe ich die Originalzeitschriften und -artikel in Online-Zeitschriftendatenbanken oder Archiven verschiedener Universitätsbibliotheken eingesehen, begutachtet und mit Hilfe einer Excel-Tabelle katalogisiert und fehlende Informationen, wenn vorhanden, ergänzt. In der Bibliometrie werden verschiedene Vorgehensweisen diskutiert, wie Publikationen gezählt werden können. Die Analysen dieser Arbeit basieren hauptsächlich auf der whole count Methode (siehe Tabelle 1). Die Entscheidung basiert auf der Annahme, dass jeder Autor, jede Organisation, oder jedes Land gleichermaßen zu einer Publikation beigetragen hat. Folglich kann es zu einer Verzerrung bzw. Überschätzung der Ergebnisse kommen, da Zeitschriftenartikel mehrfach gezählt werden, wenn sie in Form von Forschungskooperationen publiziert wurden. Um die absolute Anzahl an Publikationen (weltweit, Europa, Deutschland) zu ermitteln, wird die Gesamtzahl an Artikeln pro Jahr (ohne Duplikate) berechnet. Zusammenfassung der wichtigsten Ergebnisse Der empirische Teil meiner Arbeit ist in drei Teile untergliedert. Die folgenden Abschnitte fassen die jeweils wichtigsten Ergebnisse zusammen. The Global Picture – Hochschul- und Wissenschaftssysteme im Vergleich Im Mittelpunkt meiner Dissertation steht die Frage, welche Organisationsformen Wissenschaft produzieren. Um die Ergebnisse der detaillierten Fallstudie einordnen und bewerten zu können, erfolgt zunächst eine Einbettung in den globalen und europäischen Kontext. Die forschungsleitenden Fragen, wie hat sich die wissenschaftliche Produktivität weltweit und im europäischen Vergleich zwischen 1900 und 2010 entwickelt und wie war/ist das deutsche Hochschul- und Wissenschaftssystem in die globalen Entwicklungen der Hochschulbildung und Wissenschaft im zeitverlauf eingebettet, wird folgendermaßen beantwortet: In einem ersten Schritt wird gezeigt, dass das weltweite wissenschaftliche Wachstum zwischen 1900 und 2010 exponentiell verlief und dieser Trend vermutlich bis heute anhält (siehe Abbildungen 3 und 10, S. 50, 147). Die massive Ausdehnung wissenschaftlichen Wissens hatte und hat auch heute noch einen großen Einfluss auf gesellschaftliche Entwicklungen, die nicht auf den wirtschaftlichen und technischen Fortschritt beschränkt sind. Ich werde darstellen, dass Hochschul- und Wissenschaftssysteme weltweite Gemeinsamkeiten aufweisen, die zu einer ähnlichen Entwicklung und Ausweitung wissenschaftlicher Produktivität geführt haben. Im Vergleich wichtiger europäischer Länder (Deutschland im Vergleich mit Großbritannien, Frankreich, Belgien und Luxemburg), kann gezeigt werden, dass zwischen der weltweiten Ausweitung der Wissenschaft, dem Anstieg an Publikationen und der Expansion von modernen Forschungsuniversitäten ein Zusammenhang besteht (siehe Abschnitt 7.2; Powell, Dusdal 2016, 2017a; 2017b im Druck). So wurde ein globales Feld der Wissenschaft aufgespannt, das als übergeordneter Rahmen fungiert. Drei geografische Zentren wissenschaftlicher Produktivität werden im Zeitverlauf identifiziert: Europa, Nordamerika und Asien. Sie haben zu unterschiedlichen Zeitpunkten an Bedeutung gewonnen oder verloren, doch zum heutigen Zeitpunkt tragen sie alle zur wissenschaftlichen Produktivität in den untersuchten Fächergruppen bei. Allerdings sind besonders in Asien die Wachstumsraten massiv angestiegen (Powell et al 2017 im Druck). Zweitens investieren alle Länder weltweit in Forschung und Entwicklung (FuE) (siehe Abbildung 9, S. 140). Diese Investitionen haben einen Einfluss auf ihre wissenschaftliche Produktivität. Zwischen einzelnen Ländern sind zum Teil große Unterschiede in der absoluten Publikationszahl und der relativen wissenschaftlichen Produktivität feststellbar. Nicht nur Investitionen in FuE tragen zur Expansion der Wissenschaft bei, sondern auch die Anmeldung von Patenten, höhere Studierendenzahlen, eine gestiegene Anzahl an Forschern, die Ausweitung von Forschungsaktivitäten in viele gesellschaftliche Teilbereiche, die Entwicklung von Forschungsprodukten und Neugründungen von Universitäten (Powell, Baker, Fernandez 2017 im Druck). Im Zuge der Hochschulexpansion und der Massifizierung der Hochschulbildung in den 1960er und 70er Jahren sind besonders die Studierendenzahlen und die Anzahl der Wissenschaftler extrem angestiegen. Es kam also zur Ausweitung des kompletten Hochschul- und Wissenschaftssystems und nicht nur zu einer Erhöhung der Anzahl an Publikationen. Im Umkehrschluss kann ein Teil des Anstiegs wissenschaftlicher Publikationen auf eine steigende Anzahl an Wissenschaftlern zurückgeführt werden. Drittens kann die von Derek J. de Solla Price aufgestellte These, dass das exponentielle Wachstum wissenschaftlicher Literatur irgendwann abflachen müsse, wiederlegt werden (siehe Abschnitt 2.4; Abbildungen 4 und 10, S. 53, 147). Obwohl einschneidende historische, politische, wirtschaftliche und technologische Ereignisse sowie Ereignisse bezogen auf die Hochschulen und Wissenschaft (siehe Abbildung 11, S. 150) kurzfristig zu einer Verringerung der Publikationszahlen geführt haben, wurde die Wachstumskurve nicht nachhaltig beeinflusst. Im Jahr 2010 wurden weltweit fast eine Million Zeitschriftenartikel in den Natur- und Technikwissenschaften sowie der Medizin publiziert. In Abschnitt 7.2.2 zeige ich, dass die Anzahl der publizierten Zeitschriftenartikel im Verhältnis zu den Ausgaben für FuE, der Größe der Hochschul- und Wissenschaftssysteme und der Anzahl der Einwohner (siehe Abbildung 12, S. 159) und Wissenschaftler (siehe Tabelle 3, S. 162; Abbildung 13, S. 164) relativiert werden müssen. Die anfängliche extreme Expansion der wissenschaftlichen Publikationen in den Mathematik, Ingenieur-, Natur- und Technikwissenschaften sowie der Medizin basiert auf einem allgemeinen Wachstum der Hochschul- und Wissenschaftssysteme (siehe oben). Unterschiedliche institutionelle Settings und Organisationsformen, in denen Wissenschaft produziert wird, haben einen Einfluss auf die wissenschaftliche Produktivität. Anhand der ausgewählten Fallbeispiele (Deutschland, Großbritannien, Frankreich, Belgien und Luxemburg) werde ich darlegen, dass Hochschul- und Wissenschaftssysteme, die über forschungsstarke Universitäten verfügen, höchst produktiv sind. Es kommt also nicht nur darauf an, wie viele Wissenschaftler innerhalb eines Systems beschäftigt werden, sondern auch darauf, in welchen institutionellen Settings sie arbeiten. Fünftens, im internationalen Vergleich trägt Deutschland immer noch erheblich zur wissenschaftlichen Produktivität in den untersuchten Fächern bei. Mit einer Wachstumsrate von 3,35% Prozent folgt Deutschland den USA und Japan. Im Jahr 2014 wurden in Deutschland 84,5 Mrd./€ für FuE von der Regierung bereitgestellt. Dies entspricht einem Anteil von 2,9 Prozent des BIP. Somit wurde der EU-Richtwert von 2020 von 3 Prozent lediglich knapp verfehlt. Im Jahr 2010 wurden in Deutschland insgesamt 55.009 Zeitschriftenartikel in den STEM+-Fächern publiziert (siehe Tabelle A5 im Anhang). Im Vergleich der absoluten Zahlen mit Großbritannien, Frankreich, Belgien und Luxemburg nimmt das Land die Spitzenposition ein. Die Größe des Hochschul- und Wissenschaftssystems hat somit einen Einfluss auf die Publikationsleistung. Werden die Zahlen in einem nächsten Schritt mit anderen Schlüsselindikatoren in Beziehung gesetzt, verändert sich die Leistung der miteinander verglichenen Systeme zum Teil erheblich. Gemessen an der Einwohnerzahl werden in Deutschland weniger Zeitschriftenartikel publiziert als in Belgien oder Großbritannien. Die Anzahl der beschäftigten Wissenschaftler betrug in Deutschland im selben Jahr 1000:4. Nur in Luxemburg und Großbritannien ist das Verhältnis von Wissenschaftlern zur Einwohnerzahl größer. Das Zusammenspiel der Organisationsformen der Wissenschaft in Deutschland von 1900 bis 2010 Auf Basis der Analysen zum globalen und europäischen Kontext der Entwicklung wissenschaftlicher Produktivität im Zeitverlauf (siehe Kapitel 7) folgt eine tiefgreifende, institutionelle Analyse des deutschen Hochschul- und Wissenschaftssystems (siehe Kapitel 8). Sie dient als Ein- und Überleitung zur detaillierten empirischen Auswertung der Daten zum deutschen Hochschul- und Wissenschaftssystem. Hier werden die wichtigsten Institutionen und Organisationen sowie das organisationale Feld der Wissenschaft (Universitäten, Fachhochschulen, außeruniversitäre Forschungseinrichtungen) vorgestellt. Zudem diskutiere ich die Unterschiede zwischen Ost- und Westdeutschland zur Zeit des geteilten Deutschlands (1945-1990). Eine Zusammenfassung der wichtigsten Ergebnisse zeigt, dass die Entwicklung der Publikationszahlen in Deutschland dem weltweiten und europäischen Trend (im kleineren Umfang) folgt (siehe Abbildung 16, S. 208). Es kam sowohl zu einer Expansion des wissenschaftlichen Wissens in Form eines exponentiellen Anstiegs an Publikationen, als auch zu einer Erhöhung der Vielfalt wissenschaftlicher Produktivität im Zeitverlauf (siehe Abschnitte 9.1 und 9.3). Die folgenden vier Forschungsfragen werden beantwortet: Wie hat sich die wissenschaftliche Produktivität in Deutschland zwischen 1900 und 2010 entwickelt? Unter allen Wissenschaft produzierenden Organisationsformen, was tragen die "klassischen" Formen zur wissenschaftlichen Produktivität bei? Welche Organisationsformen stellen die besten Bedingungen für wissenschaftliche Produktivität bereit? Welche Einzelorganisationen gehören zu den forschungsstärksten in Deutschland? Wie oben beschrieben, verläuft das Wachstum wissenschaftlicher Produktivität in Deutschland zwischen den Jahren 1900 und 2010 exponentiell. Die Kurve ist vergleichbar mit der weltweiten und europäischen Entwicklung, wenn auch in kleinerem Umfang. Zwar hatten auch hier verschiedene Ereignisse, wie der Zweite Weltkrieg, die Weltwirtschaftskrise oder die Wiedervereinigung, einen kurzfristigen Einfluss, allerdings kam es zu keiner Verlangsamung oder Abflachung des Wachstums (siehe Abbildung 11, S. 150). Bis ins Jahr 2010 wuchs die Anzahl der publizierten Zeitschriftenartikel in Deutschland auf 55.009 an. Zweitens, zeigt eine detaillierte Betrachtung der wissenschaftlichen Produktivität Westdeutschlands im Vergleich zu Ostdeutschland, dass der Anstieg der gesamtdeutschen Publikationszahlen auf einem Anstieg der Zahlen in Westdeutschland basiert (siehe Abbildung 17, S. 211). Zwischen 1950 und 1990 verlief die Kurve der wissenschaftlichen Produktivität in der DDR flach und auf einem niedrigen Niveau. Hieraus kann geschlossen werden, dass das Hochschul- und Wissenschaftssystem der DDR, aufbauend auf seinem Akademiemodell, keine guten Bedingungen für wissenschaftliche Forschung bereitgestellt hat. Drittens, zeigt die detaillierte Analyse der "klassischen" Organisationsformen der Wissenschaft, Universitäten und außeruniversitäre Forschungsinstitute, dass Universitäten im Zeitraum von 1975 bis 2010 in den STEM+-Fächern die Hauptproduzenten wissenschaftlicher Zeitschriftenartikel waren und sind (siehe Abbildung 18, S. 217). Im Untersuchungszeitraum beträgt der prozentuale Anteil der universitätsbasierten Forschung im Mittel 60 Prozent. Somit verteidigen sie ihren Status als wichtigste Organisationsform gegenüber anderen. Die Modus 2 Hypothese, dass es im Zeitverlauf zu einem Absinken des prozentualen Anteils der Universitäten kommen muss, wird verworfen. Der Anteil der Nicht-Universitäten liegt hingegen im Durchschnitt bei 40 Prozent. Obwohl die Richtigkeit der folgenden Aussage nicht empirisch überprüft werden kann, wird davon ausgegangen, dass es sich tatsächlich sogar um einen Anstieg wissenschaftlicher Produktivität der Universitäten im Zeitverlauf handelt. Unter Berücksichtigung einer Verschiebung der zur Verfügung stehenden finanziellen Mittel für FuE zugunsten der außeruniversitären Forschungsinstitute haben die Universitäten im Zeitverlauf mit weniger Forschungsgeldern immer mehr wissenschaftliche Zeitschriftenartikel publiziert. Viertens, obwohl nicht nur Wissenschaftler innerhalb von Universitäten und Forschungsinstituten Zeitschriftenartikel veröffentlichen, haben diese beiden Organisationsformen zusammen mehr als drei Viertel aller Publikationen seit den 1980er Jahren verfasst. Aber auch schon in den Jahren zuvor ist ihr gemeinsamer Anteil sehr hoch. Zu den wichtigsten Wissenschaftsproduzenten gehören neben ihnen die (Industrie-)Unternehmen, Behörden und Ressortforschungseinrichtungen und Krankenhäuser (für eine ausführliche Beschreibung der Matrix der Organisationsformen siehe Tabelle 4, S. 222f und Abbildungen 19 und 20, S. 220, 246). Dennoch sind die Universitäten die treibende Kraft wissenschaftlicher Produktivität seit mehr als einem Jahrhundert. Mit ihrer speziellen Ausrichtung auf Grundlagenforschung stellen sie die besten Bedingungen für wissenschaftliche Forschung bereit und gehören zu den ältesten Institutionen mit einem hohen Institutionalisierungsgrad. Universitäten sind widerstandsfähig gegenüber Veränderungen und critical junctures haben keinen negativen Einfluss auf ihre wissenschaftliche Produktivität. Alle anderen im Datensatz gefundenen oder aus der Theorie abgeleiteten Organisationsformen (Akademien, Vereine/Gesellschaften, wissenschaftliche Infrastrukturen, Laboratorien, Militär, Museen und nichtuniversitäre Bildungseinrichtungen) spielen nur eine untergeordnete Rolle und wurden in der Gruppe "sonstige" Organisationsformen zusammengefasst. Fünftens, eine Auswertung der zehn forschungsstärksten Einzelorganisationen Deutschlands im Jahr 2010 bestätigt die oben beschriebenen Ergebnisse, da lediglich Universitäten und außeruniversitäre Forschungsinstitute dieser Spitzengruppe zugehören. Eine Zusammenfassung der Publikationen der Institute unter ihrer Dachorganisation zeigt, dass die Institute der Max-Planck-Gesellschaft und der Helmholtz-Gemeinschaft maßgeblich zur Produktion wissenschaftlichen Wissens in Deutschland beitragen. Sie übertreffen zusammengezählt die Publikationstätigkeit einzelner Universitäten bei weitem (siehe Tabelle 5, S. 259f). Eine Einzelauswertung der Institute zeigt aber auch, dass sie allgemein genommen, aufgrund ihrer Größe und der Anzahl der Wissenschaftler, nicht mit den Universitäten konkurrieren können. Zudem gehört die hybride Organisation, die Charité – Universitätsmedizin Berlin zu den führenden zehn Wissenschaftsproduzenten im deutschen Hochschul- und Wissenschaftssystem. Nationale und internationale Kooperationen wissenschaftlicher Forschung Im letzten empirischen Kapitel der Arbeit wird auf der Makroebene die Frage beantwortet, welchen Einfluss die zunehmende Internationalisierung der Forschung auf nationale und internationale Kooperationen in Form von Publikationen in wissenschaftlichen Zeitschriften hat. Durch die voranschreitende Globalisierung und Internationalisierung haben nationale und internationale Kooperationen stark zugenommen. Zu den wichtigsten Gründen für (internationale) Kooperationen in den Mathematik, Ingenieur-, Natur- und Technikwissenschaften sowie der Medizin zählen unter anderen die Reputation der Forschungsorganisation und der Mitautoren, eine höhere Sichtbarkeit innerhalb der wissenschaftlichen Gemeinschaft, mehr Möglichkeiten für interdisziplinäre Forschung oder auch eine bessere Ausstattung der Labore. Heute sind bereits ein Drittel aller Forschungsartikel weltweit das Ergebnis wissenschaftlicher Kooperationen und lediglich ein Viertel wird von einem Autoren verfasst. Übertragen auf die Organisation der Forschung bedeutet der von Humboldt geprägte Leitsatz "in Einsamkeit und Freiheit", dass wissenschaftliche Forschung nicht mehr in alleiniger Verantwortung eines Wissenschaftlers durchgeführt wird, sondern das Ergebnis von Kooperationen ist. Netzwerke werden immer wichtiger, um gemeinsame Interessen zu teilen, an einer Fragestellung zu arbeiten sowie die aus der Forschung gewonnenen Erkenntnisse gemeinsam zu publizieren. Wissenschaftler, Organisationen und Länder unterscheiden sich dahingehend, wie sie ihre Forschung organisieren und folglich auch darin, wie sie ihre wissenschaftliche Zusammenarbeit gestalten. Diese Wege sind abhängig von der geografischen Lage und Größe des Hochschul- und Wissenschaftssystems, dem organisationalen Feld und den Einzelorganisationen. In dieser Arbeit werden unterschiedliche Muster wissenschaftlicher Zusammenarbeit präsentiert. Die Ergebnisse zeigen einen massiven Anstieg wissenschaftlicher Kooperationen in Form von gemeinsamen Publikationen im Zeitverlauf. Bis in die 1990er Jahre hinein publizierten die Wissenschaftler in den hier untersuchten Länder (Frankreich, Deutschland, Großbritannien, USA, Japan, China, Belgien und Luxemburg) hauptsächlich in Alleinautorenschaft. Erst danach kam es zu einem Anstieg an Kooperationen: Im Jahr 2000 wurden lediglich 37 Prozent aller Artikel von einem Autor verfasst. Im Jahr 2010 erreichte der Anteil einen Tiefststand von lediglich einem Fünftel Alleinautorenschaften (siehe Tabelle 6, S. 279f). Allerdings unterschieden sich die Länder hinsichtlich ihres Anteils an Ko-Autorenschaften zum Teil deutlich voneinander. Literatur Powell, J. J. W. & Dusdal, J. (2016). Europe's Center of Science: Science Productivity in Belgium, France, Germany, and Luxembourg. EuropeNow, 1(1). http://www.europenowjournal.org/2016/11/30/europes-center-of-science-science-productivity-in-belgium-france-germany-and-luxembourg/. Zugriff: 13.12.2016. Powell, J. J. W. & Dusdal, J. (2017a): Measuring Research Organizations' Contributions to Science Productivity in Science, Technology, Engineering and Math in Germany, France, Belgium, and Luxembourg. Minerva, (). Online first. DOI:10.1007/s11024-017-9327-z. Powell, J. J. W. & Dusdal, J. (2017b im Druck). The European Center of Science Productivity: Research Universities and Institutes in France, Germany, and the United Kingdom. IN Powell, J. J. W., Baker, D. P. & Fernandez, F. (Hg.) The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing. Powell, J. J. W., Baker, D. P. & Fernandez, F. (2017, im Druck). The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing. Powell, J. J. W., Fernandez, F., Crist, J. T., Dusdal, J., Zhang, L. & Baker, D. P. (2017, im Druck). The Worldwide Triumph of the Research University and Globalizing Science. IN Powell, J. W., Baker, D. P. & Fernandez, F. (Hg.) The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing.