International audience ; Das Universelle Forum der Kulturen in Barcelona im Jahr 2004 ist eine neue kulturelle Veranstaltung, die in den kommenden Jahren auf anderen Kontinenten erneuert wird. Diese globale Feier wird gemeinsam von der Stadt Barcelona, der autonomen Regierung Kataloniens, der spanischen Regierung und der UNESCO organisiert. Während der 29. Generalkonferenz der Unesco in Paris haben die 186 Mitgliedstaaten ihre einstimmige Unterstützung für das Projekt dieses riesigen Festivals vor einem kulturellen Hintergrund in einem Bezirk zum Ausdruck gebracht, in dem eine der wichtigsten Operationen stattfindet. wichtigste Stadtplanung in Europa, die Ufer des Besós und das Ende der Diagonale (eine große Stadtstraße, die ein Jahrhundert zuvor vom Ingenieur Cerdá geplant wurde). Das Forum fand vom 9. Mai bis 26. September 2004 statt. 141 Tage lang finden außerhalb dieser Mauern Debatten, Shows, Festivals, Ausstellungen, kulturelle Veranstaltungen und Bildungsaktivitäten in einem kostenpflichtigen Bereich statt, einschließlich zu nachhaltiger Entwicklung, kultureller Vielfalt und den Bedingungen für den Frieden. Die Gemeinde Barcelona wollte das Forum für die Stadt öffnen. Dennoch besteht noch lange nach dem Ereignis eine Lücke zwischen langfristigen städtebaulichen Errungenschaften und den Worten einer globalen Feier für eine Stadt auf der Suche nach Globalität und weltweiter Anerkennung, die unter dem Vorwand der Feier und der Begegnung von Kulturen und Kulturen spielt Institutionen auf der ganzen Welt. ; The Universal Forum of Cultures Barcelona 2004 is a new cultural event called to renew in the coming years on other continents. This global celebration is organized by the City of Barcelona, the Autonomous Government of Catalonia, the Spanish Government and UNESCO. It is on the occasion of the 29th General Conference of UNESCO in Paris that the 186 Member States expressed their unanimous support for the draft this giant party on a cultural background on an area that has one of the operations largest urban development in Europe, the banks of the Besós and the end of the Diagonal (large urban avenue projected a century earlier by the engineer Cerdá). The Forum was held from 9 May to 26 September 2004. During 141 days, he welcomes a paid speaker and outside the walls of the debates, performances, festivals, exhibitions, cultural events and educational activities relating in particular on sustainable development, cultural diversity and conditions for peace. The Barcelona municipality's goal was to open the forum in the city. Nevertheless, a gap persists well after the event between the urban achievements in the long term and about a global celebration for a city in search of global and worldwide recognition playing on the pretext of the festival and the meeting of cultures and institutional worldwide. ; El Foro Universal de las Culturas de Barcelona en 2004 es un nuevo evento cultural que se renovará en los próximos años en otros continentes. Esta celebración global está organizada conjuntamente por el Ayuntamiento de Barcelona, la Generalitat de Catalunya, el Gobierno español y la UNESCO. Fue durante la 29ª Conferencia General de la Unesco en París cuando los 186 Estados Miembros expresaron su apoyo unánime al proyecto de este gigantesco festival en un contexto cultural en un distrito que vive una de las operaciones más importantes. El urbanismo más importante de Europa, la ribera del Besós y el final de la Diagonal (gran avenida urbana proyectada un siglo antes por el ingeniero Cerdá). El Foro se llevó a cabo del 9 de mayo al 26 de septiembre de 2004. Durante 141 días, alberga debates, espectáculos, festivales, exposiciones, eventos culturales y actividades educativas en un área de pago y fuera de estos muros. sobre el desarrollo sostenible, la diversidad cultural y las condiciones para la paz. El Ayuntamiento de Barcelona pretendía abrir el Fórum a la ciudad. Sin embargo, mucho después del evento persiste una brecha entre los logros de planificación urbana a largo plazo y las palabras de una celebración global para una ciudad en busca de la globalidad y el reconocimiento global que juega con el pretexto de la celebración y el encuentro de culturas y culturas. instituciones de todo el mundo. ; Le Forum universel des cultures de Barcelone en 2004 est une nouvelle manifestation culturelle appelée à se renouveler dans les années à venir sur d'autres continents. Cette fête globale est organisée conjointement par la Ville de Barcelone, le gouvernement autonome de Catalogne, le gouvernement espagnol et l'UNESCO. C'est à l'occasion de la 29 ème conférence générale de l'Unesco à Paris que les 186 États membres ont exprimé leur soutien unanime au projet de cette fête géante sur un fond culturel sur un quartier qui connaît l'une des opérations les plus importantes d'aménagement urbain en Europe, les rives du Besós et la fin de la Diagonal (grande avenue urbaine projetée un siècle plus tôt par l'ingénieur Cerdá). Le Forum s'est tenu du 9 mai au 26 septembre 2004. Pendant 141 jours, il accueille dans une enceinte payante et hors de ces murs des débats, des spectacles, des festivals, des expositions, des manifestations culturelles et des activités pédagogiques portant notamment sur le développement durable, la diversité culturelle et les conditions de la paix. La municipalité barcelonaise avait comme objectif d'ouvrir le Forum à la ville. Néanmoins, un décalage persiste bien après la manifestation entre les réalisations urbanistiques à long terme et les propos d'une fête globale pour une ville en quête de globalité et de reconnaissance mondiale jouant sur le prétexte de la fête et de la rencontre des cultures et des institutionnels du monde entier. ; Il Forum Universale delle Culture di Barcellona nel 2004 è un nuovo evento culturale che si rinnoverà negli anni a venire in altri continenti. Questa celebrazione globale è organizzata congiuntamente dalla Città di Barcellona, dal governo autonomo della Catalogna, dal governo spagnolo e dall'UNESCO. È stato durante la 29a Conferenza generale dell'Unesco a Parigi che i 186 Stati membri hanno espresso il loro unanime sostegno al progetto di questo gigantesco festival a sfondo culturale in un quartiere che sta vivendo una delle operazioni più importanti. l'urbanistica più importante d'Europa, le rive del Besós e la fine della Diagonal (un grande viale urbano progettato un secolo prima dall'ingegnere Cerdá). Il Forum si è svolto dal 9 maggio al 26 settembre 2004. Per 141 giorni ospita dibattiti, spettacoli, sagre, mostre, eventi culturali e attività didattiche in un'area a pagamento e fuori queste mura. sullo sviluppo sostenibile, la diversità culturale e le condizioni per la pace. Il comune di Barcellona mirava ad aprire il Forum alla città. Tuttavia, a lungo dopo l'evento permane un divario tra i risultati della pianificazione urbana a lungo termine e le parole di una celebrazione globale per una città alla ricerca della globalità e del riconoscimento globale che giocano con il pretesto della celebrazione e dell'incontro di culture e culture. istituzioni in tutto il mondo.
International audience ; Das Universelle Forum der Kulturen in Barcelona im Jahr 2004 ist eine neue kulturelle Veranstaltung, die in den kommenden Jahren auf anderen Kontinenten erneuert wird. Diese globale Feier wird gemeinsam von der Stadt Barcelona, der autonomen Regierung Kataloniens, der spanischen Regierung und der UNESCO organisiert. Während der 29. Generalkonferenz der Unesco in Paris haben die 186 Mitgliedstaaten ihre einstimmige Unterstützung für das Projekt dieses riesigen Festivals vor einem kulturellen Hintergrund in einem Bezirk zum Ausdruck gebracht, in dem eine der wichtigsten Operationen stattfindet. wichtigste Stadtplanung in Europa, die Ufer des Besós und das Ende der Diagonale (eine große Stadtstraße, die ein Jahrhundert zuvor vom Ingenieur Cerdá geplant wurde). Das Forum fand vom 9. Mai bis 26. September 2004 statt. 141 Tage lang finden außerhalb dieser Mauern Debatten, Shows, Festivals, Ausstellungen, kulturelle Veranstaltungen und Bildungsaktivitäten in einem kostenpflichtigen Bereich statt, einschließlich zu nachhaltiger Entwicklung, kultureller Vielfalt und den Bedingungen für den Frieden. Die Gemeinde Barcelona wollte das Forum für die Stadt öffnen. Dennoch besteht noch lange nach dem Ereignis eine Lücke zwischen langfristigen städtebaulichen Errungenschaften und den Worten einer globalen Feier für eine Stadt auf der Suche nach Globalität und weltweiter Anerkennung, die unter dem Vorwand der Feier und der Begegnung von Kulturen und Kulturen spielt Institutionen auf der ganzen Welt. ; The Universal Forum of Cultures Barcelona 2004 is a new cultural event called to renew in the coming years on other continents. This global celebration is organized by the City of Barcelona, the Autonomous Government of Catalonia, the Spanish Government and UNESCO. It is on the occasion of the 29th General Conference of UNESCO in Paris that the 186 Member States expressed their unanimous support for the draft this giant party on a cultural background on an area that has one of the operations largest urban development in Europe, the banks of the Besós and the end of the Diagonal (large urban avenue projected a century earlier by the engineer Cerdá). The Forum was held from 9 May to 26 September 2004. During 141 days, he welcomes a paid speaker and outside the walls of the debates, performances, festivals, exhibitions, cultural events and educational activities relating in particular on sustainable development, cultural diversity and conditions for peace. The Barcelona municipality's goal was to open the forum in the city. Nevertheless, a gap persists well after the event between the urban achievements in the long term and about a global celebration for a city in search of global and worldwide recognition playing on the pretext of the festival and the meeting of cultures and institutional worldwide. ; El Foro Universal de las Culturas de Barcelona en 2004 es un nuevo evento cultural que se renovará en los próximos años en otros continentes. Esta celebración global está organizada conjuntamente por el Ayuntamiento de Barcelona, la Generalitat de Catalunya, el Gobierno español y la UNESCO. Fue durante la 29ª Conferencia General de la Unesco en París cuando los 186 Estados Miembros expresaron su apoyo unánime al proyecto de este gigantesco festival en un contexto cultural en un distrito que vive una de las operaciones más importantes. El urbanismo más importante de Europa, la ribera del Besós y el final de la Diagonal (gran avenida urbana proyectada un siglo antes por el ingeniero Cerdá). El Foro se llevó a cabo del 9 de mayo al 26 de septiembre de 2004. Durante 141 días, alberga debates, espectáculos, festivales, exposiciones, eventos culturales y actividades educativas en un área de pago y fuera de estos muros. sobre el desarrollo sostenible, la diversidad cultural y las condiciones para la paz. El Ayuntamiento de Barcelona pretendía abrir el Fórum a la ciudad. Sin embargo, mucho después del evento persiste una brecha entre los logros de planificación urbana a largo plazo y las palabras de una celebración global para una ciudad en busca de la globalidad y el reconocimiento global que juega con el pretexto de la celebración y el encuentro de culturas y culturas. instituciones de todo el mundo. ; Le Forum universel des cultures de Barcelone en 2004 est une nouvelle manifestation culturelle appelée à se renouveler dans les années à venir sur d'autres continents. Cette fête globale est organisée conjointement par la Ville de Barcelone, le gouvernement autonome de Catalogne, le gouvernement espagnol et l'UNESCO. C'est à l'occasion de la 29 ème conférence générale de l'Unesco à Paris que les 186 États membres ont exprimé leur soutien unanime au projet de cette fête géante sur un fond culturel sur un quartier qui connaît l'une des opérations les plus importantes d'aménagement urbain en Europe, les rives du Besós et la fin de la Diagonal (grande avenue urbaine projetée un siècle plus tôt par l'ingénieur Cerdá). Le Forum s'est tenu du 9 mai au 26 septembre 2004. Pendant 141 jours, il accueille dans une enceinte payante et hors de ces murs des débats, des spectacles, des festivals, des expositions, des manifestations culturelles et des activités pédagogiques portant notamment sur le développement durable, la diversité culturelle et les conditions de la paix. La municipalité barcelonaise avait comme objectif d'ouvrir le Forum à la ville. Néanmoins, un décalage persiste bien après la manifestation entre les réalisations urbanistiques à long terme et les propos d'une fête globale pour une ville en quête de globalité et de reconnaissance mondiale jouant sur le prétexte de la fête et de la rencontre des cultures et des institutionnels du monde entier. ; Il Forum Universale delle Culture di Barcellona nel 2004 è un nuovo evento culturale che si rinnoverà negli anni a venire in altri continenti. Questa celebrazione globale è organizzata congiuntamente dalla Città di Barcellona, dal governo autonomo della Catalogna, dal governo spagnolo e dall'UNESCO. È stato durante la 29a Conferenza generale dell'Unesco a Parigi che i 186 Stati membri hanno espresso il loro unanime sostegno al progetto di questo gigantesco festival a sfondo culturale in un quartiere che sta vivendo una delle operazioni più importanti. l'urbanistica più importante d'Europa, le rive del Besós e la fine della Diagonal (un grande viale urbano progettato un secolo prima dall'ingegnere Cerdá). Il Forum si è svolto dal 9 maggio al 26 settembre 2004. Per 141 giorni ospita dibattiti, spettacoli, sagre, mostre, eventi culturali e attività didattiche in un'area a pagamento e fuori queste mura. sullo sviluppo sostenibile, la diversità culturale e le condizioni per la pace. Il comune di Barcellona mirava ad aprire il Forum alla città. Tuttavia, a lungo dopo l'evento permane un divario tra i risultati della pianificazione urbana a lungo termine e le parole di una celebrazione globale per una città alla ricerca della globalità e del riconoscimento globale che giocano con il pretesto della celebrazione e dell'incontro di culture e culture. istituzioni in tutto il mondo.
Die Stadtentwicklungspolitik in Deutschland formuliert aufgrund veränderter Rahmenbedingungen wie dem demografischen Wandel, der Globalisierung der Wirtschaftsbeziehungen oder auch veränderter öffentlicher Finanzen, die normative Idee, Stadtquartiere durch eine intensivere Beteiligung privater Akteure zu entwickeln. Bisherige Versuche der Städtebauförderung die Einbindung privater Kleineigentümer in quartiersbezogene Handlungsansätze zu stimulieren zeigen, dass dies bislang nur unzureichend gelingt. Auf rationalen Handlungslogiken basierende Theorien sprechen im Zusammenhang der privaten Erstellung öffentlicher Güter sogar von "Marktversagen". Und trotzdem existieren bereits erste Eigentümerstandortgemeinschaften (ESG) in Deutschland. Was ermöglichte dieses private Engagement? Angesichts fehlender empirischer Daten über freiwilliges kollektives Handeln privater Eigentümer in der Quartiers-entwicklung, geht die vorliegende Dissertation der Frage nach, welche Faktoren die Entstehung von ESG bestimmen und die institutionelle Struktur von ESG charakterisieren. Zur Beantwortung der Forschungsfrage wurde ein vergleichendes Fallstudiendesign mit ESG in Dortmund, Essen und Görlitz gewählt. Die Ergebnisse der Dissertation verdeutlichen, dass ESG als abhängige Variable sowohl durch die individuellen Interessen bzw. Handlungsstrategien der Immobilieneigentümer bei der Bewirtschaftung ihrer Immobilien, als auch durch den Steuerungsanspruch staatlicher Akteure in der Quartiersentwicklung bestimmt werden. Die Autorin leitet die individuellen und kollektiven Handlungsstrategien der Akteure her und setzt sich mit der individuellen Motivation zum Handeln auseinander. Zusätzlich werden grundlegende institutionelle Merkmale von ESG und ihre Eigenheit als Urban Governance-Ansatz diskutiert. Aus den als Hypothesen formulierten Ergebnissen werden abschließend Schlussfolgerungen für die Praxis sowie der weitere Forschungsbedarf abgeleitet.:A Einleitung.23 1 Hintergrund und Problemstellung.25 1.1 Städte im Wandel der Zeit.25 1.2 Die Städtebauförderung im Wandel der Zeit.33 2 Gegenstand und Zielstellung der Untersuchung.37 2.1 Gegenstand der Untersuchung.37 2.2 Ziel und Fragestellung der Untersuchung.42 3 Aufbau der Arbeit.45 4 Grenzen der Arbeit.49 B Kollektives Handeln – theoretische Einordnung der zentralen Problematik.51 1 Über die individuelle Herausforderung, kollektiv zu handeln.53 1.1 Zum Charakter des Kollektivgutes.54 1.2 Kollektives Handeln als rationales Handeln.56 1.3 Kollektives Handeln als soziales Handeln.60 1.4 Zwischenfazit.65 2 Über die Befähigung zum kollektiven Handeln mittels Institutionen.67 2.1 Verwendung des Begriffs und Entstehung von Institutionen.67 2.2 Einflussfaktoren bei der Entstehung von Institutionen.72 2.3 Typen von Institutionen und ihre Interaktionsformen.78 2.4 Charakter von Institutionen und ihre Wirkungen.84 2.5 Zwischenfazit.87 3 Kollektives Handeln als Koordinations- und Kooperationsaufgabe des Staates.91 3.1 Das Verhältnis zwischen staatlichen und privaten Akteuren.91 3.2 Von Planung über Steuerung zu Governance.94 3.3 Wandel im Planungsverständnis in der Stadtentwicklung.101 3.4 Zwischenfazit.108 C Herangehensweise und Methodik .111 1 Wahl des Forschungsdesigns.113 2 Auswahl und Erhebung der Daten.117 2.1 Auswahl der Fallstudien .117 2.2 Auswahl der Interviewpartner .121 2.3 Erhebung der Daten.124 2.4 Wahl der Interviewart und Durchführung der Interviews.126 3 Auswertung der Daten.129 3.1 Erkenntnistheoretische Grundannahmen.129 3.2 Prozess der Analyse.130 3.3 Generierungen der Hypothesen.135 D Einführung in Eigentümerstandortgemeinschaften (ESG) in Deutschland und die Fallstudien .137 1 Eigentümerstandortgemeinschaften in Deutschland.139 1.1 Anlass für Eigentümerstandortgemeinschaften in Deutschland.139 1.2 Entwicklungsstand von ESG in Deutschland .140 1.3 ESG als Regelungstatbestand der Bundesgesetzgebung.143 1.4 ESG als ExWoSt-Forschungsfeld.145 2 Fallstudie ESG Brunnenstraßenviertel in Dortmund .149 2.1 Strukturdaten der Stadt Dortmund.149 2.2 Strukturdaten des ESG-Standortes.151 2.3 Entstehung, Akteure und Inhalte der ESG.155 2.4 Handlungsmotive und -strategien der Beteiligten.157 2.5 Institutionelle Merkmale der ESG.161 3 Fallstudie ESG Vogelheim in Essen .163 3.1 Strukturdaten der Stadt Essen.163 3.2 Strukturdaten des ESG-Standortes.167 3.3 Entstehung, Akteure und Inhalte der ESG.169 3.4 Handlungsmotive und -strategien der Beteiligten.170 3.5 Institutionelle Merkmale der ESG.172 4 Fallstudie ESG Gründerzeitquartier in Görlitz .175 4.1 Strukturdaten der Stadt Görlitz.175 4.2 Strukturdaten des ESG-Standortes.180 4.3 Entstehung, Akteure und Inhalte der ESG.184 4.4 Handlungsmotive und -strategien der Beteiligten.186 4.5 Institutionelle Merkmale der ESG.188 E Vergleichende Analyse der Daten und Generierung übergreifender Aussagen zu ESG….191 1 Zwischen Idealisten und Rationalisten: Akteursgruppen und Rollenbilder.193 1.1 Die Akteursgruppen in ESG.193 1.2 Rollenbilder der Akteure und ihre Rolle in der ESG.199 2 Zwischen öffentlich und privat: Themen und Projekte der ESG.205 2.1 Zur Wahrnehmung der Handlungssituation .205 2.2 Projekte der ESG.209 3 Investition versus Exit: Handlungsstrategien der Akteure.215 3.1 Handlungsoptionen der Eigentümer bzgl. der Immobilie.215 3.2 Handlungsoptionen der Eigentümer bzgl. der ESG.222 3.3 Handlungsoptionen der öffentlichen Hand.226 3.4 Zusammenspiel und Pfadabhängigkeit in der Strategiewahl .229 4 Zwischen Unsicherheit und Sicherung: Motivation der Immobilieneigentümer.239 4.1 Reduzierung von Unsicherheit als übergeordnetes Motiv.240 4.2 Steigerung von Macht und Einfluss durch ESG.243 4.3 Monetäre Vorteile durch ESG.246 4.4 Lösung eines Sachproblems durch ESG.249 4.5 Der Einfluss von Kontextbedingungen auf die Entstehung von ESG.251 5 Hemmnisse und Erfolgsfaktoren im Entstehungsprozess.257 5.1 Hemmnisse für die Entstehung einer ESG.257 5.2 Erfolgsfaktoren für die Gründung einer ESG.263 6 Zwischen strategischem Netzwerk und Gemeinschaftsorganisation: institutionelle Ausprägung bei ESG.271 6.1 Die Generierung von Nutzen durch ESG.271 6.2 Mit der Institution ESG verbundene Kosten.273 6.3 Normen und Diskontierungsraten der Akteure.279 7 Zwischen Anreiz und Zwang: Urban Governance und die Rolle des Staates.283 7.1 Zwischen Anreiz und Zwang: Steuerungsansätze in ESG.283 7.2 Urban Governance: Zur Rolle der öffentlichen Hand in ESG.289 F Diskussion der Hypothesen und Schlussfolgerungen .293 1 Diskussion der Hypothesen zu den Forschungsfragen.295 1.1 Beteiligte und Themen von ESG.296 1.2 Handlungsmotive und -strategien der Beteiligten.301 1.3 Erfolgsfaktoren und Hemmnisse im ESG-Entstehungsprozess.307 1.4 Institutionelle Merkmale von ESG.310 1.5 ESG als Governance in der Stadtentwicklung.314 1.6 Fazit zur Leitfrage.319 2 Schlussfolgerungen und weiterer Forschungsbedarf .323 2.1 Schlussfolgerungen für die Praxis.323 2.2 Weiterer Forschungsbedarf.330 G Verzeichnisse.335 1 Quellen.337 1.1 Literatur.337 1.2 Internet.357 1.3 Interviewpartner.358 2 Abkürzungsverzeichnis.365 3 Abbildungsverzeichnis.367 4 Tabellenverzeichnis.369 ; This PhD thesis deals with a concept of urban development which is at present in a pilot phase in Germany, the Local Property Owner Partnership (LoPOP). These are characterized by a voluntary collective development of the quarter at the initiative of the property owners. The demographic, economic and social structures lead to spatially differentiated changes which induce complex problems in urban development. Among others, this may result in a notable increase of vacant flats, an increasing demand for low-barrier flats or in investment backlogs of the public infrastructure. A large part of the up-coming investment tasks concerns private property and requires action by private property owners, e.g. in the development of living space. Attempts to activate proprietors via urban development funding have shown minor success up to now. Current urban development policy formulates the idea to reach a positive development of structurally weak quarters by a more intensified participation of private actors in collective approaches. In view of the missing of empirical data on voluntary action by private proprietors in the urban development, the PhD thesis investigates which factors determine the establishment of Local Property Owner Partnerships and characterize their institutional structure. Due to the small number of existing LoPOPs in Germany as well as to the limited number of scientific publications dealing with this subject, a comparative case study design was chosen. Fifty-six partially structured interviews were held in three heterogeneously distinctive LoPOPs in Dortmund, Essen and Görlitz. The transcribed interview data were processed by means of reconstructive content analyses and the results were formulated as hypotheses. The results of the thesis show that the subject of examination, LoPOPs, can be discussed with respect to actor-related and institutional theories as well as governance approaches. LoPOPs are defined as a dependent variable with respect to the individual interests and strategies of action of the property owners concerning their real estate management as well as to the governance requirements of state actors concerning the development of the quarter. Thereby, it has become apparent that one should make a distinction between the strategies of action of the state and the private actors. Both groups show three basic types of action strategies which have constructional and social as well as structural impacts on the quarter. The individual strategies of action of the proprietors are invest, wait and exit. With regard to the quarter, the municipal actors have the strategies develop, wait or retract at their disposal. Moreover, the data analyses discovered a path dependency between the individual management strategies of the proprietors and their action in the collective situation. The actors who are focusing on wait or on exit play the role of free riders. With regard to the proprietors who are willing to invest, three collective strategies of action may be noted: wait, individual effort and cooperation. As a central motive for choosing the collective strategy of action cooperation and, thus for commitment to participating in the LoPOP, the reduction of uncertainty could be identified. According to this, the preparedness for cooperation depends on the intensity of uncertainty in the management of the property and, thus, also on the degree of being affected by the above mentioned structural change. Whether the LoPOP is a suitable tool for the elimination of this uncertainty is closely connected with its institutional structure. LoPOPs are - taking into account the specific constellation of actors - characterized by high transaction costs, due to the low legal and social possibilities for sanctions. Therefore, a clear value of the projects and the common standards of the actors are all the more necessary for success. LoPOPs deal with the development of quarters and produce, as a private initiative, also public goods. This establishes the public interest in their development. The results of the thesis show that, due to the constellation of actors, interests and themes in voluntary LoPOPs, the state actors concentrate on the interaction form of the horizontal coordination. Therefore, LoPOPs can be referred to as a form of Urban Governance. Moreover, it becomes obvious that, when the mission statement of a voluntary, informal and private network of small proprietors shall be realised, on the one hand free riders cannot be avoided, on the other hand the public authorities are indispensable providing consulting and financial support. In comparison with traditional approaches of urban development funding, LoPOPs, as collective development approaches, need an intensive involvement of local actors in addition to the thematic debate during their preparation. The thesis terminates with conclusions for practice as well as needs for further research drawn from the generated hypotheses. The needs for further research refer inter alia to the evaluation of effects of the LoPOPs; the analysis of learning processes among the groups of actors in the development process and in the verification of the generated hypotheses in this work.:A Einleitung.23 1 Hintergrund und Problemstellung.25 1.1 Städte im Wandel der Zeit.25 1.2 Die Städtebauförderung im Wandel der Zeit.33 2 Gegenstand und Zielstellung der Untersuchung.37 2.1 Gegenstand der Untersuchung.37 2.2 Ziel und Fragestellung der Untersuchung.42 3 Aufbau der Arbeit.45 4 Grenzen der Arbeit.49 B Kollektives Handeln – theoretische Einordnung der zentralen Problematik.51 1 Über die individuelle Herausforderung, kollektiv zu handeln.53 1.1 Zum Charakter des Kollektivgutes.54 1.2 Kollektives Handeln als rationales Handeln.56 1.3 Kollektives Handeln als soziales Handeln.60 1.4 Zwischenfazit.65 2 Über die Befähigung zum kollektiven Handeln mittels Institutionen.67 2.1 Verwendung des Begriffs und Entstehung von Institutionen.67 2.2 Einflussfaktoren bei der Entstehung von Institutionen.72 2.3 Typen von Institutionen und ihre Interaktionsformen.78 2.4 Charakter von Institutionen und ihre Wirkungen.84 2.5 Zwischenfazit.87 3 Kollektives Handeln als Koordinations- und Kooperationsaufgabe des Staates.91 3.1 Das Verhältnis zwischen staatlichen und privaten Akteuren.91 3.2 Von Planung über Steuerung zu Governance.94 3.3 Wandel im Planungsverständnis in der Stadtentwicklung.101 3.4 Zwischenfazit.108 C Herangehensweise und Methodik .111 1 Wahl des Forschungsdesigns.113 2 Auswahl und Erhebung der Daten.117 2.1 Auswahl der Fallstudien .117 2.2 Auswahl der Interviewpartner .121 2.3 Erhebung der Daten.124 2.4 Wahl der Interviewart und Durchführung der Interviews.126 3 Auswertung der Daten.129 3.1 Erkenntnistheoretische Grundannahmen.129 3.2 Prozess der Analyse.130 3.3 Generierungen der Hypothesen.135 D Einführung in Eigentümerstandortgemeinschaften (ESG) in Deutschland und die Fallstudien .137 1 Eigentümerstandortgemeinschaften in Deutschland.139 1.1 Anlass für Eigentümerstandortgemeinschaften in Deutschland.139 1.2 Entwicklungsstand von ESG in Deutschland .140 1.3 ESG als Regelungstatbestand der Bundesgesetzgebung.143 1.4 ESG als ExWoSt-Forschungsfeld.145 2 Fallstudie ESG Brunnenstraßenviertel in Dortmund .149 2.1 Strukturdaten der Stadt Dortmund.149 2.2 Strukturdaten des ESG-Standortes.151 2.3 Entstehung, Akteure und Inhalte der ESG.155 2.4 Handlungsmotive und -strategien der Beteiligten.157 2.5 Institutionelle Merkmale der ESG.161 3 Fallstudie ESG Vogelheim in Essen .163 3.1 Strukturdaten der Stadt Essen.163 3.2 Strukturdaten des ESG-Standortes.167 3.3 Entstehung, Akteure und Inhalte der ESG.169 3.4 Handlungsmotive und -strategien der Beteiligten.170 3.5 Institutionelle Merkmale der ESG.172 4 Fallstudie ESG Gründerzeitquartier in Görlitz .175 4.1 Strukturdaten der Stadt Görlitz.175 4.2 Strukturdaten des ESG-Standortes.180 4.3 Entstehung, Akteure und Inhalte der ESG.184 4.4 Handlungsmotive und -strategien der Beteiligten.186 4.5 Institutionelle Merkmale der ESG.188 E Vergleichende Analyse der Daten und Generierung übergreifender Aussagen zu ESG….191 1 Zwischen Idealisten und Rationalisten: Akteursgruppen und Rollenbilder.193 1.1 Die Akteursgruppen in ESG.193 1.2 Rollenbilder der Akteure und ihre Rolle in der ESG.199 2 Zwischen öffentlich und privat: Themen und Projekte der ESG.205 2.1 Zur Wahrnehmung der Handlungssituation .205 2.2 Projekte der ESG.209 3 Investition versus Exit: Handlungsstrategien der Akteure.215 3.1 Handlungsoptionen der Eigentümer bzgl. der Immobilie.215 3.2 Handlungsoptionen der Eigentümer bzgl. der ESG.222 3.3 Handlungsoptionen der öffentlichen Hand.226 3.4 Zusammenspiel und Pfadabhängigkeit in der Strategiewahl .229 4 Zwischen Unsicherheit und Sicherung: Motivation der Immobilieneigentümer.239 4.1 Reduzierung von Unsicherheit als übergeordnetes Motiv.240 4.2 Steigerung von Macht und Einfluss durch ESG.243 4.3 Monetäre Vorteile durch ESG.246 4.4 Lösung eines Sachproblems durch ESG.249 4.5 Der Einfluss von Kontextbedingungen auf die Entstehung von ESG.251 5 Hemmnisse und Erfolgsfaktoren im Entstehungsprozess.257 5.1 Hemmnisse für die Entstehung einer ESG.257 5.2 Erfolgsfaktoren für die Gründung einer ESG.263 6 Zwischen strategischem Netzwerk und Gemeinschaftsorganisation: institutionelle Ausprägung bei ESG.271 6.1 Die Generierung von Nutzen durch ESG.271 6.2 Mit der Institution ESG verbundene Kosten.273 6.3 Normen und Diskontierungsraten der Akteure.279 7 Zwischen Anreiz und Zwang: Urban Governance und die Rolle des Staates.283 7.1 Zwischen Anreiz und Zwang: Steuerungsansätze in ESG.283 7.2 Urban Governance: Zur Rolle der öffentlichen Hand in ESG.289 F Diskussion der Hypothesen und Schlussfolgerungen .293 1 Diskussion der Hypothesen zu den Forschungsfragen.295 1.1 Beteiligte und Themen von ESG.296 1.2 Handlungsmotive und -strategien der Beteiligten.301 1.3 Erfolgsfaktoren und Hemmnisse im ESG-Entstehungsprozess.307 1.4 Institutionelle Merkmale von ESG.310 1.5 ESG als Governance in der Stadtentwicklung.314 1.6 Fazit zur Leitfrage.319 2 Schlussfolgerungen und weiterer Forschungsbedarf .323 2.1 Schlussfolgerungen für die Praxis.323 2.2 Weiterer Forschungsbedarf.330 G Verzeichnisse.335 1 Quellen.337 1.1 Literatur.337 1.2 Internet.357 1.3 Interviewpartner.358 2 Abkürzungsverzeichnis.365 3 Abbildungsverzeichnis.367 4 Tabellenverzeichnis.369
Demonstrating, representing, or showing is at the heart of every educational action. Historical representations on screen and stage do not "teach" us history but rather influence our ideas and interpretations of it. The contributions to this volume explore the depiction of history in theater and film from the intersection of historical scholarship, aesthetics, memory studies, and education. They examine the creation of historical images, film production and reception, the scriptwriting process, educational programming, and depictions of German-American encounters. Above all else, they explore how various theatrical and filmic productions show history rather than tell it. (DIPF/Orig.)
Die Themen 'Alter', 'Bildung', 'Zivilgesellschaft' sind jeweils zentrale Themen des wissen-schaftlichen und politischen Diskurses. Dies trifft für die Altenbildung und für ihr Verhältnis zur Zivilgesellschaft nicht oder nur sehr bedingt zu. Entsprechend hat die Wissenschaft der Altersbildung, die Geragogik, sich noch nicht zu einer eigenen allgemein anerkannten Wis-senschaftsdisziplin etabliert. Allerdings setzt sich zunehmend die Erkenntnis durch, dass Bil-dung im Alter eine Investition ist, die positive psychische, soziale und ökonomische Effekte hat. Bildung ist darüber hinaus einer der wichtigsten Prädiktoren für zivilgesellschaftliches Engagement auch im Alter. Hinzu kommt, dass der Altersstrukturwandel zu ansteigenden (politischen) Aktivitäten von Senioren und zu einer Ausweitung des Berufsfeldes der Arbeit mit älteren Menschen führt. All diese sozialen Prozesse berühren Themen der Altenbildung. Allerdings findet dies kaum eine angemessene Entsprechung in Form der wissenschaftlich beglei-tenden Implementierung, Evaluation von Modellprojekten der Altenbildung, der beruflichen Fort- und Weiterbildung, der Entwicklung von Curricula etc. Aus diesem Grund ist die Gera-gogik wissenschaftshistorisch die adäquate Antwort auf den komplexer werdenden Alters-strukturwandel. So wie sich die soziale Gerontologie ebenfalls im Laufe der gesellschaftlichen Entwicklung des demographischen Wandels herausgebildet hat. Während die Altenbildung wenigstens in Ansätzen in unterschiedlichen Feldern vorhanden ist, so ist das Thema politische Weiterbildung mit älteren Gewerkschaftsmitgliedern ein Desi-derat. Bisherige Altenbildungsansätze bleiben oft auf die individuelle Bewältigung des Über-gangs vom Erwerbsleben zum 'Ruhestand' und der Erschließung individueller Aktivitäten begrenzt. In der vorliegenden Arbeit wird besonders die Frage untersucht, wie eine Altenbil-dung in Theorie und Praxis zu gestalten ist, damit sie sowohl die Identitätsentfaltung als auch gesellschaftspolitische Partizipationsprozesse fördert. Es existiert eine große Forschungslücke im Hinblick auf Bedingungen, Voraussetzungen und Chancen für eine gewerkschaftlich ausgerichtete Altenbildung, die emanzipatorische Po-tentiale im Alter freilegt. Daraus ergibt sich die zentrale Leithypothese dieser Arbeit: Syste-matisch organisierte lebensbe-gleitende Weiterbildung, die sich der Aufklärung verpflichtet fühlt, ist eine wesentliche Voraussetzung, im Alter ein mündiger Bürger zu sein und die Per-sönlichkeitsentfaltung zu stärken. Hieraus leiteten sich zunächst vier erkenntnisleitende Fragestellungen ab:1. Kann kritische Altenbildung einen Beitrag zur Demokratisierung der Gesellschaft leisten?2. Kann kritische Altenbildung einen Beitrag zur Stabilisierung der Per-sönlichkeit leisten?3. Welche praxeologischen Konklusionen ergeben sich aus der Analyse der empirischen Ergebnisse einer gewerkschaftlich orientierten Al-tenbildung am Beispiel der Bil-dungsstätte 'neues alter' in Hat-tingen? 4. Welche konzeptionellen Schlussfolgerungen sind für eine gewerkschaftlich orientierte kritische Altenbildung zu ziehen? Im Zuge des wissenschaftlichen Forschens stellte sich die dringliche Frage, wie Altenbil-dung und - umfassender - Geragogik nicht nur durch alterstheoretische Überlegungen fun-diert, sondern auch meta- bzw. wissenschaftstheoretisch begründet werden kann. Nach wie vor gibt es keine allgemeingültige Alterstheorie, denn Alter gilt als normativ und instrumen-tell unter-bestimmt. Von daher hat die Darlegung der wissenschaftstheoretischen Begründung und des eigenen theoretischen Standpunktes, von dem aus zusätzliche ergänzende Aspekte für eine moderne Alterstheorie entfaltet werden, einen größeren Stellenwert erhalten als ur-sprünglich geplant. Das Anliegen dieser Arbeit besteht dann auch darin, Geragogik stärker theoretisch aus kritischer Perspektive zu untermauern. Die Untersuchung gliedert sich in fünf Haupteile, sowie die Einleitung und den Schlussteil. Nach den einleitenden Ausführungen beschreibe ich im zweiten Teil auf der Phänomenebene die gesellschaftlichen Voraussetzungen einer kritischen Geragogik. Arbeiterbewegung und demographischer Wandel werden in den Kontext ge-sellschaftlicher Umbrüche gestellt, um von hieraus erste Konklusionen für eine kritische Ge-ragogik zu beschreiben.Zunächst verdeutliche ich die Schwierigkeiten der Soziologie bei der Suche nach den Struk-turmerkmalen einer Gesellschaft, die sich in einer epochalen Umbruchsituation befindet. Zwischen den Polen der Individualisierung und Globalisierung gelten alte Orientierungen nicht mehr, ohne dass sie aber bereits von neuen abgelöst wären. Nach neuen Antworten wird allerdings intensiv gesucht: Stichworte sind 'Risikogesellschaft', 'Erlebnisgesellschaft', 'Dienstleistungsgesellschaft', 'Bildungsgesellschaft' etc. Sicher ist, dass im Zuge des gesellschaftlichen Strukturwandels proletarische Milieus erodie-ren und damit weitreichende individuelle Unsicherheiten, aber auch Entfaltungspotentiale verbunden sind. Bildung wird dabei zentrale Ressource individueller und gesell-schaftlicher Entwicklung. In diesem Kontext wird auch über die Diffusion des gesellschaft-lichen Zusammenhalts diskutiert. Die 'Zivilgesellschaft' soll dem entgegenwirken. Eine An-nahme dabei ist, dass sich die Erwerbsarbeitsgesellschaft in die Tätigkeitsgesellschaft wan-delt. Relevant ist nicht mehr die Unterscheidung zwischen Arbeitszeit und Freizeit. Bedeut-sam ist eine neue Zeitstruktur. Danach befindet sich der Einzelne in den unterschiedlichen Zeitzonen der Erwerbszeit, Bildungszeit, Bürgerzeit, Familienzeit und Eigenzeit. Unabhängig von der Richtigkeit der dieser Vorstellung zugrunde liegenden Annahme, dass Vollbeschäfti-gung nicht mehr erreichbar ist, verbergen sich hinter der Debatte um die Bürgergesellschaft Ambivalenzen: Da sind zum einen durchaus Chancen im Sinne der Ausweitung demokra-tischer Beteiligung, der Wohlfahrtsökonomie und der Linderung von Arbeitslosigkeit. Zum anderen besteht aber die Gefahr des Missbrauchs, indem ehrenamtliches Engagement zum Auffangbecken für den Abbau sozialer Leistungen des Staates wird.Für die Arbeiterbewegung und ihre Organisationen sind mit diesem Wandel weitreichende Schwierigkeiten verbunden: Mit dem Wegbrechen der Montanindustrie verliert sie auch die industrielle Arbeiterschaft, die immer den Kern der Arbeiterbewegung bildete. Im Zuge der Individualisierung und der Technisierung der Arbeitswelt ändern sich kollektive Denk- und Handlungsmuster. Es steigen ebenso die Ansprüche an die eigene Organisationen im Hinblick auf Transparenz und Mitgestaltungs-möglichkeiten. Schließlich ist mit dem Scheitern der staatssozia-listischen Länder Osteuropas jede grundlegende Alternative zum Kapitalismus diskreditiert. Neoliberales Gedankengut, dass die betriebswirtschaftliche Sichtweise als Blau-pause für alle gesellschaftlichen Felder nutzen will, ist vorherrschend. Die Gewerkschaften befin-den sich in einer existentiellen Krise. Eine erneuerte Gewerkschaftsbewegung muss sich die Frage nach ihren unabgegoltenen emanzipatorischen Potentialen stellen. Dazu gehören Werte wie zum Beispiel die freie Entwicklung des Einzelnen als Voraussetzung für die Frei-heit aller, die Entfaltung der Demokratie und die allseitige Entwicklung der Persönlichkeit. Gleichzeitig erzeugt der Kapitalismus als einzig vorherrschendes Weltsystem seit der histo-rischen Wende aus sich heraus Widersprüche und Probleme, die die Forderung nach einer sozialeren und demokratischen Regulierung von Wirtschaftsprozessen immer wieder auf die Tagesordnung stellen. Die Gewerkschaften haben sich in ihrem Erneuerungsprozess an einem Paradigmen-wechsel von der Betriebsorientiertheit auf ein politisches Mandat zu orientieren und müssen als Beteili-gungsgewerkschaften eine eigene Vorstellung von gesellschaftspoli-tischer Vernunft ent-wickeln. Die Vorstellung der Dichotomie von Kapitalismus und Sozialis-mus ist nicht mehr aufrecht zu halten. In Zukunft wird es um eine Mischung des Verhältnis-ses zwischen Gesellschaft, Markt und Staat gehen. Zur Bewältigung gesellschaftlicher Um-brüche ist auch der demographische Wandel zu zählen, dem sich die Gewerkschaften eben-falls stel-len müssen.Zentrales Merkmal des Altersstrukturwandels ist nach Naegele und anderen die Differenz des Alters, die sich in der Singularisierung, Entberuflichung, Hochaltrigkeit, Feminisierung etc. ausdrückt. Hierauf sind entsprechend differenzierte sozialpolitikwissenschaftliche Antworten zu finden. In einer erwerbszentrierten Gesellschaft kann es bei dem Übertritt in den 'Ruhe-stand' zu individuellen Krisen kommen. Entscheidend für das Verhalten in der nachberuf-lichen Lebensphase ist die vorangegangene Lebensbiographie. Danach kommt es im 'Ruhestand' lediglich zu einer Ausweitung von Tätigkeiten, die bisher im bisherigen Le-ben in der Freizeit praktiziert wurden (Kontinuitätsthese). Gleichzeitig vollzieht sich ein para-digmatischer Wandel des Alterbildes von der Fürsorge zur Selbstinitiative. Dies kommt in der steigenden Anzahl von Selbsthilfegruppen im Alter und stärkerem politischen Engagement Älterer zum Ausdruck. Senioren sind allerdings eher nach wie vor eine 'latente' Altenmacht. Dazu trägt ihre Vielfältigkeit und Vielschichtigkeit bei, die die Entfaltung gemeinsamer Akti-vitäten erschwert. Außerdem ist im Alter eine deutliche Präferenz für konservative Ein-stellungen festzuhalten. Der medial oft beschworene 'Generationenkrieg' ist em-pirisch nicht nachweisbar. Eher kommt es zu einer 'Verflüssigung' des Generationenverhält-nisses. Das Verhältnis von Jung und Alt wird für den Zusammenhalt der Gesellschaft in der Zukunft zentrale Bedeutung erhalten. Von besonderem Interesse ist das 'ehrenamtliche' Engagement von Älteren. Vermutet man hier doch enorme - auch ökonomische - Potentiale für die Gesellschaft. Allerdings gilt hier die gleiche Ambivalenz, wie sie grundsätzlich für zivilgesellschaftliche Aktivitäten be-schrieben ist: Chancen und Risiken des Missbrauchs bis hin zu einer erneuten Verpflichtung von Älteren liegen hier dicht zusammen. Besonders bei den 'jungen Alten' werden große Ressourcen vor allem für personale Dienstleistungen vermutet.Die Gewerkschaften hat der demographische Wandel eingeholt, ohne dass sie hierauf zum Beispiel innergewerkschaftlich angemessen reagiert hätten. Die 1,5 Millionen 'Ruheständler' im DGB werden eher negativ im Sinne von 'Überalterung' diskutiert. Die Ressourcen bleiben ungenutzt. Es verdichtet sich die wissenschaftliche Erkenntnis, dass mit der 'Altersfrage' die Handlungsfähigkeit der Gewerkschaften zukünftig berührt ist. Dieser erste Teil schließt mit der Erkenntnis, dass Geragogik ein Erfordernis ist, um die Transferprozesse des sich wechselseitig beeinflussenden Bedingungsgefüges von Gesell-schaft, Kultur und Individuum zu organisieren. Geragogik ist Teil eines neuen Lernzyklus, der sich aus den beschriebenen gesellschaftlichen Umbrüchen ergibt. Dabei sind die Chancen für eine kritische Altenbildung mit älteren Gewerkschaftsmitgliedern günstig, denn erstens sind sie oft politisch interessiert und zweitens durch ihr früheres Engagement eher bereit, weitere Aktivitäten zu entfalten. Bildungsarbeit könnte besonders für Personen in der Übergangsphase zur nachberuflichen Lebensphase bedeutsam sein, um zum Beispiel dem Verlust von Mitglie-dern vor-zubeugen. Gleichzeitig eröffnen sich für den Einzelnen Chancen der Identitäts-entfal-tung im Alter durch einen voranschreitenden tertiären Sozialisationsprozess, der zielge-richtet verläuft. Nach der Beschreibung der gesellschaftlichen Bedingungen einer kritischen Gerago-gik wende ich mich im Folgenden ihren theoretischen Voraussetzungen zu.Im dritten Teil lege ich in Abgrenzung zu gängigen soziologischen Modellen meinen eigenen Theorieansatz dar. Dies begründet die An-lage der gesamten Untersuchung und ist die Grundlage für den rationalen Diskurs. In der Metatheorie wird die Wissenschaft selbst zum Ge-genstand der Wissenschaft. Wissenschaftstheorie befasst sich mit dem wissenschaftlichen Erkenntnisprozess: Danach gilt ein Aussagesystem als wissenschaftlich, wenn es empirisch gestützt ist, soziale Prozesse erklärt und weitere Entwicklungen prognostiziert. In der Analyse des Theorie-Praxis-Verhältnisses wird herausgearbeitet, dass sich die Diesseitigkeit einer Theorie an ihrer praktischen und problemlösenden Kompetenz erweist. Des Weiteren wird Wissenschaft metatheoretisch als soziales System betrachtet. Sie hat die soziale Funktion, die Existenz und die Fortentwicklung der Gesellschaft zu gewährleisten. Damit ist Wissenschaft als Teil von Wissenschaftsgeschichte zu betrachten. Im Unterschied zur Kunst, in der große Werke nicht veralten, ist es das 'Schicksal' der Wissenschaft, dass ihre Erkenntnisse im Laufe der Zeit anachronistisch werden. Ausgenommen sind hiervon die Methoden der Wissenschaften. Diese Bezogenheit der Wissenschaft auf Gesellschaft und Geschichte führt zum Werturteils-streit in der Soziologie, der auf Weber zurückgeht, aber noch heute wiederzufinden ist. So vertritt zum Beispiel Habermas einen normativen Universalismus, wonach sich Aufklärung an der besseren Gesellschaft zu orientieren hat. Dagegen steht für Luhmann die Frage nach der Funktion von Gesellschaft angesichts der Vielfalt von Problemen im Vordergrund. Für ihn geht es um gesellschaftliche Selbstbeobachtung. Letztlich wird hier der Meinungsstreit über das Selbstverständnis der Soziologie ausgetragen: Sieht sie sich als Ordnungswissenschaft oder als kritische Gesellschaftstheorie mit der Anmaßung des Ganzen? Eine methodologische Schlussfolgerung besteht in dieser Untersuchung darin, dass Werturteile nicht in den unmit-telbaren Forschungsprozess einfließen dürfen: Es existiert eine Dichotomie zwischen Wert-urteilen und Erkenntnissen von Zusammenhängen. Allerdings kommt der Wissenschaftler angesichts der Vielzahl der Probleme ohne Wertbeziehungen nicht aus (Dezisionismus): Wertfragen des Forschers sind bei der Auswahl des Forschungsgegenstandes und der Inter-pretation von Daten bedeutsam. Nach diesen metatheoretischen Überlegungen gehe ich über zur Beschreibung soziologischer Sozialisationsforschung, da meiner Untersuchung die These von Veelken zu Grunde liegt, dass Entfaltungsmöglichkeiten im Alter im Rahmen von 'tertiären Sozialisationsprozessen' zu betrachten sind. Es werden grundsätzliche Überlegungen zur interdisziplinären Anlage der Sozialisationsforschung dargelegt. Deutlich wird: Leistungsfähige Sozialisationstheorien haben das Verhältnis von Individuum und Gesellschaft als Prozess der Individuation und Vergesellschaftung zu betrachten. Der Sozialisationsforschung liegen wiederum unterschiedliche soziologische Theoriemodelle zu Grunde: In der Systemtheorie nach Parsons und fortentwickelt durch Luhmann interessiert die Frage, unter welchen Bedingungen Gesellschaft und soziale Pro-zesse zu einem gleichgewichtsregulierenden Wirkungszusammenhang kommen. Das Ganze besteht aus gleichrangig angeordneten Subsystemen, die sich im Prozess der Autopoiesis selbsterhalten. Sie bleiben autonom und müssen gleichzeitig ihre Anschlussfähigkeit zu ande-ren Systemen herstellen. Systemisches Denken bedeutet Reduktion von Komplexität ange-sichts einer zunehmend komplexer werdenden Gesellschaft. Subsysteme befinden sich in einem dauernden Austauschprozess. Dadurch wird die Dynamik des gesellschaftlichen Wan-dels erklärt. Ein Vorwurf an diesem Ansatz ist, dass das Individuum vernachlässigt wird. Hier hilft der handlungstheoretische Ansatz des 'symbolischen Interaktionismus' nach Mead weiter, der besonders die individuellen Handlungsoptionen betont. Allerdings besteht hier das Problem, dass der Realität keine eigene Seinsqualität mehr zukommt und nur noch qua sub-jektiver Interpretationen besteht. Im Ansatz der Gesellschaftstheorie, der sich auf den Theo-rietypus Marx bezieht, wird herausgearbeitet, dass 'Arbeit' als bewusste soziale Tätigkeit das Gattungswesen des Menschen ausmacht. Die Verknüpfung von Individuum und Gesellschaft erfolgt über die Tätigkeit, die durch historische Gesellschaftsformationen bestimmt ist. Der historische Prozess wird als voranschreitende Entwicklung der Vernunft begriffen. Im Abgleich der verschiedenen soziologischen Ansätze und ihrer Konsequenzen für die So-zialisationsforschung kritisiere ich, dass das Verhältnis Individuum und Gesellschaft zwischen den Polen der Nach- und Vorrangigkeit des Einzelnen betrachtet wird. Positiv ist hervorzuheben, dass eine sozialisationstheoretische Herangehensweise das Individuum in seinen Entfaltungsmöglichkeiten und seiner permanenten Lernfähigkeit sieht. Für den eigenen Theorieansatz versuche ich diese vorwärtsweisenden Aspekte der Sozialisationstheorie aufzu-nehmen und sie mit einem gesellschaftstheoretischen Gedankengebäude zu verknüpfen. Gesellschaftstheoretisch wird von folgenden Eckpunkten ausgegangen:· Wissenschaft durchdringt die Erscheinungsform eines Phänomens auf sein Wesen.· Die Dialektik ermöglicht die Analyse der Gesellschaft in ihrer Widersprüchlichkeit und Totalität. Das gesellschaftliche Ganze wird durch die Arbeit erzeugt. Somit sind ökonomische Prozesse und Interessen sowie ihre Auseinandersetzungen wesentlich für die Explikation sozialer Vorgänge. · Anthropologisch ist die teleologische, bewusste und soziale Tätigkeit das Gattungsmä-ßige des Menschen.· Geschichte ist ein Prozess menschlicher Selbstverwirklichung auf immer höheren Stu-fen. Mit Bourdieu begründe ich den emanzipatorischen Charakter meines Theorieansatzes. Für ihn ist Soziologie politisch und historisch und hat einen Beitrag zu mehr Demokratie zu leisten, damit sozial Ausgegrenzte zu politischen Akteuren ihrer Interessen werden. Er überwindet die Dichotomie zwischen Individuum und Gesellschaft durch ein relationales Denken. Das heißt: Gegenstand der Soziologie ist nicht der Einzelne oder die soziale Gruppe, sondern sind ihre Bezüge untereinander, ihre Relationen. Er fordert, dass kritische Intellektuelle gegen den vor-herrschenden Neoliberalismus 'wissenschaftliche Gegenautorität' erzeugen. Eine 'neutrale' Wissenschaft hält er für eine interessengeleitete Fiktion. Dazu will er einen 'Generalstand sozialer Bewegungen' formieren, der auch die zu erneuernden Gewerkschaften einschließt. Metatheoretisch versucht er die Antinomien in den Sozialwissenschaften zu überwinden. So geht er von einem praexeologischen Theorieverständnis aus, nach dem Theorie und Praxis sich wechselseitig durchdringen. Aus der Selbstreflexivität der Soziologie erschließt sich ihr emanzipatorischer Charakter: Der Soziologe gewinnt ein Teil Freiheit, indem er Gesetzmä-ßigkeiten sozialer Felder erkennt und sie als veränderbar begreift. Die Analyse sozialer Felder praktiziert er mit seinen theoretischen Werkzeugen 'Kapital', 'Habitus' und 'Feld'. In sozialen Feldern finden Kämpfe um Macht und Einfluss statt. Die Positionen der sozialen Akteure sind in diesem 'Spiel' durch ihre Verfügungsmacht über Kapital bestimmt. Zustimmung zu Herrschaftsstrukturen erklärt er durch den Habitus. Er ist ein inneres Regulativ, das soziale Feldbedingungen inkorporiert, soziale Vorgehen bewertet und interpretiert und soziale Praxis generiert. Der Habitus ist sozial bestimmt und begründet die Relation zwischen Lebensstil und sozialer Position. Die Unterscheidung zwischen sozi-alen Gruppen drücken sich in Distinktionsbeziehungen aus. Gesellschaft besteht aus der Summe sozialer Felder, die relativ autonom sind. Bourdieus politische Soziologie zielt auf eine universell intellektuelle Freiheit, die zu einer rationalen und humanen Veränderung der Gesellschaft führt.Meinen eigenen gesellschaftstheoretischen Ansatz wende ich im vierten Teil auf das Phäno-men 'Alter' an. Zunächst beschreibe ich verschiedene Alterstheorien und arbeite den Para-digmenwechsel von der Theorie des Disengagement zur Aktivitätstheorie heraus. Eine zen-trale Argumentationslinie ist dabei der Ansatz der tertiären Sozialisation. Er impliziert die Möglichkeit für den Einzelnen, seine Identität auch im Alter durch tätige Auseinandersetzung mit der Umwelt fortzuentwickeln. Gleichzeitig sind Ältere als eine sehr differenzierte Grup-pierung zu beschreiben. Die Theorien über das Alter haben sich allerdings noch nicht zu einer allgemein gültig anerkannten Alterstheorie verdichtet.Gemäß meines eigenen dialektischen Ansatzes versuche ich unter soziologischer Perspektive das Verhältnis von Alter und Gesellschaft in seiner Widersprüchlichkeit zu erfassen. Dies impliziert auch eine relationale Betrachtung, die Alter nur im gesellschaftlichen Kontext erfasst. Danach ist die negative Konnotation von Alter vor dem Hinter-grund des wachsenden Widerspruchs zwischen Alter und Gesellschaft zu betrachten, wie dies Backes erläutert. Grund hierfür ist ein Vergesellschaftungsmodell 'Alter', das mit seinen zwei Komponenten der materiellen Abgesichertheit und des 'Ruhestands' hinter den wachsenden Anforderungen Älterer an ihr Leben zurückbleibt. Gemäß des eigenen materialistischen Ansatzes erläutere ich die Zusammenhänge zwischen Alter und Ökonomie, sowie der im Kapitalismus spezifischen Interessen. Ich lege am Beispiel der Analyse der letzten Rentenreform dar, warum eine Politik des Neoliberalis-mus den Wi-derspruch zwischen Alter und Gesellschaft verschärft und hier eine tendenzielle Erosion des Generationenvertrages droht. Schließlich ordne ich die Ausweitung der berufsfreien Lebens-phase in der Jugend und im Alter historisch ein und zeige, dass aufgrund der fortschreitenden Pro-duktivkraftentwicklung in langfristiger Perspektive die Le-bensarbeitszeit potentiell weiter verkürzt werden kann. Hier eröffnen sich Chancen für eine 'Kulturgesellschaft' , in welcher der Einzelne jenseits der Erwerbsarbeit in zunehmender Weise seine Persönlichkeit all-seitig entwickeln kann. Damit wird das Phänomen 'Alter' in den historischen Kontext der wachsenden Selbstverwirklichung des Menschen gestellt.Mithilfe von Bourdieu gehe ich der Frage nach, wer die vordringliche Zielgruppe einer kri-tischen Geragogik sein kann. Hier wird die Verbindung zu den sozialen Bewegungen im all-gemei-nen und den sich zu erneuernden Gewerkschaften im besonderen hergestellt (Bourdieu 2001a). Durch den Bezug auf ältere Gewerkschaftsmitglieder wird auch der Problematik der sozialen Differenz im Alter für gemeinsame politische Aktivitäten Rechnung getragen. Da-durch wird natürlich nicht die Vielfältigkeit im Alter aufgehoben, aber durch den gemeinsa-men gewerkschaftlichen Bezug überdacht. Danach wende ich Bourdieus Kapital- und Habi-tustheorie auf das 'Alter' an, um zu zeigen, unter welchen Voraussetzungen, Senioren sich von einer latenten zu einer realen Macht entwickeln können. Bedeutsam ist hier die These der Herausbildung eines Altershabitus, der durch die Widersprüchlichkeit von Befreiungspoten-tialen und Ausgrenzungstendenzen gekennzeichnet ist und sozial bedingt ist.Zur Beantwortung der Frage, was denn das Sinnvolle im Alter ist, greife ich auf Koflers Tä-tigkeitskonzept zurück und begründe anthropologisch, dass Arbeit im umfassenden Sinn als zielbewusstes Tätigsein das Gattungsmä-ßige des Menschen ausmacht und sich im histo-rischen Prozess als wachsende Selbstverwirklichung realisiert. Daraus entwickle ich ein neues Vergesellschaftungsmodell, das die bisherigen Elemente der sozialen Absiche-rung und der Entpflichtung von Erwerbsarbeit in modifizierter Form enthält und um ein drittes Element zu er-gänzen ist: Dies besteht in der teleolo-gischen, sozialen und be-wussten Tätig-keit, die auch im Alter die Vermittlungsebene zwischen Indi-viduum und Gesellschaft gewährleistet. Diesen Teil beende ich mit Veelkens Ansatz der tertiären Sozialisation. Dieser schließt die Lücke der bisherigen Betrachtungen, die das Individuum eher vernachlässigen. Hiermit wird gezeigt, wie der Einzelne seine Identität im Dreiecksverhältnis zwischen Individuum, Kultur und Gesellschaft entfalten kann. Gleichzeitig eröffnet diese Be-trachtung des Alters den Weg zur Altenbildung. Im folgenden fünften Teil wird der Bogen von der Alterstheorie zur kri-tischen Geragogik gespannt. Dazu werden die sozialisations- und habitustheoretischen Überlegungen auf die Altenbildung übertragen. Altenbildung ist eine zentrale Voraussetzung, damit der Ältere über andere soziale Gruppen seine An-schlussfähigkeit an andere Subsysteme erhält. Kritische Altenbildung knüpft an einem Alters-habitus an, in dem sich lebensbiographische Prozesse mit Einstellungen aus sozialen Her-künften miteinander verbinden. Die Position im sozialen Feld 'Alter' bestimmt sich für den einzelnen Älteren über das Ausmaß der Verfügung über öko-nomisches, kulturelles, soziales und symbolisches Kapital. Entsprechend zielt kritische Gera-gogik darauf ab, die individuelle und gesellschaftliche Handlungskompetenz älterer Gewerk-schaftsmitglieder zu stärken, in-dem sie sich vor allem kulturelles Kapital aneignen. Dieser Aneignungsprozess von kultu-rellem Kapital zielt allerdings nicht auf die Anhäufung abstrak-ten Wissens, sondern ist als Erfahrungslernen zu organisieren. Mit der Reflexion der eigenen Lebensbiographie ist eine visionäre Lebensführung verbunden, die auch im Alter individuelle und gesellschaftliche Zu-kunftsentwürfe erlauben. Dabei kommt älteren Gewerkschaftsmit-gliedern eine besondere Be-deutung zu: Die Gewerkschaften haben aus ihrem Selbstverständ-nis und der Interessenslage ihrer Mitglieder heraus Potentiale für eine Politik gegen den Neoliberalismus. Zudem be-sitzen ältere Gewerkschaftsmitglieder wichtige Lebenserfahrun-gen, die es aufzuheben gilt. Ihre relativ stark ausgeprägten Interessen an politischen Vorgän-gen sind darüber hinaus gute Voraussetzungen für eine politische Weiterbildung im Alter. Anschließend erfolgt die Beschreibung der konkreten historischen Sozialisationserfahrungen der Jahrgänge von etwa 1920 bis ca. 1940. Da bei der vorliegenden Untersuchung Möglich-keiten einer kritischen und politischen Altenbildung ausgelotet werden, be-schreibe ich die kritische Dimension von Bildung und die Bedingungen von politischer und gewerkschaft-licher Weiterbildung im Alter. Daran schließt sich die Schilderung von Eckpunkten einer kri-tischen Geragogik an. Aus der wis-senschaftshistorischen Sicht wird die Herausbildung der Geragogik zu einer eige-nen Wissenschaftsdisziplin als Erfordernis einer zunehmenden Diffe-renzierung des Alters-strukturwandels, der im Kontext gesellschaft-licher Umbrüche zu sehen ist, gesehen. Gerago-gik wird nach Veelken definiert als die Umsetzung der Lehre vom Lebenslauf und Lebensziel in die Praxis des Lehrens und Lernens. Sie befasst sich mit Altenbildung, gerontologischer Aus-, Fort- und Weiterbildung und der Forschung in Theorie und Praxis. Im Zuge der Her-ausbildung der Zivilgesellschaft besteht eine ihre wichtigen Herausforderungen darin, Ältere zu Tätigkeiten zu befähigen, die selbstbestimmt und emanzipatorisch angelegt sind. Damit werden Anforderungen der tertiären Sozialisation mit dem neuen Vergesellschaftungsmodell verknüpft. Insofern ist Geragogik ein wesentliches Element zur Überwindung des Wi-der-spruchs von Alter und Gesellschaft. Weiter werden die Zusammenhänge zwischen Identitätsent-faltung und gesellschaftspolitischer Partizipation ex-pliziert, die zentraler Gegenstand der vorliegenden Untersuchung sind. Ab-schließend werden in diesem Teil die methodisch-didak-tischen Besonder-heiten des Lernens im Alter herausgestellt. Schließlich werden Aussagen zu den Themen der politischen Altenbildung, zur Zielgruppe und zum Verhält-nis von Dozenten und Teilnehmern, die auch die Beziehung von Jung und Alt betrifft, getroffen. Im sechsten Teil werden anhand einer Sekundärbetrachtung empirischer Ergebnisse über ge-werkschaftlich orientierte Altenbildung am Beispiel der Arbeit in der Bildungsstätte 'neues alter' praxeologische Konklusionen ge-zogen, die sich aus dem Kontext des übergeordneten theoretischen Zusam-menhangs ergeben. Dazu werden zunächst die Sozialdaten der Teilneh-mer und ihre politischen Präferenzen erfasst. Die empirischen Daten beantwor-ten die Frage, ob es gelingen kann, bei bildungsungewohnten Personen (Stahlarbeiter), die in der Regel ge-werkschaftlich organisiert sind, über Weiterbildung im Alter die Identitätsentfaltung durch neue Tätigkeiten zu festigen und zu verbessern und zu einem stärkeren politischen En-gage-ment zu kommen. Anhand der Beschreibung unter anderem zweier Projekte zur Ge-schichte und zum Naturschutz werden Handlungsorientierungen für eine kritische Al-tenbildung darge-stellt. Darüber hinaus werden Voraussetzungen für eine erfolg-reiche Altenbildung skizziert. Es wird deut-lich, dass Lernen im Alter erfahrungsbezogen und handlungsorientiert anzulegen ist. Dies kann durchaus dazu beitragen, im Alter neue Hand-lungsfelder zu erschließen, die in der bisherigen Lebensbiographie unerschlossen geblieben sind. Die empirischen Ergebnisse verdeutlichen darüber hinaus, dass das Bildungsprogramm durch eine große Nähe zu den Teilnehmern, die die direkte Beteiligung an der Planung des Bildungsprogramms impliziert, eine starke Akzeptanz erfährt. Es wird der Lebenslagean-satz bestätigt und die Notwendigkeit einer großen Partizipation im Binnenverhältnis betont. Ebenso ist die Ganzheitlichkeit des Bildungsangebotes, das kognitives, emotionales und so-ziales Lernen beinhaltet, wichtig für die Akzeptanz des Bildungsprogramms. Der empirische Teil weist nach, dass praktische Al-tenbildung, wie sie theoretisch begründet ist, sowohl per-sönlichkeitsstabilisierend als auch demokratiefördernd wirksam sein kann. Im Schlussteil bündele ich die Erkenntnisse der Untersuchung, verknüpfe die Geragogik mit der Alterstheorie in nuce und beschreibe Bausteine für eine kritische gewerkschaftlich ausge-richtete Altenbildung. Wichtige davon sind:1. Alter in seiner neuen historischen Qualität ist Ergebnis eines Sozials
Overview and introduction "Which organizational forms produce science? Expansion, diversity, and cooperation in Germany's higher education and science system embedded within the global context, 1900-2010". Already the title of my dissertation manifests an approach that examines the topic of the development of scientific productivity in the German higher education and science landscape from different perspectives: levels, dimensions, and an extensive timeframe. Deriving from and contributing to the international research project "Science Productivity, Higher Education, Research and Development, and the Knowledge Society" (SPHERE), my research focuses on the investigation of the influence of higher education development and science capacity-building on scientific knowledge production, globally, comparatively, and considerable depth for Germany, a key science producer for well over a century. Focusing mainly on the different structures and institutional settings of the German higher education and science system, the dissertations shows how these affected and contributed to the long-term development of scientific productivity worldwide. The historical, comparative, and in-depth analyses are especially important in light of advancing globalization and internationalization of science, stronger networks of scientists worldwide, and the emergence of the "knowledge society". The research design combines macro- and meso-level analyses: the institutionalized and organizational settings in which science is produced. Since information about single authors was limited in availability, extensive micro-level analyses were not possible here, yet the research articles analyzed were all written and published by individuals working in organizations, which are in the center of analysis here. By reference to the dimensions expansion, diversity, and cooperation, I elaborated the frame of my investigation, and sorted my research questions, including country, organizational field and form, and organizational levels. The structure of this work (see outline) addresses these themes and the observed timeframe spans the years from 1900 to 2010 – more than a century (see section 1.2). My main goal was to investigate how and why scientists publish their research results in peer-reviewed journal articles. The point is to emphasize the importance of scientific findings/discoveries, because non-published results are non-existent for the scientific community. From the ways and in which formats scientists publish their work, we can deduce how science is organized (within and across disciplines). My dissertation analyzes publications in peer-reviewed journals, because they are the most important format – alongside patents in applied fields – to disseminate new knowledge in science, technology, engineering, mathematics, and health (hereafter STEM+ fields). Articles not only record new knowledge, but also contribute to the reputation of researchers and their organizations. Journal publications in reputable journals with peer-review have become the "gold standard" measure of scientific productivity. Within the last several decades, the scientization of many dimensions of societal life proceeded, and the generation of new knowledge increasingly became the focus of political, economic, and social interests – and research policymaking. Therefore, it is important to identify the institutionalized settings (organizations/organizational forms) in which science can best be produced. Here, the diverse types of organizations that produce science – mainly universities, research institutes, companies, government agencies and hospitals – were identified and differences and similarities of these organizational forms were analyzed on the basis of their character, goals, tasks, and the kinds of research their members produce. In a first step, I show why I structured my work at the interface of higher education research, science studies, and bibliometrics (see chapters 2 and 5). Analyzing publications is still the key task of bibliometrics, but the results are used by many other actors as well: higher education managers, politicians, and scientists themselves to make claims about the quality of science, to compare each other, or to influence the structure, organization, and output of the higher education and science system. While it is difficult to make direct statements about the quality of research on the basis of simply counting the number of research articles a scientist publishes, the quality of journals is used as a proxy to compare across disciplines. To measure quality, other parameters are necessary. Thus, here statements focus on the quantity of science produced, not on the intrinsic quality of the analyzed research articles, the specific research achievements of individual scholars, organizations or organizational forms, or even countries. Nevertheless, output indicators elaborated here definitely show the huge expansion of scientific production and productivity, the stability of the research university over time as the most important science producer in Germany, but also rising differentiation and diversification of the organizational forms contributing to overall scientific output. Furthermore, the start of a considerable and on-going rise in national and international collaborations can be dated to the early 1990s. The chapter about the multidisciplinary context (see chapter 2) discusses the relationship between higher education research and science studies in Germany as well as the special position of scientific knowledge in comparison to other forms of knowledge. Scientific knowledge is generated, distributed, and consumed by the scientific community. To get an overview about the most important studies in the field, and to contextualize my work within the already existing empirical studies, I describe the current state of research in chapter 3. Research questions Section 1.2 provides a detailed description of my research questions: Which organizational forms produce science? 1. How has worldwide and European scientific productivity developed between 1900 and 2010 in comparison? 2. How has the German higher education and science system been embedded in the global developments of higher education and science over time? 3. How has scientific productivity in Germany developed between 1900 and 2010? 4. Among all science-producing organizational forms, what do the key organizational forms contribute to scientific productivity? 5. Which organizational forms provide the best conditions for scientific productivity? 6. Which single organizations produce the most research in Germany? 7. What is the impact of increasing internationalization of research on national and international cooperation, measured in publications in scientific journals? Theoretical framework Theoretically (see chapter 4), I apply a neo-institutional (NI) framework to explore and explain both the tremendous expansion of higher education and science across the world and considerable differences across time and space in the institutional settings, organizational forms, and organizations that produce scientific research in Germany. Sociological NI focuses on understanding institutions as important in guiding social action and shaping processes of social development. Such an approach emphasizes the development, functioning, and principles of institutions. Milestones in NI describe the nexus of organization and society supposing that organizational structures express myths and reflect ideals institutionalized in their environment. While capturing, copying, and asserting these, structural similarity (institutional isomorphism) between organizations in society will be established. The concept of "organizational field" emphasizes relationships between organizations within an environment. Organizational fields (communities) consist of all relevant organizations. In section 4.1.2 I discuss the differences between institutions and organizations and the difficulty of a distinction of the terms, especially in German-speaking sociology, which does not distinguish clearly between these terms. Fundamentally, NI approaches differ in the dimensions or pillars and levels of analysis they privilege (see figure 5, p. 80), but they share fundamental principles and the theoretical framework. Thus NI is particularly suitable for a multi-level analysis of scientific productivity across time and space. The historical development of the German higher education and science system must analyzed considering also global developments, because on the one hand it had an enormous impact on the development of other systems worldwide, and, on the other hand, global trends affect the on-going institutionalization and organization(s) of science in Germany. Intersectoral and international cooperation is growing and becoming increasingly important, leading to diverse networks within and between higher education and science systems worldwide. The classical, national case study is hardly longer possible, because macro units like countries are highly interdependent, embedded in global, regional and local relationships, such that borders between the global and the national dimension are increasingly blurred. Nevertheless, countries are units with clearly defined boundaries and structures, thus they can be handled as units to compare. The theoretical perspectives and different levels of analysis addressed here are displayed in Figure 5. I apply the "world polity" approach as a broader lense with which to make sense of the truly global arena of higher education and science (macro level). The focus of this perspective is on global and international structures and processes, which developed over time. Through this perspective, I explore global diffusion and formal structures of formal principles and practical applications. Combining historical and sociological institutionalism helps to focus on developments and processes over time on the meso level, to explain how institutions have developed and change(d). The concepts of "critical junctures" and path dependencies are useful to explain these processes over time. To describe the transformation of knowledge production over the entire twentieth century, and to analyze different organizational forms that produce science in Germany, two prevalent theoretical concepts are discussed: Mode 1 versus Mode 2 science, and the Triple-Helix model to describe the relationship between science, industry and state. In "The New Production of Knowledge" Michael Gibbons and his colleagues describe the transformation of knowledge from an academic, disciplinary, and autonomous – "traditional" – organization of science (Mode 1) with a focus on universities as the key organizational form, to a more applied, transdisciplinary, diverse, and reflexive organization of science (Mode 2) that features a more diverse organization of science, relying on a broader set of organizations producing knowledge. Within the literature, debates center on whether this new model has replaced the old, and which of these models best describes the contemporary organization of science (here: the STEM+ fields). In turn, the Triple-Helix model preserves the historical importance of the universities. This approach assumes that future innovations emerge from a relationship between universities (production of new knowledge), industry (generation of wealth), and state (control). Data and methods In these analyses, only peer reviewed journal publications were used – as the best indicator for measuring the most legitimated, authoritative produced science. This focus enabled an investigation of publications in-depth and over a 110 year timeframe. Research articles in the most reputable, peer-reviewed, and internationally reputable journals are the gold standard of scientific output in STEM+. The data I used is based on a stratified representative sample of published research articles in journals in STEM+-fields. My measure relies on the key global source for such data, the raw data from Thomson Reuters' Web of Science Science Citation Index Expanded (SCIE) (the other global database is Elsevier's Scopus, which also indexes tens of thousands of journals), which was extensively recoded. Methodologically, my approach is based on a combination of comparative institutional analysis across selected countries and historically of the German higher education and science system, and the systematic global evaluation of bibliometric publication data (see chapter 6). The SCIE includes more than 90 million entries (all types of research), mainly from STEM+-fields. I focus on original research articles, because this type of publication contains certified new knowledge. The SPHERE dataset covers published research articles from 1900 to 2010. From 1900 to 1970, we selected data in 5-year-steps in the form of a stratified representative sample. From 1975 onwards full data is available for every year. Depending on the research question, either five or ten-year steps were analyzed. A detailed description of the sampling and weighting of the data can be found in chapter 6. In consideration of the criteria above, I analyzed 17,568 different journals (42,963 journals were included into the database if we count the same journals in different years), and a total of 5,089,233 research articles. To prepare the data for this research, it had to be extensively cleaned and coded. Very often our international research team found missing information on the country level and/or on the level of organizations/organizational forms. From June 2013 to December 2015, research in the archives of university libraries was necessary to manually add missing information, particularly organization location and author affiliations. In the field of bibliometrics, we find different methods to count publications. In this work, I mainly apply the "whole count" approach (see table 1, p. 126). This decision is based on the assumption that every author, organization, or country contributed equally to a publication. An overestimation of publications can't be precluded, because research articles are counted multiple times, if a paper is produced in co-authorship, which has been rising worldwide over the past several decades. The absolute number of publications (worldwide, Europe, Germany) is based on a simple counting of research articles (without duplicates, in cases of co-authored articles). Summary of the most important results The empirical part of my work is divided into three parts. In the following sections, I will present the most important findings. The global picture – higher education and science systems in comparison The central question of my research project was "which organizational forms produce science"? For a better understanding and classification of the results of my case study, I embedded the German higher education and science system into the European and global context. I answered the questions "how did the worldwide and European scientific productivity developed between 1900 and 2010 in comparison", and "how was/is the German higher education and science system embedded in global developments of higher education and science over time" as follows: First, I show that the worldwide scientific growth followed a pure exponential curve between 1900 and 2010 (see figures 3 and 10; pp. 50, 147) – and we can assume that this strong upward trend continues today. The massive expansion of scientific production had and still has a tremendous influence on societal developments, beyond simply economic and technical developments, but rather transforming society. I show that higher education and science systems worldwide exhibit communalities, which have led to similar developments and expansion of scientific productivity. The comparison of important European countries (Germany in comparison with Great Britain, France, Belgium and Luxembourg) uncovered the contribution of the development and spread of modern research universities and the extraordinary and continued rise in publication output (see section 7.2; Powell, Dusdal 2016, 2017a, 2017b in press). Within the global field of science, three geographical centers of scientific productivity have emerged over the twentieth century: Europe, North America, and Asia. Their relative importance fluctuates over time, but today all three centers continue to be the key regions in the production of scientific research in STEM+ journals. Especially in Asia, the growth rates have risen massively in recent years (Powell et al. 2017 in press). Second, I investigated that all countries worldwide invest more into research and development (R&D) (figure 9, p. 140). These investments have a clear impact on the scientific productivity of nations, yet there are important differences between countries in absolute production and productivity rates. Alongside direct investments in R&D or the application of patents in STEM+-fields that influence the expansion of science, the capacity for producing more knowledge fundamentally depends on rising student enrolments, a growing number of researchers, the widening of research activities into various arenas of society, the development of products, and the (re-)foundation of universities (Powell, Baker, Fernandez 2017 in press). As part of the higher education expansion and massification during the 1960s and 70s, the numbers of researchers and students rose tremendously. The growth of scientific publications thus results from the on-going institutionalization of higher education and science systems worldwide. The growth of publications is also explained by the steady growth in the number of researchers working within these growing – and increasingly interconnected – systems. Third, I could reject the argument of Derek J. de Solla Price that the pure exponential growth of scientific literature has to flatten or would slow-down several decades after the advent of "big science" (see paragraph 2.4; figure 4 and 10; p. 53, 147). Although radical historical, political, economical, and technical events (see figure 11, p. 150) led to punctual short-term decreases in publication outputs, the long-term development of universities and other organizational forms producing science led to sustained growth of scientific publications, with the numbers of publications rising unchecked over the long twentieth century. In 2010, the worldwide scientific productivity in leading STEM+ journals was about one million articles annually. Fourth, I could show that the absolute numbers have to be put into perspective and standardized in relation to the investments in R&D, the size of the higher education and science systems, the number of inhabitants (see figure 12, p. 159), and the number of researchers (table 3, p. 162; figure 13, p. 164). The initial expansion of scientific publications in STEM+-fields is based on a general growth of higher education and science systems. The different institutional settings and organizational forms that produce science have an impact on scientific productivity. The selected country case studies – Germany, Great Britain, France, Belgium and Luxembourg – demonstrate that systems with strong research universities are highly productive; they seem to provide conditions necessary for science. As a result, not only the number and quality of researchers is important, but also the institutional and organizational settings in which they are employed. Fifth, in international comparison, Germany continues to contribute significantly to scientific productivity in STEM+ fields. With an annual growth rate of 3.35%, Germany follows the United States and Japan. In 2014, German governments invested €84.5 billion in R&D – 2.9% of overall GDP. The EU-target of 3% by 2020 was barely missed. In 2010, Germany produced 55,009 research articles (see table A5). In comparison to Great Britain, France, Belgium and Luxemburg, Germany still leads in scientific output in Europe –comparing just the absolute numbers. The size of the country itself and the institutionalization of the higher education and science systems influence publication outputs, of course, with these absolute numbers in relation to other key indicators showing a different picture. Standardized by the number of inhabitants, Germany published less articles per capita than Belgium and Great Britain. The number of researchers amounted to 327,997 (FTE) in 2010. The ratio of inhabitants to scientists was 1,000:4. Among these countries studied in-depth, Luxembourg and Great Britain had more researchers per capita than did Germany. The interplay of the organizational forms of science in Germany between 1900 and 2010 On the basis of the analysis of the global and European contexts, and development of worldwide scientific productivity over time in chapter 7, I started the in-depth case study of Germany. Bridging this overview and the following in-depth analyses is a chapter on the institutionalization of the German higher education and science system (see chapter 8). Here, I described the most important institutions and organizations and the organizational field – universities, extra-university research institutes and universities of applied sciences. Furthermore, I discussed the differences between West and East Germany during their division (1945–1990). Summarizing the most important results shows that the development of publications in Germany follows global and European trends (on a lower scale) (see figure 16, p. 208). Over time, Germany experienced pure exponential growth of scientific publications and a rising diversity of organizational forms that contribute to scientific productivity (see sections 9.1 and 9.3). I answered the following three research questions: "how has the scientific productivity in Germany developed between 1900 and 2010", "among all science producing organizational forms, what do the key organizational forms contribute to scientific productivity", "which organizational forms provide the best conditions for scientific productivity", and "which single organizations are the most research intense in Germany"? First, the growth curve of scientific publications in Germany turns out as expected – it shows pure exponential graph, comparable with the worldwide and European development of scientific productivity between 1900 and 2010. Here, too, cataclysmic events such as the two world wars and the Great Depression as well as reunification had only short-term (negative) impact (figure 11, p. 150) on scientific productivity, without even a medium-term slow-down or flattening of the curve. By 2010, the total number of publications in STEM+ fields by researchers in German organizations topped 55,000 in one year alone. Second, a detailed examination and comparison of the development of scientific productivity in West Germany and East Germany between 1950 and 1990 showed that the growth rate of Germany (altogether) was based mainly on steady growth of scientific publications in West Germany (see figure 17, p. 211). The growth curve of the former GDR was quite flat and proceeded on a very low level. As a result, I conclude that the GDR's higher education and science system, based on its academy model, did not provide conditions for scientific productivity as optimally as did the BRD. Third, a detailed analysis of the "key classical" organizational forms of science – universities and extra-university research institutes – show that universities were and are the main producers of scientific publications in STEM+ from 1975 to 2010 (see figure 18, p. 217). On average, university-based researchers produced 60% of all articles and defended their status against other organizational forms, which leads to the rejection of the Mode 2 hypothesis. Non-university publications reached an average of 40%. But that does not mean that other organizational forms were not producing science as well. The percentage share of articles is ultrastable and shows only marginal variations. The thesis that the proportion of university publications should decrease over time can be rejected for the period from 1975 to 2010. This suggests that scientific productivity of universities is actually rising, since despite decreasing financial support (R&D) in favor of extra-university research institutes, the universities produced more research articles with less resources over time. Fourth, although not only scientists within universities and research institutes publish their research in scientific journals, jointly these organizational forms have produced more than three-quarters of all research articles since 1980. Already in the earlier years, they produced a large number of scientific articles. Other organizational forms also generate scientific knowledge (for an extensive description of the organizational form matrix, see table 4, pp. 222f.). Especially scientists in firms, government agencies, and hospitals publish articles in peer-reviewed journals in STEM+ (see figures 19 and 20; pp. 220, 246). Indeed, the universities have been the driving force of scientific productivity for more than a century. With their specific orientation to basic research and their linkage of research and teaching, they provide conditions that facilitate the production of science. Universities are among the oldest institutions with a high degree of institutionalization. All other organizational forms (academies, associations, infrastructures, laboratories, military, museums and non-university education) were identified in the dataset played only a minor role and were summarized in the category "further types". Fifth, the analysis of the ten most research-intensive single organizations in Germany in the year 2010 confirmed the results. Only universities and institutes were part of this group. A summary of publications of single institutes under their umbrella organizations shows that the institutes of the Max Planck Society and of the Helmholtz Association are the leading science producers in Germany, outpacing the scientific productivity of universities, but only when aggregating the contributions of dozens of individual institutes (see table 5, p. 259f). An analysis of single institutes shows that these research institutes cannot compete with universities, because of their size and the number of researchers. The Charite – Universitätsmedizin Berlin, a hybrid organization, is another leading science producer in Germany. National and international cooperation of scientific research Finally, increasing internationalization of research has impacted on national and international cooperation. leading to collaboratively-written publications in scientific journals. Through advancing globalization, national and international scientific cooperation increased in volume and importance. International cooperation in STEM+ is facilitated by the reputation of the research organization and of the co-authors, higher visibility within the scientific community and more possibilities for interdisciplinary research as well as better or more specialized facilities. Today, more than a third of all research articles worldwide are produced in scientific collaboration; only around a quarter are single-authored articles. In contrast to Humboldt's principle "in Einsamkeit und Freiheit" (in loneliness and freedom), research is no longer done by one scientist, but is much more likely the result of collaboration. Research networks are increasingly important, and researchers share their common interests on a research question, publishing their results in joint publications. Researchers, organizations, and indeed countries differ in the ways they organize their research and thus how they enable research and collaboration. This depends on location, size, higher education and science system, the organizational field and organizations. Here, varying patterns of scientific cooperation were presented, showing a massive increase in scientific collaboration in (inter)national co-authorships over time. Until the 1990s, researchers in all investigated countries (France, Germany, Great Britain, USA, Japan, China, Belgium, Luxembourg) published their research articles mainly as single-authored papers. Only since the 1990s have co- and multi-authored publications risen (considerably): In 2000, only a third of all publications were published by one author. In 2010, the proportion reached its lowest level with only one-fifth of all papers single-authored (see table 6, pp. 279f). Countries differ considerably in their amount of collaboratively-written research articles. References Powell, J. J. W. & Dusdal, J. (2016). Europe's Center of Science: Science Productivity in Belgium, France, Germany, and Luxembourg. EuropeNow, 1(1). http://www.europenowjournal.org/2016/11/30/europes-center-of-science-science-productivity-in-belgium-france-germany-and-luxembourg/. Last access: 13.12.2016. Powell, J. J. W. & Dusdal, J. (2017a): Measuring Research Organizations' Contributions to Science Productivity in Science, Technology, Engineering and Math in Germany, France, Belgium, and Luxembourg. Minerva, (). Online first. DOI:10.1007/s11024-017-9327-z. Powell, J. J. W. & Dusdal, J. (2017b in press). The European Center of Science Productivity: Research Universities and Institutes in France, Germany, and the United Kingdom. IN Powell, J. J. W., Baker, D. P. & Fernandez, F. (Hg.) The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing. Powell, J. J. W., Baker, D. P. & Fernandez, F. (2017 in press). The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing. Powell, J. J. W., Fernandez, F., Crist, J. T., Dusdal, J., Zhang, L. & Baker, D. P. (2017 in press). The Worldwide Triumph of the Research University and Globalizing Science. IN Powell, J. W., Baker, D. P. & Fernandez, F. (Hg.) The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing. ; Überblick und Einleitung Bereits der Titel meiner Dissertation "Welche Organisationsformen produzieren Wissenschaft? Expansion, Vielfalt und Kooperation im deutschen Hochschul- und Wissenschaftssystem im globalen Kontext, 1900-2010" verspricht, dass sich dem Thema der Entwicklung wissenschaftlicher Produktivität in Deutschland aus verschiedenen Perspektiven (Analyseebenen, Dimensionen und Zeitrahmen) genähert werden soll. Eingebettet in das international vergleichende Forschungsprojekt Science Productivity, Higher Education, Research and Development, and the Knowledge Society (SPHERE) rückt meine Dissertation die Analyse des Einflusses der Hochschulentwicklung und der wissenschaftlichen Kapazitätsbildung auf die wissenschaftliche Wissensproduktion in den Vordergrund. Es interessiert mich, wie die im deutschen Hochschul- und Wissenschaftssystem vorherrschenden Strukturen und institutionellen Settings die langfristige Entwicklung wissenschaftlicher Produktivität beeinflusst und verändert haben. Besonders vor dem Hintergrund einer voranschreitenden Globalisierung und Internationalisierung der Wissenschaft, einer weltweiten Vernetzung von Wissenschaftlern und der Herausbildung einer Wissensgesellschaft. Die Annäherung an den Forschungsgegentand erfolgt auf der Makro- und Mesoebene: den institutionalisierten und organisationalen Settings, in denen Wissenschaft produziert wurde und wird. Da Informationen zu einzelnen Autoren nicht zur Verfügung standen, können keine Aussagen auf der Mikroebene getroffen werden, wenngleich Publikationen natürlich immer von Individuen verfasst werden und nicht von den hier untersuchten Ländern oder Organisationsformen und Einzelorganisationen. Anhand der Dimensionen Expansion, Vielfalt und Kooperation wird der Untersuchungsrahmen abgesteckt und eine Ordnung der Fragestellung vorgenommen, an denen die Struktur der Arbeit ausgerichtet ist. Der Zeitrahmen der Arbeit umfasst die Jahre 1900 bis 2010, also mehr als ein Jahrhundert (siehe Abschnitt 1.2). Ziel dieser Arbeit ist es darzulegen, warum Wissenschaftler ihre Ergebnisse in Form von Zeitschriftenartikeln publizieren. Es geht unter anderem darum, die Wichtigkeit wissenschaftlicher Erkenntnisse hervorzuheben, da nicht publizierte Ergebnisse für die Wissenschaft nicht existieren und sich aus der Art und Weise, wie publiziert wird, die Organisation der Forschung innerhalb und übergreifend einer Disziplin oder eines Fachs ableiten lässt. In den in dieser Arbeit untersuchten Fächergruppen Mathematik, Ingenieur-, Natur- und Technikwissenschaften sowie Medizin (im Folgenden angelehnt an die englische Abkürzung STEM (Science, Technology, Engineering and Mathematics) plus Medicine als STEM+ bezeichnet) spielen Publikationen in peer reviewed Zeitschriften eine wichtige Rolle – neben Patenten in den angewandteren Fächergruppen sind sie heutzutage das wichtigste Publikationsformat. Sie dienen nicht nur der Dokumentation generierten Wissens, sondern sind auch ein Anzeiger für die Reputation eines Forschers und dienen der Messung wissenschaftlicher Produktivität. Zeitschriftenpublikationen in hochklassigen Zeitschriften, die einem peer review Verfahren unterliegen, können als gold standard zur Messung wissenschaftlicher Produktivität herangezogen werden. In den letzten Jahrzehnten kam es zu einer zunehmenden Verwissenschaftlichung vieler gesellschaftlichen Teilbereiche und die Generierung wissenschaftlichen Wissens rückte immer weiter ins Zentrum des politischen und wirtschaftlichen Interesses, unabhängig davon, wo es produziert wurde. Aus diesem Grund werden die Orte und institutionellen Settings (Organisationen, Organisationsformen) wissenschaftlicher Produktivität (hauptsächlich Universitäten, außeruniversitäre Forschungsinstitute, Unternehmen, Behörden und Ressortforschungseinrichtungen und Krankenhäuser) identifiziert und voneinander abgegrenzt. Indem ihre Gemeinsamkeiten und Unterschiede anhand ihrer Aufgaben und Ziele sowie der Art der Forschung diskutiert werden. In einem ersten Schritt lege ich dar, warum ich diese Arbeit an der Schnittstelle zwischen Hochschul- und Wissenschaftsforschung und der Bibliometrie angelegt habe (siehe Kapitel 2 und 5). Publikationsanalysen werden zwar immer noch als Hauptaufgabe der Bibliometrie gesehen, aber ihre Ergebnisse werden auch von anderen Akteuren wie Hochschulmanagern, Politikern und Wissenschaftlern genutzt, um einerseits Aussagen über die Qualität der Wissenschaft zu treffen, aber auch um sich miteinander zu vergleichen oder steuernd in die Struktur und Organisation einzugreifen und Aussagen über den Output des Hochschul- und Wissenschaftssystems zu treffen. Direkte Aussagen über die Qualität der Forschung auf Basis der Anzahl an Zeitschriftenartikeln, die ein Wissenschaftler publiziert, können nicht getroffen werden, es kann aber über die Qualität einer Zeitschrift (Impactfactor) ein Proxi gebildet werden, mit dessen Hilfe Vergleiche zwischen Disziplinen getroffen werden können. Um wissenschaftliche Produktivität zu messen, müssten ergänzende Parameter hinzugezogen werden. Aus diesem Grund werden in dieser Arbeit lediglich Aussagen über die Quantität wissenschaftlicher Produktivität getroffen, nicht aber über die Qualität der untersuchten Zeitschriftenartikel, die Forschungsleistung einzelner Wissenschaftler, Organisationen oder Organisationsformen und einzelner Länder. Nichtdestotrotz zeigen Indikatoren zur Messung wissenschaftlichen Outputs eine große Expansion wissenschaftlicher Produktivität, eine Stabilität der Universitäten im Zeitverlauf und die Wichtigkeit Deutschlands als Wissensschaftsproduzent sowie eine steigende Differenzierung und Diversifizierung der Organisationsformen. Zudem können die 1990er Jahre als Startpunkt steigender nationaler und internationaler Kooperationen gesehen werden. In Kapitel 2 zum multidisziplinären Kontext der Arbeit zeige ich, in welcher Beziehung sich die Hochschul- und Wissenschaftsforschung in Deutschland zueinander befinden. Wissenschaftliches Wissen nimmt eine Sonderstellung im Vergleich zu anderen Wissensformen ein, da es unter bestimmten Bedingungen, die von der wissenschaftlichen Gemeinschaft selbst bestimmt werden, generiert und verbreitet wird. Um einen Überblick über die wichtigsten Studien innerhalb meines Feldes zu bekommen, und um meine Arbeit in den empirischen Kontext zu rücken, beschreibe ich in Kapitel 3 dieser Arbeit den aktuellen Forschungsstand. Forschungsfragen Abschnitt 1.2 stellt einen detaillierten Überblick über die dieser Arbeit zugrunde liegenden Forschungsfragen bereit: Welche Organisationsformen produzieren Wissenschaft? 1. Wie hat sich die wissenschaftliche Produktivität weltweit und im europäischen Vergleich zwischen 1900 und 2010 entwickelt? 2. Wie war/ist das deutsche Hochschul- und Wissenschaftssystem in die globalen Entwicklungen der Hochschulbildung und Wissenschaft im Zeitverlauf eingebettet? 3. Wie hat sich die wissenschaftliche Produktivität in Deutschland zwischen 1900 und 2010 entwickelt? 4. Unter allen Wissenschaft produzierenden Organisationsformen, was tragen die "klassischen" Formen zur wissenschaftlichen Produktivität bei? 5. Welche Organisationsformen stellen die besten Bedingungen für wissenschaftliche Produktivität bereit? 6. Welche Einzelorganisationen gehören zu den forschungsstärksten in Deutschland? 7. Welchen Einfluss hat die zunehmende Internationalisierung der Forschung auf nationale und internationale Kooperationen in Form von Publikationen in Zeitschriftenartikeln? Theoretischer Rahmen Theoretisch (siehe Kapitel 4) basiert meine Arbeit auf einem neu-institutionellen (NI) Ansatz zur Untersuchung und Erklärung der Expansion des Hochschulwesens und der Wissenschaft weltweit. Trotz des allgemeinen Wachstums wissenschaftlicher Produktivität bestehen beträchtliche Unterschiede zwischen den institutionellen Settings, Organisationsformen und einzelner Organisationen, die maßgeblich zur wissenschaftlichen Produktivität beitragen. Der soziologische NI konzentriert sich auf das Verständnis von Institutionen und Organisationen. Institutionen sind ein wichtiger Baustein, um soziales Handeln und Prozesse der Gesellschaftsentwicklung zu verstehen. Organisationen und Institutionen stehen in einer wechselseitigen Beziehung zueinander. Die zentralen Annahmen des NI wurden von Walter Powell, Paul DiMaggio und Richard Scott formuliert. Meilensteine: der Zusammenhang von Organisation und Gesellschaft und die Annahme, dass formale Organisationsstrukturen Mythen zum Ausdruck bringen, die in ihrer gesellschaftlichen Umwelt institutionalisiert sind. Indem Organisationen diese Mythen erfassen, kopieren und zeremoniell zur Geltung bringen, werden Strukturähnlichkeiten (Isomorphien) zwischen Organisationen und der Gesellschaft hergestellt. Das Konzept der "organisationalen Felder" dient der Beschreibung der Beziehung zwischen verschiedenen Organisationen und beinhaltet alle relevanten Organisationen, die sich mit ihrer gesellschaftlichen Umwelt auseinander setzen. In Abschnitt 4.1.2 werden die Unterschiede zwischen den Begriffen Institutionen und Organisationen diskutiert, da diese besonders in der deutschsprachigen Soziologie nicht trennscharf genutzt werden. Grundsätzlich unterscheiden sich Ansätze institutioneller Theorie in ihrer Anwendungsebene, sie sind aber durch ihren Überbau miteinander verschränkt. Folglich ist der NI als theoretische Basis besonders gut geeignet, um eine Mehrebenenanalyse der wissenschaftlichen Produktivität zeit- und ortsübergreifend durchzuführen. Die historische Entwicklung des deutschen Hochschul- und Wissenschaftssystems kann nicht ohne eine Berücksichtigung der globalen Entwicklungen durchgeführt werden, da es einerseits einen enormen Einfluss auf die Entwicklung anderer Systeme weltweit hatte/hat und andererseits globale Entwicklungen die Institutionalisierung und Organisation der Wissenschaft in Deutschland beeinflussen. Intersektorale und internationale Kooperationen sind im Zeitverlauf angewachsen, werden immer wichtiger und führen zu ausgeprägten Netzwerken innerhalb und zwischen Hochschul- und Wissenschaftssystemen weltweit. Aufgrund einer zunehmenden Verzahnung einzelner Länder und den damit einhergehenden Wechselwirkungen zwischen den unterschiedlichen Analyseebenen (makro, meso, mikro) ist eine klassische, nationalstaatliche Analyse nicht mehr zielführend. Nichtsdestotrotz können Länder als vergleichbare Einheiten gesehen werden, da sie über klar definierte Grenzen und Strukturen verfügen. Die unterschiedlichen theoretischen Perspektiven und Analyseebenen werden in Abbildung 5 genauer beschrieben. Der theoretische Ansatz der "Weltkultur" bietet eine breitere Linse des soziologischen NI auf die globale Arena. Der Fokus liegt auf globalen und internationalen Strukturen und Prozessen, die sich über lange Zeit entwickelt haben. Mit Hilfe dieser Perspektive können globale Diffusion und formale Strukturen der Entkopplung von formalen Grundsätzen und praktischer Anwendung erklärt werden. Zusammen nehmen der historische und soziologische Institutionalismus zeitliche Entwicklungen und Prozesse in den Blick, die erklären, wie Institutionen entstehen und sich verändern. Die Konzepte critical junctures und Pfadabhängigkeit sollen helfen diese Prozesse auf der Mesoebene zu verstehen. Um die Transformation der Wissensproduktion im Zeitverlauf des 20. Jahrhunderts zu verstehen und um zu analysieren, welche Organisationsformen an der Produktion wissenschaftlichen Wissens beteiligt waren, werden zwei theoretische Konzepte herangezogen: Modus 1 versus Modus 2 Wissenschaft und das Triple-Helix Modell zur Beschreibung der Beziehung zwischen Wissenschaft, Industrie und Staat. In The New Production of Knowledge beschreiben Michael Gibbons und seine Kollegen den Wandel der Wissenschaft von einer akademischen, disziplinären und autonomen, traditionellen, Organisation der Wissenschaft (Modus 1) mit einem Schwerpunkt auf Universitäten als wichtigste Organisationsform, hin zu einer anwendungsorientierteren, transdisziplinären, diversen und reflexiven Organisation der Wissenschaft (Modus 2), die eine diversere Organisation der Wissenschaft unterstützt und auf einem breiteren organisationalen Setting der Wissensproduktion beruht. Innerhalb der Literatur wird diskutiert, ob das neue Modell das alte ersetzen soll und welches der Modelle die gegenwärtige Organisation der Wissenschaft am besten beschreibt. Im Gegensatz hierzu bleibt beim Triple-Helix Modell die historische Rolle der Universitäten erhalten. Der Ansatz geht davon aus, dass zukünftige Innovationen aus einer Beziehung von Universitäten (Wissensproduktion), Industrie (Generierung von Wohlstand) und dem Staat (Kontrolle) resultieren. Daten und Methoden In dieser Arbeit werden ausschließlich Publikationen in peer reviewed Zeitschriften als Kennzeichen wissenschaftlicher Produktivität herangezogen. Dieser Schwerpunkt ermöglicht mir eine tiefgreifende Analyse von Publikationen über einen Zeitraum von mehr als einem Jahrhundert. Zeitschriftenartikel in hochklassigen und möglichst internationalen Journalen bilden den gold standard wissenschaftlichen Outputs in den hier untersuchten Mathematik, Ingenieur-, Natur- und Technikwissenschaften sowie der Medizin (STEM+). Meine Daten basieren auf einem stratifizierten, repräsentativen Sample (siehe ausführlich Kapitel 6) publizierter Zeitschriften, die als Rohdaten aus Thomson Reuters Web of Science Science Citation Index Expanded (SCIE) zur Analyse zur Verfügung stehen (eine vergleichbare Datenbank stellt Elseviers Scopus bereit). Methodologisch wird eine Kombination aus einer vergleichenden institutionelle Analyse ausgewählter Länder, eine historische Untersuchung des deutschen Hochschul- und Wissenschaftssystems und eine systematische, globale Auswertung bibliometrischer Publikationsdaten angestrebt. Der SCIE umfasst mehr als 90 Millionen Einträge (gespeichert werden nahezu alle Typen wissenschaftlichen Outputs), hauptsächlich aus den oben genannten Fächergruppen. Diese Arbeit beschränkt sich auf originale Zeitschriftenartikel (Originalmitteilungen), da lediglich dieser Publikationstyp zertifiziertes und neues Wissen enthält. Der SPHERE Datensatz umfasst publizierte Zeitschriftenartikel aus den Jahren 1900 bis 2010. Von 1900 bis 1970 wurden die Daten in 5-Jahres-Schritten mittels einer geschichteten Zufallsstichprobe ausgewählt. Ab 1975 stehen die Daten vollständig und ab 1980 in Jahresschritten zur Verfügung. Abhängig von der untersuchten Fragestellung werden die Daten in 5-Jahres- oder 10-Jahres-Schritten analysiert. Eine detaillierte Beschreibung des Samplings und der Gewichtung der Daten kann den Abschnitten 6.2.2 und 6.8 entnommen werden. Unter Berücksichtigung dieser Kriterien werden 17.568 unterschiedliche Zeitschriften (42.963 Zeitschriften, wenn dieselbe Zeitschrift in unterschiedlichen Jahren mehrfach berücksichtigt wird) und 5.089.233 Forschungsartikel untersucht. Um die Daten für die Analyse aufzubereiten muss eine intensive Vorarbeit geleistet werden. Sie werden umfassend (nach-)kodiert und bereinigt. Besonders häufig sind Fehler oder fehlende Informationen auf Ebene der Länder und/oder der Organisationen/Organisationsformen, in denen die Forschung betrieben wurde. Im Zeitraum von Juni 2013 bis Dezember 2015 habe ich die Originalzeitschriften und -artikel in Online-Zeitschriftendatenbanken oder Archiven verschiedener Universitätsbibliotheken eingesehen, begutachtet und mit Hilfe einer Excel-Tabelle katalogisiert und fehlende Informationen, wenn vorhanden, ergänzt. In der Bibliometrie werden verschiedene Vorgehensweisen diskutiert, wie Publikationen gezählt werden können. Die Analysen dieser Arbeit basieren hauptsächlich auf der whole count Methode (siehe Tabelle 1). Die Entscheidung basiert auf der Annahme, dass jeder Autor, jede Organisation, oder jedes Land gleichermaßen zu einer Publikation beigetragen hat. Folglich kann es zu einer Verzerrung bzw. Überschätzung der Ergebnisse kommen, da Zeitschriftenartikel mehrfach gezählt werden, wenn sie in Form von Forschungskooperationen publiziert wurden. Um die absolute Anzahl an Publikationen (weltweit, Europa, Deutschland) zu ermitteln, wird die Gesamtzahl an Artikeln pro Jahr (ohne Duplikate) berechnet. Zusammenfassung der wichtigsten Ergebnisse Der empirische Teil meiner Arbeit ist in drei Teile untergliedert. Die folgenden Abschnitte fassen die jeweils wichtigsten Ergebnisse zusammen. The Global Picture – Hochschul- und Wissenschaftssysteme im Vergleich Im Mittelpunkt meiner Dissertation steht die Frage, welche Organisationsformen Wissenschaft produzieren. Um die Ergebnisse der detaillierten Fallstudie einordnen und bewerten zu können, erfolgt zunächst eine Einbettung in den globalen und europäischen Kontext. Die forschungsleitenden Fragen, wie hat sich die wissenschaftliche Produktivität weltweit und im europäischen Vergleich zwischen 1900 und 2010 entwickelt und wie war/ist das deutsche Hochschul- und Wissenschaftssystem in die globalen Entwicklungen der Hochschulbildung und Wissenschaft im zeitverlauf eingebettet, wird folgendermaßen beantwortet: In einem ersten Schritt wird gezeigt, dass das weltweite wissenschaftliche Wachstum zwischen 1900 und 2010 exponentiell verlief und dieser Trend vermutlich bis heute anhält (siehe Abbildungen 3 und 10, S. 50, 147). Die massive Ausdehnung wissenschaftlichen Wissens hatte und hat auch heute noch einen großen Einfluss auf gesellschaftliche Entwicklungen, die nicht auf den wirtschaftlichen und technischen Fortschritt beschränkt sind. Ich werde darstellen, dass Hochschul- und Wissenschaftssysteme weltweite Gemeinsamkeiten aufweisen, die zu einer ähnlichen Entwicklung und Ausweitung wissenschaftlicher Produktivität geführt haben. Im Vergleich wichtiger europäischer Länder (Deutschland im Vergleich mit Großbritannien, Frankreich, Belgien und Luxemburg), kann gezeigt werden, dass zwischen der weltweiten Ausweitung der Wissenschaft, dem Anstieg an Publikationen und der Expansion von modernen Forschungsuniversitäten ein Zusammenhang besteht (siehe Abschnitt 7.2; Powell, Dusdal 2016, 2017a; 2017b im Druck). So wurde ein globales Feld der Wissenschaft aufgespannt, das als übergeordneter Rahmen fungiert. Drei geografische Zentren wissenschaftlicher Produktivität werden im Zeitverlauf identifiziert: Europa, Nordamerika und Asien. Sie haben zu unterschiedlichen Zeitpunkten an Bedeutung gewonnen oder verloren, doch zum heutigen Zeitpunkt tragen sie alle zur wissenschaftlichen Produktivität in den untersuchten Fächergruppen bei. Allerdings sind besonders in Asien die Wachstumsraten massiv angestiegen (Powell et al 2017 im Druck). Zweitens investieren alle Länder weltweit in Forschung und Entwicklung (FuE) (siehe Abbildung 9, S. 140). Diese Investitionen haben einen Einfluss auf ihre wissenschaftliche Produktivität. Zwischen einzelnen Ländern sind zum Teil große Unterschiede in der absoluten Publikationszahl und der relativen wissenschaftlichen Produktivität feststellbar. Nicht nur Investitionen in FuE tragen zur Expansion der Wissenschaft bei, sondern auch die Anmeldung von Patenten, höhere Studierendenzahlen, eine gestiegene Anzahl an Forschern, die Ausweitung von Forschungsaktivitäten in viele gesellschaftliche Teilbereiche, die Entwicklung von Forschungsprodukten und Neugründungen von Universitäten (Powell, Baker, Fernandez 2017 im Druck). Im Zuge der Hochschulexpansion und der Massifizierung der Hochschulbildung in den 1960er und 70er Jahren sind besonders die Studierendenzahlen und die Anzahl der Wissenschaftler extrem angestiegen. Es kam also zur Ausweitung des kompletten Hochschul- und Wissenschaftssystems und nicht nur zu einer Erhöhung der Anzahl an Publikationen. Im Umkehrschluss kann ein Teil des Anstiegs wissenschaftlicher Publikationen auf eine steigende Anzahl an Wissenschaftlern zurückgeführt werden. Drittens kann die von Derek J. de Solla Price aufgestellte These, dass das exponentielle Wachstum wissenschaftlicher Literatur irgendwann abflachen müsse, wiederlegt werden (siehe Abschnitt 2.4; Abbildungen 4 und 10, S. 53, 147). Obwohl einschneidende historische, politische, wirtschaftliche und technologische Ereignisse sowie Ereignisse bezogen auf die Hochschulen und Wissenschaft (siehe Abbildung 11, S. 150) kurzfristig zu einer Verringerung der Publikationszahlen geführt haben, wurde die Wachstumskurve nicht nachhaltig beeinflusst. Im Jahr 2010 wurden weltweit fast eine Million Zeitschriftenartikel in den Natur- und Technikwissenschaften sowie der Medizin publiziert. In Abschnitt 7.2.2 zeige ich, dass die Anzahl der publizierten Zeitschriftenartikel im Verhältnis zu den Ausgaben für FuE, der Größe der Hochschul- und Wissenschaftssysteme und der Anzahl der Einwohner (siehe Abbildung 12, S. 159) und Wissenschaftler (siehe Tabelle 3, S. 162; Abbildung 13, S. 164) relativiert werden müssen. Die anfängliche extreme Expansion der wissenschaftlichen Publikationen in den Mathematik, Ingenieur-, Natur- und Technikwissenschaften sowie der Medizin basiert auf einem allgemeinen Wachstum der Hochschul- und Wissenschaftssysteme (siehe oben). Unterschiedliche institutionelle Settings und Organisationsformen, in denen Wissenschaft produziert wird, haben einen Einfluss auf die wissenschaftliche Produktivität. Anhand der ausgewählten Fallbeispiele (Deutschland, Großbritannien, Frankreich, Belgien und Luxemburg) werde ich darlegen, dass Hochschul- und Wissenschaftssysteme, die über forschungsstarke Universitäten verfügen, höchst produktiv sind. Es kommt also nicht nur darauf an, wie viele Wissenschaftler innerhalb eines Systems beschäftigt werden, sondern auch darauf, in welchen institutionellen Settings sie arbeiten. Fünftens, im internationalen Vergleich trägt Deutschland immer noch erheblich zur wissenschaftlichen Produktivität in den untersuchten Fächern bei. Mit einer Wachstumsrate von 3,35% Prozent folgt Deutschland den USA und Japan. Im Jahr 2014 wurden in Deutschland 84,5 Mrd./€ für FuE von der Regierung bereitgestellt. Dies entspricht einem Anteil von 2,9 Prozent des BIP. Somit wurde der EU-Richtwert von 2020 von 3 Prozent lediglich knapp verfehlt. Im Jahr 2010 wurden in Deutschland insgesamt 55.009 Zeitschriftenartikel in den STEM+-Fächern publiziert (siehe Tabelle A5 im Anhang). Im Vergleich der absoluten Zahlen mit Großbritannien, Frankreich, Belgien und Luxemburg nimmt das Land die Spitzenposition ein. Die Größe des Hochschul- und Wissenschaftssystems hat somit einen Einfluss auf die Publikationsleistung. Werden die Zahlen in einem nächsten Schritt mit anderen Schlüsselindikatoren in Beziehung gesetzt, verändert sich die Leistung der miteinander verglichenen Systeme zum Teil erheblich. Gemessen an der Einwohnerzahl werden in Deutschland weniger Zeitschriftenartikel publiziert als in Belgien oder Großbritannien. Die Anzahl der beschäftigten Wissenschaftler betrug in Deutschland im selben Jahr 1000:4. Nur in Luxemburg und Großbritannien ist das Verhältnis von Wissenschaftlern zur Einwohnerzahl größer. Das Zusammenspiel der Organisationsformen der Wissenschaft in Deutschland von 1900 bis 2010 Auf Basis der Analysen zum globalen und europäischen Kontext der Entwicklung wissenschaftlicher Produktivität im Zeitverlauf (siehe Kapitel 7) folgt eine tiefgreifende, institutionelle Analyse des deutschen Hochschul- und Wissenschaftssystems (siehe Kapitel 8). Sie dient als Ein- und Überleitung zur detaillierten empirischen Auswertung der Daten zum deutschen Hochschul- und Wissenschaftssystem. Hier werden die wichtigsten Institutionen und Organisationen sowie das organisationale Feld der Wissenschaft (Universitäten, Fachhochschulen, außeruniversitäre Forschungseinrichtungen) vorgestellt. Zudem diskutiere ich die Unterschiede zwischen Ost- und Westdeutschland zur Zeit des geteilten Deutschlands (1945-1990). Eine Zusammenfassung der wichtigsten Ergebnisse zeigt, dass die Entwicklung der Publikationszahlen in Deutschland dem weltweiten und europäischen Trend (im kleineren Umfang) folgt (siehe Abbildung 16, S. 208). Es kam sowohl zu einer Expansion des wissenschaftlichen Wissens in Form eines exponentiellen Anstiegs an Publikationen, als auch zu einer Erhöhung der Vielfalt wissenschaftlicher Produktivität im Zeitverlauf (siehe Abschnitte 9.1 und 9.3). Die folgenden vier Forschungsfragen werden beantwortet: Wie hat sich die wissenschaftliche Produktivität in Deutschland zwischen 1900 und 2010 entwickelt? Unter allen Wissenschaft produzierenden Organisationsformen, was tragen die "klassischen" Formen zur wissenschaftlichen Produktivität bei? Welche Organisationsformen stellen die besten Bedingungen für wissenschaftliche Produktivität bereit? Welche Einzelorganisationen gehören zu den forschungsstärksten in Deutschland? Wie oben beschrieben, verläuft das Wachstum wissenschaftlicher Produktivität in Deutschland zwischen den Jahren 1900 und 2010 exponentiell. Die Kurve ist vergleichbar mit der weltweiten und europäischen Entwicklung, wenn auch in kleinerem Umfang. Zwar hatten auch hier verschiedene Ereignisse, wie der Zweite Weltkrieg, die Weltwirtschaftskrise oder die Wiedervereinigung, einen kurzfristigen Einfluss, allerdings kam es zu keiner Verlangsamung oder Abflachung des Wachstums (siehe Abbildung 11, S. 150). Bis ins Jahr 2010 wuchs die Anzahl der publizierten Zeitschriftenartikel in Deutschland auf 55.009 an. Zweitens, zeigt eine detaillierte Betrachtung der wissenschaftlichen Produktivität Westdeutschlands im Vergleich zu Ostdeutschland, dass der Anstieg der gesamtdeutschen Publikationszahlen auf einem Anstieg der Zahlen in Westdeutschland basiert (siehe Abbildung 17, S. 211). Zwischen 1950 und 1990 verlief die Kurve der wissenschaftlichen Produktivität in der DDR flach und auf einem niedrigen Niveau. Hieraus kann geschlossen werden, dass das Hochschul- und Wissenschaftssystem der DDR, aufbauend auf seinem Akademiemodell, keine guten Bedingungen für wissenschaftliche Forschung bereitgestellt hat. Drittens, zeigt die detaillierte Analyse der "klassischen" Organisationsformen der Wissenschaft, Universitäten und außeruniversitäre Forschungsinstitute, dass Universitäten im Zeitraum von 1975 bis 2010 in den STEM+-Fächern die Hauptproduzenten wissenschaftlicher Zeitschriftenartikel waren und sind (siehe Abbildung 18, S. 217). Im Untersuchungszeitraum beträgt der prozentuale Anteil der universitätsbasierten Forschung im Mittel 60 Prozent. Somit verteidigen sie ihren Status als wichtigste Organisationsform gegenüber anderen. Die Modus 2 Hypothese, dass es im Zeitverlauf zu einem Absinken des prozentualen Anteils der Universitäten kommen muss, wird verworfen. Der Anteil der Nicht-Universitäten liegt hingegen im Durchschnitt bei 40 Prozent. Obwohl die Richtigkeit der folgenden Aussage nicht empirisch überprüft werden kann, wird davon ausgegangen, dass es sich tatsächlich sogar um einen Anstieg wissenschaftlicher Produktivität der Universitäten im Zeitverlauf handelt. Unter Berücksichtigung einer Verschiebung der zur Verfügung stehenden finanziellen Mittel für FuE zugunsten der außeruniversitären Forschungsinstitute haben die Universitäten im Zeitverlauf mit weniger Forschungsgeldern immer mehr wissenschaftliche Zeitschriftenartikel publiziert. Viertens, obwohl nicht nur Wissenschaftler innerhalb von Universitäten und Forschungsinstituten Zeitschriftenartikel veröffentlichen, haben diese beiden Organisationsformen zusammen mehr als drei Viertel aller Publikationen seit den 1980er Jahren verfasst. Aber auch schon in den Jahren zuvor ist ihr gemeinsamer Anteil sehr hoch. Zu den wichtigsten Wissenschaftsproduzenten gehören neben ihnen die (Industrie-)Unternehmen, Behörden und Ressortforschungseinrichtungen und Krankenhäuser (für eine ausführliche Beschreibung der Matrix der Organisationsformen siehe Tabelle 4, S. 222f und Abbildungen 19 und 20, S. 220, 246). Dennoch sind die Universitäten die treibende Kraft wissenschaftlicher Produktivität seit mehr als einem Jahrhundert. Mit ihrer speziellen Ausrichtung auf Grundlagenforschung stellen sie die besten Bedingungen für wissenschaftliche Forschung bereit und gehören zu den ältesten Institutionen mit einem hohen Institutionalisierungsgrad. Universitäten sind widerstandsfähig gegenüber Veränderungen und critical junctures haben keinen negativen Einfluss auf ihre wissenschaftliche Produktivität. Alle anderen im Datensatz gefundenen oder aus der Theorie abgeleiteten Organisationsformen (Akademien, Vereine/Gesellschaften, wissenschaftliche Infrastrukturen, Laboratorien, Militär, Museen und nichtuniversitäre Bildungseinrichtungen) spielen nur eine untergeordnete Rolle und wurden in der Gruppe "sonstige" Organisationsformen zusammengefasst. Fünftens, eine Auswertung der zehn forschungsstärksten Einzelorganisationen Deutschlands im Jahr 2010 bestätigt die oben beschriebenen Ergebnisse, da lediglich Universitäten und außeruniversitäre Forschungsinstitute dieser Spitzengruppe zugehören. Eine Zusammenfassung der Publikationen der Institute unter ihrer Dachorganisation zeigt, dass die Institute der Max-Planck-Gesellschaft und der Helmholtz-Gemeinschaft maßgeblich zur Produktion wissenschaftlichen Wissens in Deutschland beitragen. Sie übertreffen zusammengezählt die Publikationstätigkeit einzelner Universitäten bei weitem (siehe Tabelle 5, S. 259f). Eine Einzelauswertung der Institute zeigt aber auch, dass sie allgemein genommen, aufgrund ihrer Größe und der Anzahl der Wissenschaftler, nicht mit den Universitäten konkurrieren können. Zudem gehört die hybride Organisation, die Charité – Universitätsmedizin Berlin zu den führenden zehn Wissenschaftsproduzenten im deutschen Hochschul- und Wissenschaftssystem. Nationale und internationale Kooperationen wissenschaftlicher Forschung Im letzten empirischen Kapitel der Arbeit wird auf der Makroebene die Frage beantwortet, welchen Einfluss die zunehmende Internationalisierung der Forschung auf nationale und internationale Kooperationen in Form von Publikationen in wissenschaftlichen Zeitschriften hat. Durch die voranschreitende Globalisierung und Internationalisierung haben nationale und internationale Kooperationen stark zugenommen. Zu den wichtigsten Gründen für (internationale) Kooperationen in den Mathematik, Ingenieur-, Natur- und Technikwissenschaften sowie der Medizin zählen unter anderen die Reputation der Forschungsorganisation und der Mitautoren, eine höhere Sichtbarkeit innerhalb der wissenschaftlichen Gemeinschaft, mehr Möglichkeiten für interdisziplinäre Forschung oder auch eine bessere Ausstattung der Labore. Heute sind bereits ein Drittel aller Forschungsartikel weltweit das Ergebnis wissenschaftlicher Kooperationen und lediglich ein Viertel wird von einem Autoren verfasst. Übertragen auf die Organisation der Forschung bedeutet der von Humboldt geprägte Leitsatz "in Einsamkeit und Freiheit", dass wissenschaftliche Forschung nicht mehr in alleiniger Verantwortung eines Wissenschaftlers durchgeführt wird, sondern das Ergebnis von Kooperationen ist. Netzwerke werden immer wichtiger, um gemeinsame Interessen zu teilen, an einer Fragestellung zu arbeiten sowie die aus der Forschung gewonnenen Erkenntnisse gemeinsam zu publizieren. Wissenschaftler, Organisationen und Länder unterscheiden sich dahingehend, wie sie ihre Forschung organisieren und folglich auch darin, wie sie ihre wissenschaftliche Zusammenarbeit gestalten. Diese Wege sind abhängig von der geografischen Lage und Größe des Hochschul- und Wissenschaftssystems, dem organisationalen Feld und den Einzelorganisationen. In dieser Arbeit werden unterschiedliche Muster wissenschaftlicher Zusammenarbeit präsentiert. Die Ergebnisse zeigen einen massiven Anstieg wissenschaftlicher Kooperationen in Form von gemeinsamen Publikationen im Zeitverlauf. Bis in die 1990er Jahre hinein publizierten die Wissenschaftler in den hier untersuchten Länder (Frankreich, Deutschland, Großbritannien, USA, Japan, China, Belgien und Luxemburg) hauptsächlich in Alleinautorenschaft. Erst danach kam es zu einem Anstieg an Kooperationen: Im Jahr 2000 wurden lediglich 37 Prozent aller Artikel von einem Autor verfasst. Im Jahr 2010 erreichte der Anteil einen Tiefststand von lediglich einem Fünftel Alleinautorenschaften (siehe Tabelle 6, S. 279f). Allerdings unterschieden sich die Länder hinsichtlich ihres Anteils an Ko-Autorenschaften zum Teil deutlich voneinander. Literatur Powell, J. J. W. & Dusdal, J. (2016). Europe's Center of Science: Science Productivity in Belgium, France, Germany, and Luxembourg. EuropeNow, 1(1). http://www.europenowjournal.org/2016/11/30/europes-center-of-science-science-productivity-in-belgium-france-germany-and-luxembourg/. Zugriff: 13.12.2016. Powell, J. J. W. & Dusdal, J. (2017a): Measuring Research Organizations' Contributions to Science Productivity in Science, Technology, Engineering and Math in Germany, France, Belgium, and Luxembourg. Minerva, (). Online first. DOI:10.1007/s11024-017-9327-z. Powell, J. J. W. & Dusdal, J. (2017b im Druck). The European Center of Science Productivity: Research Universities and Institutes in France, Germany, and the United Kingdom. IN Powell, J. J. W., Baker, D. P. & Fernandez, F. (Hg.) The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing. Powell, J. J. W., Baker, D. P. & Fernandez, F. (2017, im Druck). The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing. Powell, J. J. W., Fernandez, F., Crist, J. T., Dusdal, J., Zhang, L. & Baker, D. P. (2017, im Druck). The Worldwide Triumph of the Research University and Globalizing Science. IN Powell, J. W., Baker, D. P. & Fernandez, F. (Hg.) The Century of Science: The Worldwide Triumph of the Research University, International Perspectives on Education and Society Series. Bingley, UK, Emerald Publishing.
A) Motivation und Problemstellung Der Computer ist heute eines der wichtigsten Hilfsmittel beim Entwurf und der Entwicklung von Fahrzeugen. Zunächst wurde er von Konstrukteuren für das Computer Aided Design (CAD) von virtuellen Fahrzeugmodellen eingesetzt. Inzwischen ist er in vielen anderen Bereichen der Fahrzeugentwicklung unentbehrlich geworden: der Entwicklungszyklus von Automobilen ist durch die Computer-gestützte numerische Simulation substanziell verkürzt worden. An virtuellen Prototypen gewonnene Ergebnisse können zunächst optimiert und anschließend am realen Prototypen validiert werden. Untersuchungen der Fahrdynamik, des Crash-Verhaltens, der Innenraumakustik und der Außenhautumströmung sind nur einige Anwendungsfelder, in denen Computer-basierte Technologien zur Senkung der Entwicklungskosten beitragen. Nach den Vorgaben aus dem Design wird ein Konstruktionsmodell erstellt; die erzeugten CAD-Daten beschreiben die Fahrzeugkomponenten anhand parametrischer Flächen und zusätzlicher Materialinformationen. Um die Daten in numerischen Simulationen verwenden zu können, müssen die Flächenbeschreibungen zunächst diskretisiert werden. Für die Strukturmechaniksimulation wird das CAD-Modell daher in ein Finite-Element-Modell umgewandelt, das dann zum größten Teil aus drei- und viereckigen Schalenelementen besteht. Das Finite-Element-Modell wird in einem Vorverarbeitungsschritt aufbereitet und mit zusätzlichen Daten ergänzt, bevor es dem Simulationsprogramm als Eingabedaten übergeben wird. Nach der meist sehr zeitintensiven Simulation, die für Gesamtfahrzeugmodelle mehrere Tage in Anspruch nehmen kann, liegen als Ergebnis große Datenmengen vor. Diese können aufgrund ihres Umfangs und ihrer Komplexität nur mit ausgereiften Visualisierungswerkzeugen ausgewertet werden. Die Erkenntnisse aus der Simulationsanalyse fließen an den Konstrukteur zurück. So schließt sich der Zyklus, der den virtuellen Prototypen solange iterativ verbessert, bis alle Zielgrößen erreicht werden. Bereits Anfang der achtziger Jahre wurden Strukturanalysen mit Hilfe numerischer Simulation anhand einfacher Balkenmodelle durchgeführt. Die Modellkomplexität geht mit der Leistungssteigerung der Hardware und der Weiterentwicklung der Simulationssoftware einher: die Modellgröße hat sich seitdem alle drei Jahre mehr als verdoppelt. Der Notwendigkeit, dem Entwicklungsingenieur entsprechende Visualisierungswerkzeuge zur Verfügung zu stellen, wurde bisher von den Herstellern der Simulationssoftware mit eigenen Lösungen begegnet. Anfangs entstanden einfache Darstellungsanwendungen, die das Fahrzeug als Gittermodell zeichneten, ohne einen räumlichen Eindruck zu vermitteln; die Applikationen wurden weiterentwickelt, entsprechen jedoch heute in der Regel nicht mehr dem, was im Bereich der Softwareentwicklung und vor allem der Visualisierung Stand der Technik ist. Der Fortschritt durch wissenschaftliche Forschung in der Computergraphik und die Weiterentwicklung der Hardware, insbesondere der Graphiksubsysteme, lässt die Lücke zwischen dem, was in der Visualisierung möglich ist, und dem, was in kommerziellen Produkten zur Datenanalyse angeboten wird, immer größer klaffen. Zudem ist die Wissenschaft im Bereich der angewandten Informatik stets bemüht, Einsatzgebiete zu identifizieren, in denen neu entwickelte Methoden evaluiert und verbessert werden können. Eine enge Zusammenarbeit zwischen Ingenieuren und Wissenschaftlern erscheint daher als sehr vielversprechend und zwingend notwendig. Die vorliegende Arbeit ist im Rahmen einer engen Kooperation mit der Berechnungsabteilung der BMW-Gruppe entstanden. Sie hat zum Ziel, den bestehenden Fahrzeugentwicklungsprozess im Umfeld der Strukturmechaniksimulation zu analysieren und durch Adaption neuer Methoden der Computergraphik aus anderen Bereichen sowie durch Entwicklung neuer Visualisierungstechniken und Interaktionsmechanismen zu beschleunigen. Eine Evaluation der eingesetzten Konzepte soll anhand einer prototypischen Applikation vorgenommen werden. Bisher wurde in der Visualisierung im Bereich der Strukturmechaniksimulation auf Basis von vierseitigen Schalenelementen nur wenig geforscht. Für die Analyse von Crash-Simulationsergebnissen müssen große, zeitabhängige Datensätze effizient verarbeitet werden. Dabei soll die Netzstruktur des Finite-Element-Modells erhalten bleiben, ohne dass dabei auf hohe Interaktionsraten verzichtet werden muss. Eine schnelle Datenaufbereitung spielt dabei eine ebenso wichtige Rolle, wie die Navigation durch das virtuelle dreidimensionale Fahrzeugmodell mit Hilfe der an einem Standardarbeitsplatz vorhandenen Eingabegeräte. Die Weiterentwicklung der Simulationscodes hat es ermöglicht, Teilstrukturen mit Randbedingungen zu versehen, so dass nun Berechnungen an Teilmodellen vorgenommen werden können. In der Karosserieberechnung werden anstatt homogen vernetzter Gesamtmodelle seitdem unabhängig voneinander vernetzte Bauteile zu virtuellen Fahrzeugmodellen zusammengesetzt. Der Netzanschluss benachbarter Bauteile wird nun nicht mehr über das aufwändige Abgleichen und Nutzen gemeinsamer Randknoten hergestellt; stattdessen überlappen die Bauteilnetze in Flanschbereichen, wo sie durch neu entwickelte Verbindungselemente aneinander gebunden werden. Dies hat unter anderem den Vorteil, dass einzelne Bauteile durch Varianten ausgetauscht werden können, ohne dass die Umgebung neu vernetzt werden muss. Wichtige Entscheidungen müssen bereits in der frühen Phase eines Fahrzeugprojektes aufgrund der durch numerische Simulation gewonnenen Erkenntnisse getroffen werden. Das setzt voraus, dass die bis dahin verfügbaren Konstruktionsdaten in rechenbare Simulationsmodelle umgesetzt werden können. Durch die unabhängige Vernetzung einzelner Bauteile und den unterschiedlichen Konstruktionsstand der verschiedenen Fahrzeugkomponenten kommt es nach der Zusammenführung häufig zu Berührungen und Durchdringungen der Bauteilnetze im diskretisierten Finite-Element-Modell. Diese müssen zunächst detektiert und beseitigt werden, da sie ansonsten die Simulationsergebnisse verfälschen würden. Darüber hinaus müssen die Bauteilnetze miteinander durch Verbindungselemente verbunden werden. Da die Konstruktionsdaten in der frühen Phase jedoch keine vollständigen Verbindungsdaten beinhalten, muss der Berechnungsingenieur den Datensatz mit entsprechender Information aufbereiten. Die Vorverarbeitung von Eingabedaten für den Simulationsprozess nimmt angesichts steigender Variantenrechnungen und einer halbwegs automatisierten Standardauswertung der Simulationsergebnisse gegenüber der Nachbearbeitung einen immer höheren Stellenwert ein. Derartige Ergänzungen der Simulationsmodelle mussten bisher mit Hilfe eines Text-Editors direkt an den Eingabedateien vorgenommen werden. Netzfehler und fehlende Anbindungen zwischen Bauteilen konnten lediglich durch Anrechnen des Modells entdeckt werden. Dazu wurde der Simulationsprozess gestartet und nach einiger Zeit wieder abgebrochen. Durch die Analyse der bis dahin berechneten Zwischenergebnisse werden derartige Unzulänglichkeiten des Eingabemodells sichtbar. Vorweggenommene Konsistenzprüfungen machen zeitaufwändige Anrechnungen überflüssig. Weiteres Prozessoptimierungspotenzial liegt in der Integration und Angleichung verschiedener Werkzeuge. Eine enge Kopplung des Simulationsprozesses an die Vor- und Nachbearbeitung der Daten durch ein und dieselbe Applikation, die sowohl Ein- als auch Ausgabedaten verarbeiten kann, schafft die Grundlage für eine schnelle Iteration im Optimierungsprozess und trägt zur angestrebten Reduzierung der vom Ingenieur zu bedienenden Vielzahl von Applikationen bei. In Zeiten fortschreitender Globalisierung und Fusionierung, aber auch durch zunehmendes Outsourcing der Teilmodellerstellung an darauf spezialisierte Dienstleistungsunternehmen steigt der Kommunikationsbedarf über räumliche Grenzen hinweg zusammenarbeitender Entwicklungsteams. Kostenintensive Besprechungen, zu denen sich alle Beteiligten an einem Ort zusammenfinden müssen, können nur durch Verbesserung der bereits vorhandenen Fernkommunikationsinfrastruktur reduziert werden. Da auf die gemeinsame Betrachtung der Modelldaten als Diskussionsgrundlage bei Besprechungen nicht verzichtet werden kann, bietet sich eine netzwerkbasierte Kopplung entfernter Arbeitsplätze an, um kleinere Besprechungstermine durch Telefonate mit zeitgleicher kooperativer Visualisierungssitzung am Arbeitsplatzrechner ersetzen zu können. Ein weiterer Aspekt befasst sich mit der Absicherung der Zuverlässigkeit von Simulationsergebnissen. Um eine Aussage darüber machen zu können, welche Modifikation der Fahrzeugstruktur das simulierte Verhalten positiv beeinflusst hat, müssen zunächst alle Einflussfaktoren, die auf die Simulation wirken, analysiert werden. Dies geschieht in Stabilitätsanalysen, in denen anhand gleicher Eingabedaten die Streuung der Simulationsergebnisse gemessen und die Ursache dafür erforscht wird. Durch konstruktive Maßnahmen soll in Ursprungsbereichen maximaler Streuung das Modell dahingehend modifiziert werden, dass gleiche Eingabedaten zu annähernd gleichen Simulationsresultaten führen. Ziel dieser Arbeit ist, das Pre- und Postprocessing von Strukturmechaniksimulation im Fahrzeugentwicklungsprozess bezüglich neuer Funktionalität und Leistungsfähigkeit durch die Einbeziehung neuer Graphiktechnologien sowie durch die Entwicklung neuer Visualisierungsalgorithmen signifikant voranzubringen. B) Beiträge dieser Arbeit Da die Arbeit in enger Zusammenarbeit mit der Karosserieberechnungsabteilung der BMW-Gruppe entstand und die Forschungsergebnisse direkt von den Ingenieuren an alltäglichen Problemstellungen eingesetzt werden sollten, mussten zunächst Voraussetzungen für eine erhöhte Akzeptanz bei den Anwendern geschaffen werden. Dazu gehören vor allem kurze Ladezeiten der Daten, eine intuitiv zu bedienende Benutzerschnittstelle sowie komfortable Funktionalität, die es ermöglicht, die Aufgaben schneller zu lösen als mit anderen Applikationen. Die Analyse der zu verarbeitenden zeitabhängigen Simulationsdaten und der zum Einlesen zur Verfügung gestellten Bibliothek führte zu einer geeigneten internen Datenstruktur, die eine effiziente Datenaufbereitung erlaubt und damit zu geringeren Start-up-Zeiten führt als bei vielen kommerziell verfügbaren Visualisierungswerkzeugen. Ferner resultiert aus der Evaluation verschiedener Szenengraphbibliotheken unter Berücksichtigung der Rechnerplattform im Anwenderumfeld die Entscheidung zu Cosmo3D / OpenGL Optimizer. Durch die Datenstrukturen und Funktionalitäten der Bibliothek bleibt der Ressourcenbedarf im Zusammenspiel mit einem optimierten Szenengraph-Design im Rahmen dessen, was auf einem Standard-Arbeitsplatzrechner zur Verfügung steht. Zur Beschleunigung der Bildsynthese werden bereits bekannte Verfahren zur Optimierung polygonaler Modelle für die Weiterverarbeitung in der OpenGL Pipeline mit adaptierten Algorithmen verglichen, die unter Berücksichtigung der zugrunde liegenden Daten Quadrilateralstreifen maximaler Länge bilden. Zusätzlich wird der Einsatz verschiedener Detailstufen im CAE-Umfeld untersucht und eine Lösung zur deutlichen Steigerung der Bildwiederholrate während der Navigation durch das Finite-Element-Modell präsentiert. Durch die Entwicklung und Evaluation Textur-basierter Visualisierungsverfahren werden deren Vorzüge anhand verschiedener Beispiele aus dem Berechnungsumfeld verdeutlicht. Daraus lässt sich die Notwendigkeit ableiten, Standard-Arbeitsplatzrechner in Zukunft mit entsprechender Graphik-Hardware auszustatten, um von den Möglichkeiten moderner Visualisierungsalgorithmen profitieren zu können. Im Rahmen der vorliegenden Arbeit wurde die Möglichkeit geschaffen, nach dem interaktiven Zusammenführen der Modellkomponenten aus verschiedenen Datenquellen auftretende Netzfehler zu visualisieren und selektiv zu beheben. Dazu kommen auf hierarchischen Datenstrukturen basierende Algorithmen zum Einsatz. Verbunden mit Methoden zur Darstellung und interaktiven Modifikation von Verbindungselementen sowie der Detektion fehlerhafter Schweißpunktdaten wird die Grundlage geschaffen, um Finite-Element-Modelle für die Crash-Simulation effizient aufzubereiten und die Modellerstellung für Variantenrechnungen stark zu vereinfachen. Speziell auf die Bedürfnisse der Berechnungsingenieure zugeschnittene Interaktions- und Navigationsmechanismen sowie frei bewegliche Clip-Objekte erleichtern den Umgang mit den Modelldaten. Durch die Entwicklung dreidimensionaler Selektionsobjekte und eine effiziente Schnittkraftberechnung steht die Kraftflussvisualisierung mit Hilfe dynamischer Kraftflussröhren nun auch als interaktives Analysewerkzeug im Postprocessing zur Verfügung. Die Berechnung der notwendigen Größen im Batch-Betrieb und die anschließende Zwischenspeicherung in einem eigenen Dateiformat ermöglicht die Standardauswertung von festgelegten Kraftflussverläufen im Anschluss an die Simulation. Dies trägt weiterhin zur Beschleunigung und Automatisierung der Nachverarbeitung bei. Mit der Entwicklung eines Bild- beziehungsweise Filmgenerators konnte mit Ergebnissen dieser Arbeit zur Entwicklung eines Integrationswerkzeuges für die Ablaufsteuerung und das Datenmanagement in der Karosserieberechnung beigetragen werden. Es werden zwei Lösungen für Szenarien einer kooperativen Sitzung mit mehreren Rechnern präsentiert. Die Ergebnisse zeigen auf, wie zeitaufwändige Treffen zwischen Ingenieuren durch Telefonate mit gleichzeitiger kooperativer Visualisierungssitzung ersetzt werden können. Das vorgestellte Verfahren zur Stabilitätsanalyse von Simulationsprozessen hilft, Ursprünge von Instabilitäten aufzudecken und die Aussagekraft der Simulationsergebnisse verbesserter Modelle zu erhöhen. Durch diese Arbeit ist eine prototypische Visualisierungsplattform für die Vor- und Nachbereitung von Strukturmechanikdaten namens crashViewer entstanden. Das objektorientierte Softwaredesign des Prototypen erlaubt die Integration weiterer Datenformate sowie die Implementierung neuer Algorithmen zu deren Evaluation im produktiven Einsatz in der Karosserieberechnung, aber auch in anderen CAE-Bereichen. C) Gliederung der Arbeit Im Folgenden wird ein Überblick über den Aufbau dieser Arbeit gegeben, woraus der Zusammenhang der Kapitel untereinander hervorgeht. Kapitel 2 motiviert die Entwicklung einer in die Simulation integrierten Vor- und Nachverarbeitungsapplikation. Zu Beginn führt das Kapitel in das breite Feld der digitalen Fahrzeugentwicklung ein. Das Umfeld der Crash-Simulation wird detaillierter betrachtet, wodurch ein Fundament für ein besseres Verständnis der darauffolgenden Kapitel geschaffen wird. Kapitel 3 gibt einen Überblick zu den Grundlagen der interaktiven Computergraphik und der Visualisierung. Darüber hinaus werden die der Crash-Simulation zugrunde liegenden Daten beschrieben, indem zunächst die Strukturen, aus denen sich ein Gesamtfahrzeugmodell im Allgemeinen zusammensetzt, erläutert werden und anschließend auf die Datenformate der Simulationseingaben beziehungsweise der Simulationsergebnisse eingegangen wird, um die breite Spanne der zu verarbeitenden Daten zu beleuchten. Kapitel 4 präsentiert ein effizientes Szenengraph-Design für zeitabhängige Finite-Element-Modelle mit invarianter Topologie. Dazu werden die notwendigen Grundlagen der verwendeten Graphikbibliotheken vermittelt und Erweiterungsmöglichkeiten diskutiert. Kapitel 5 erläutert die Architektur des im Rahmen dieser Arbeit entstandenen Prototypen und gibt einen Überblick über entwickelte Interaktionsmechanismen zur effizienten Datenanalyse. Kapitel 6 diskutiert verschiedene Verfahren zur Darstellungsbeschleunigung. Während sich die Quadrilateralstreifengenerierung und die Simplifizierung mit der Optimierung der modellierten Geometrie für eine effiziente Verarbeitung in der Graphik-Hardware auseinandersetzt, zeigt der letzte Teil dieses Kapitels, wie durch den Einsatz von Texturen zusätzliche Geometrieverarbeitung überflüssig wird. Kapitel 7 stellt spezielle Funktionalitäten für die Vorverarbeitung von Eingabemodellen vor. Außer der in verschiedenen Bereichen eingesetzten Distanzvisualisierung wird das interaktive Modifizieren von Schweißpunktdaten und die Parameterübertragung zwischen inkompatiblen Gittern erläutert. Kapitel 8 veranschaulicht Konzepte für die Nachverarbeitung von Simulationsergebnissen. Es werden Techniken zur Visualisierung skalarer und vektorieller Größen präsentiert. Darüber hinaus werden die interaktive Kraftflussvisualisierung und die Darstellung von Instabilitäten in Simulationsergebnissen betrachtet. Die CORBA-basierte Erweiterung zum gemeinschaftlichen Arbeiten räumlich getrennter Anwender, sowie die Batch-basierte Bild- und Film-Generierung von Strukturmechanikdaten schließen die Vorstellung der im Rahmen dieser Arbeit neu entwickelten Methoden ab. Kapitel 9 stellt die Ergebnisse dieser Arbeit in einen Kontext. An Beispielen aus dem produktiven Entwicklungsprozess werden die erzielten Fortschritte verdeutlicht und die Akzeptanz bei den Anwendern kritisch beleuchtet. Abschließend wird ein Überblick über weiterführende Arbeiten gegeben, die auf den vorliegenden Ergebnissen basieren. ; This thesis presents visualization techniques and interaction concepts that have been developed for the pre- and post-processing of structural mechanics. This work was done in cooperation with the crash simulation department of the BMW Group. The automotive industry's main goal is ensuring its share of a global market, which is becoming ever more competitive and dynamic. On the one hand, product quality has to be increased in relation to fuel consumption, weight, and passive safety. On the other hand the development process needs to be streamlined in order to reduce development costs and time to market. These objectives are hoped to be achieved by making extensive use of virtual prototyping. The vehicle development process has completely changed during the past two decades. In the early eighties finite element analysis found its way into the simulation of structural mechanics in the German automotive industry. Initially developed for military purposes, in 1983 a group of engineers of several automotive companies started feasibility studies based on finite element models containing less than 5,000 beam elements. Seven years later productive results of finite element analysis in structural mechanics started to influence car body development. In the second half of the nineties important project decisions were made during the early phase of the development process based on a deeper insight into crash behavior provided by crash-worthiness simulation results. Today, numerical simulation is an indispensable part of the computer aided product development chain in the automotive industry. After the design of a new car model is completed, a digital model is constructed by means of computer aided design (CAD). In a meshing step the created parametric surfaces defined by spline curves are discretized. The results describe the geometry of the car body by finite elements, for crash simulation mainly three- or four-sided shells but also beams and volumetric elements. The finite element model is completed, for example, with material properties, contact information, and boundary conditions. This is done in a preprocessing step. Once the simulation input data is available, the whole model is handed over to the simulation process which takes about one or two days using massive parallel processing. The deformation is recorded in a large result file. Commonly, the first 120 milliseconds of a crash are simulated and each two-thousandth time step is stored. A time step of less than one microsecond leads to a result file containing more than sixty snapshots. Typically, physical data such as acceleration, velocity, displacement, and forces per nodes or thickness, stress, strain, and other energies per element are recorded. During post-processing the information is analyzed in order to evaluate crash-worthiness. The feedback provided for the construction department closes the loop when all goals set for the car body structure have been attained. The virtual car body development in the pre- and post-processing of crash simulation divides into two main phases: (1) In the concept phase, new ideas are discussed and evaluated in order to reach a priority objective like minimizing car body weight. Only few people per car project are involved for a period of 12 to 18 months in this first stage. (2) After the basic decisions have been made regarding new concepts, a second phase follows which compromises all other fields to refine those concepts with respect to other objectives coming from the area of stability, dynamic or NVH. This phase requires many engineers from different departments for a period of more than 30 months to optimize the product. The later undesirable properties are revealed the higher the cost will be for the then necessary changes. Until the late nineties transitions between adjacent car body parts were modeled as two finite element meshes that share common nodes at the border. Each time a car body part was replaced by an optimized variant in order to enhance the crash behavior either the whole car model had to be re-meshed or border nodes had to be adapted manually. Therefore, preparing such variant models was a very time consuming task. After simulation codes like PAM-CRASH were able to simulate car body connections like for example spotwelds, finite element models became more like their counterparts made of steel. Now, a flange is constructed, along which adjacent car body parts can be connected without sharing common nodes. This allows for an independent meshing of car body parts and therefore for more variant computations. However, independent meshing lead to mesh penetration or even perforation in flange areas when inhomogeneous meshes are assembled. Thus, a new task arose for preprocessing where those mesh errors have to be removed in order to avoid error-prone simulation results. On the post-processing side, large time-dependent data sets require dedicated visualization methods that help the engineers to interpret the huge amount of data at interactive frame rates. Therefore, finite element meshes need to be prepared for an optimized processing in the graphics pipeline. Typical types of data that have to be visualized are scalar values, vectors, tensors or any combination thereof. In 1997, when most of the commercial visualization tools provided by solver companies as add-on to the simulation software could no longer provide state-of-the-art graphics, a demand arose for new visualization techniques available for productive use. Besides, the growing throughput caused by an increasing number of car body variants and the acceleration of computation hardware allowing more optimization cycles, made it necessary to automate as much processing steps as possible. The growing outsourcing of development tasks to suppliers and the number of merges in the automotive industry, which entail cooperation of corresponding departments at different sites, require a client-server-solution for cooperative work. Finally, the simulation community is concerned about the validity of their results compared to real crash-tests. It is important to detect and minimize the sources of scattering in the results originated by the simulation model or process. This is also a precondition for stochastic simulation, which is used in order to optimize the crash behavior by varying input parameters. The goal of this thesis is to provide solutions to some of the issues just stated. First of all, the applicability of different scene graph APIs is evaluated for large time-dependent data sets. APIs such as Performer or Cosmo3D / OpenGL Optimizer have been developed to take advantage of multiprocessing. Those APIs can perform model optimization during scene graph creation and benefit from multiprocessing using frustum culling and occlusion culling while traversing the scene graph to increase frame and interaction rates. Because of the large time-dependent databases and the limited memory of the workstations an efficient scene graph design is very important in order to handle the complex data interdependencies and to achieve high rendering speed. While five years ago the models consisted of about 250,000 finite elements with nearly the same number of nodes, today the size of the models has almost quadrupled. Since the element topology does not change in crash simulation, the connectivity of the finite elements needs to be stored just once. An index set representing the topology is shared across the sub-graphs of all time steps. A Gouraud shaded surface requires to do the edge detection on the state where geometry is deformed most, which is in general the last one. In order to minimize memory consumption, the index set is used for both coordinates and normals. Therefore, coordinates at vertices with multiple normals need to be added once per normal. Other scene graph nodes, e.g. the one specifying the appearance, can also be shared. Handling triangular elements as degenerate quadrilaterals allows to represent a mesh of three- and four-sided shell elements in one scene graph node. The prototype application named crashViewer, which was implemented to evaluate the methods developed in this thesis, uses Cosmo3D / OpenGL Optimizer for historical reasons: this bundle had been presented as predecessor of the 1997 announced Fahrenheit project, which was aborted two years later. Nevertheless, the proposed scene graph design allows to visualize 60 time steps of a model containing half a million elements and the same number of nodes with a memory consumption of 360 MB (flat-shaded) or 970 MB (Gouraud-shaded), provided that a crease angle of 20 degree leads to 40% more normals than vertices. One basic requirement for an interactive visualization application is that the frame rate does not fall below an acceptable minimum threshold. What "acceptable" means depends on data and experience with other tools. Generally speaking, visualization data should be rendered as fast as possible. For this reason, one aim of this work is to point out methods to optimize the finite element meshes' rendering acceleration. Two approaches are examined: (1) concatenation of adjacent elements to reduce data redundancy during geometry processing and (2) mesh simplification to remove information that does not significantly influence the shape of a car body part. Although OpenGL Optimizer provides a tri-stripper (opTriStripper) that is able to convert any polygonal mesh into strips of triangles, it is not applicable in this field because the original mesh structure should still be visible in wireframe mode. Hence, a quadrilateral stripper was developed, which analyses the mesh structure and generates many parallel bands of maximum length. As a matter of fact, quad-strips are not as versatile as tri-strips because each turn costs two extra vertices. However, compared to opTriStripper's reduction to 63.5% the proposed bandification algorithm reduces the number of referenced vertices to 54% of an unstripped representation averaged over 3,274 car body parts. Depending on the availability of vertex arrays the bandification leads to a rendering speed-up factor of about 4.5 without and 1.7 with vertex arrays in comparison to the unstripped geometry. In order to achieve even higher frame rates during camera interaction, a two-stage level-of-detail concept is developed. In addition to a fine level displaying the original mesh resolution, which is essential for the visualization in pre- and post-processing of structural mechanics simulation, a second level with coarse triangles is used as intermediate model for camera movement. Each time the user modifies the view, a previously simplified mesh is rendered until the camera parameters are no longer changed. Then the finer level of detail is displayed. An simplification algorithm was implemented which uses the one-sided Hausdorff distance as an error measure and which is compared to the Successive Relaxation Algorithm provided by OpenGL Optimizer as opSRASimplify. Aside from the interface opSRASimplify, which turns out to be unsuitable for getting an optimal decimated mesh with respect to a predetermined error tolerance, the resulting mesh quality is not as high as with the new HECSimplify simplifier. Breaking the error criterion can be avoided by defining an appropriate cost function for opSRASimplify, which causes less triangles to be removed compared to HECSimplify. If the decimation target is specified to achieve the same level of reduction, then the resulting triangle mesh contains gaps and the model appears distorted. Different car body models are reduced to 9-18% of the original number of triangles applying HECSimplify. This leads to a rendering speed-up factor of between 3.4 and 6.7. There is a trade-off between rendering speed and memory consumption. HECSimplify only applies half-edge collapses to the polygonal mesh. These operations just modify the topology, not the vertex coordinates. Therefore, the original and the reduced mesh are able to refer to the same set of coordinates. On the one hand, coordinate set sharing requires less memory, on the other hand the speed-up factor of a model that could be reduced to 9% of the original triangles is far away from 11. Both modules, the quad-stripper and the simplifier, are embedded into the Cosmo3D / OpenGL Optimizer framework by providing corresponding action objects and new scene graph nodes. Furthermore, the scene graph API was extended by several other new objects to overcome the restrictions with line picking or to provide new functionality. For example, the csClipGroup node enables the user to control a freely movable clip-plane, which affects only the underlying scene graph. This provides better insight into heavily deformed car body structures. Another form of clipping that is developed within this thesis uses one-dimensional RGBA texture maps in order to hide geometry that should not be displayed under certain conditions. This visualization method can be used, for example, to mask out those model regions that do not correspond to a given critical value range. In combination with distance values to adjacent car body parts the rendering can be restricted to potential flange regions of the model. For that purpose, first of all the parameter has to be transformed into a texture coordinate with respect to the specified parameter range. Then, a color scale is defined as a texture map. Using the GL_DECAL environment the color coding can be limited to regions of certain value ranges. Using the same mechanism in the GL_MODULATE environment with the alpha-test enabled allows for clipping the geometry where the corresponding values map into texture regions with an alpha component set to be fully transparent. This technique facilitates the accentuation of critical structures, because the user is able to interactively modify the texture map or the texture lookup table, if an index texture is used to control the visualization. As stated above, the most important change in finite element modeling for crash simulation was the introduction of independently meshed car body parts. Since the assembly of such inhomogeneous meshes may include perforations or penetrations, for example, caused by a shifted discretization along curved flanges, there was a growing demand for an interactive method to detect and remove this kind of mesh errors. Perforating regions can be detected by applying collision detection to the finite element model. Efficient collision detection as proposed by Gottschalk et al. requires hierarchical sub-structuring of the car body model. Consequently, in this study, each car body part is subdivided by a bounding volume tree (BVT). Different bounding volume types are tested: spheres, axis-aligned (AABB), and object-oriented bounding boxes (OBB). For perforation detection, where computation-intensive element-element-intersection tests are necessary at the lowest BVT level, OBBs turn out to be most efficient because they are very tight positioned around the element structure. Hence, downward traversals in the BVT can be terminated early because any one of 15 separating axes that defines a plane disjoining both volumes can be found. In order to detect penetrating nodes the minimum node-element-distances need to be computed. The BVT traversal algorithm is adapted appropriately. Children of a BVT node are visited only if their distance falls below a specified maximum distance of interest. Penetrating node-element-pairs are collected in a list for subsequent visualization. Using an interface to the original PAM-CRASH algorithm for penetration removal it is possible to provide the desired interactive mechanism that allows the engineers even to restrict mesh modification to selected car body parts. This is a big advantage over starting the simulation until initial forces move penetrating nodes apart from penetrated elements and restoring the computed mesh modification in the input data deck. First, the interactive method gives direct feedback and the engineers do not have to switch tools. Second, during the optimization of the car body structure by replacing single car body parts by variants this procedure enables the engineers to keep everything but the variant part fixed. Thus, only the nodes of the incoming part are aligned to its neighborhood and the confined modification makes it easier to compare the results of two simulations runs. What is more, the bounding volume hierarchy provides beneficial effects on many other tasks in pre- and post-processing of crash-worthiness simulation. It can be used to detect and follow flanges automatically or to spot flange regions that have only been inadequately connected. A basic task is the verification of connecting elements. For example, a spotweld must not exceed a maximum distance to those parts it should connect. Otherwise, a pending spotweld may suspend the simulation run delaying the development process and raising costs. In this study, several criteria for the validation of connecting elements are elaborated. Erroneous spotweld elements are emphasized by different colors and/or geometry. The engineers are successively guided to each problematic connection. Without this feature it would not be possible to find these model errors in such a short time. Furthermore, a method is developed that enables the computation engineers to effectively add missing connection information by means of spotwelds to the input model. Thus, it becomes even practicable to start with crash-worthiness simulations before detailed connection data is available from CAD data. One aim in virtual vehicle development is to combine the results of several areas in numerical simulation. In order to map the real development chain closely onto the virtual one, material properties influencing preliminary steps like forming have to be considered. For example, a deep-drawn blank sheet has a lower thickness in areas of high curvature than in other areas. As long as the material of a car body in crash simulation is assumed to be constant the before mentioned manufacturing influences cannot be properly represented. A hardware-based method is developed in this thesis for the efficient mapping of any type of data between incompatible meshes that are geometrically congruent. It utilizes the transformation and interpolation capability of the graphics subsystem. Element identifiers of one mesh are color-coded. For each element of the other mesh the view matrix is set up appropriately and the visible part of the first mesh is rendered. The colors that represent the element IDs can be read back into main memory. After the correlation between elements is finished in graphics hardware, the values are finally transfered in software. The post-processing of crash-worthiness simulation results necessitates the handling of large data sets. Since a binary result file may contain 2 GB of data but an engineer's workstation often is limited to 1 GB of main memory these boundary conditions need to be considered while designing data structures and algorithms of visualization software for this application area. On the other hand, interactivity and high rendering performance is a precondition to obtain acceptance by the user. The required tool should provide interaction mechanisms that assist the user in exploring and navigating through the data. Mainly, it should help to interpret the data by making the invisible visible. Besides an effective scene graph design, in this study, the internal data structures of the developed prototype application have been implemented with memory consumption in mind. Parameter transfer in post-processing is done state by state very fast by pointer-based data structures. The extensive use of texture mapping enhances the rendering performance. Visualization techniques are proposed that use textures for the direct mapping of scalar values onto the car body geometry, for the animated display of vector data, and for the visual discretization of the finite element mesh in the form of a wireframe texture map. All these approaches spare the transformation stage of the graphics pipeline additional processing of vertex-based data. For example, the traditional display method for shaded geometry with visible element borders is two-pass rendering, which halves the frame rate. The application of a black-bordered luminance texture, which is white inside, onto each geometric primitive balances the load between geometry and texture unit. Also, the encoding of a vector's direction by applying an animated texture onto a line reduces geometry load and leaves the underlying structure mostly visible in contrast to conventional vector visualization with arrows. Force flux visualization, first presented by Kuschfeldt et al. gives an overview over which components of the car body model absorb or transfer forces. It is necessary to detect and to understand the force progression within the car body structure. For example, the longitudinal structures within the front part of a car body play an important role for increasing the ability of the body to absorb forces in a frontal crash. Force flux visualization enables the engineers to design car components with an optimal crash behavior. This technique was made available for interactive daily use in crash simulation analysis. Providing a dedicated interaction mechanism, the prototype application allows to interactively define a trace-line along which the force flux can be visualized. For each section plane positioned in small intervals perpendicular along the trace-line the simulated node forces are accumulated. The resampling is accelerated by utilization of the bounding volume hierarchy. Each section force sum is then represented by color and radius of one ring of a tube around the trace-line. The dynamic trace-line definition aligns the force tube to the deforming structure of the analyzed car body part, for example, a longitudinal mounting. The specified trace-lines can be stored in order to precompute force tubes off line. This can be done by another prototype application in batch processing after simulation has finished. During a visualization session the precomputed values can be directly converted into time dependent force tube representations. The decoupling of time consuming computation and the interactive visualization further accelerates the analysis of crash-worthiness simulation. Starting multiple simulation runs with the same input data deck will produce different results. The scattering in results has to be minimized in order to be able to evaluate the influence of structure modifications. This work presents a method to detect and visualize instabilities of the simulation. The above stated texture-based visualization points out sources of instability and helps the engineers to determine if a branching is caused by the model structure or if it was originated by the solver. The pros and cons of different measurement functions are discussed. Furthermore, a CORBA-based synchronization of multiple viewers displaying different data sets is presented. This allows to analyze the simulation results of one run in direct comparison to those of other runs. It is very useful to view the differences in crash behavior of multiple car body models on one workstation. Moreover, this functionality can be used in combination with a telephone call to supersede a meeting between a computation engineer and his external supplier. The visualization is done locally on each client. Providing that data and software is available at each participating client, the only data that have to be transferred during a cooperative session are the events triggered at the steering master-client and propagated to one or more slave-clients. A master token decides which participant is able to send generated events to the other instances. This mechanism avoids conflicting camera control when multiple users try to modify their view at the same time. Another approach describes how an image-based client-server model can be used in this context. After a frame has been rendered on the server, it is encoded to reduce the amount of data. The encoded image stream is transferred to any client that is able to decode and display. There are less requirements for the client but the connection needs to provide a certain bandwidth. This scenario can also be used for remote visualization. The prototype crashViewer can be connected to a Java applet running inside a web-browser. Finally, a method for standardized analysis of crash-worthiness simulation is presented. A batch-processing prototype application has been developed to generate digital movies using a predetermined camera path. The contributions of this thesis aim at further acceleration of the virtual vehicle development process, for example, by introducing new interaction mechanisms, making extensive use of hierarchical data structures, using hardware-accelerated visualization techniques, and providing solutions for process automation.