Kulturelle Anpassungsprozesse im Management: eine empirische Untersuchung bei deutschen Unternehmen in der Türkei
In: Strategisches Management, Band 209
1258 Ergebnisse
Sortierung:
In: Strategisches Management, Band 209
World Affairs Online
Disasters, particularly recurring small-scale natural disasters of floods and droughts have been affecting West African (WA) communities, impacting particularly weak households. These losses have been significantly high over the last decade due to increasing climate variability and inherently depressed socio-economic systems. However, to date, few studies have attempted to understand the vulnerability profiles in WA to these multiple hazards across several scales. A considerable number of studies predict the impacts of droughts and floods hazards, but many do so at a very coarse scale and without any participatory process, as a result, they are unable to predict localized impacts. Despite many efforts put in vulnerability assessments, there has been limited success in simultaneously traversing scale and hierarchy and the need for upscaling risk indices is important to understand the effects of cross scale interactions. To address these gaps, this thesis (i) explored methods to involve at-risk populations in local communities in a bottom-up participatory process as opposed to the classical top-down, single scale approaches and (ii) assessed the risks from multi-hazard perspectives in a coupled Socio-Ecological System (SES). The thesis also (iii) explored appropriate methodologies that can reflect the spatial variability of flood hazard intensity at community level. Building on these investigations, the thesis finally (iv) introduced a novel risk index upscaling procedure to upscale risk and vulnerability indices across multiple scales. The thesis used several methods ranging from rural participatory methods, statistical, Geographic Information System (GIS), remote sensing and introduced the innovative concept of Community Impact Score (CIS). The results show that more than half of the designated local level indicators and over two thirds of the macro scale indicators are rarely used in present risk assessments in the region. Additionally, although an indicator may be common to three countries, their differential rankings will result in differences in explaining the risks faced by people in different societies. Empirical validation of a flood hazard map using the statistical confusion matrix and the principles of participatory GIS show that flood hazard areas could be mapped at an accuracy ranging from 77% to 81%. These high mapping accuracies notwithstanding, the flood index categories may change under conditions of very high rainfall intensities beyond the anomalies used to construct the model. To this end, studies that aim at understanding projected flood intensities under varying rainfall conditions beyond the anomalies used in this study are recommended. This is important to determine the trajectory of flood safe havens or hotspots across an entire study area. The study also develops two important indices, The West Sudanian Community Vulnerability Index (WESCVI) and The West Sudanian Community Risk Index (WESCRI). The underlying factors constituting the two indices are the elements of risk and vulnerability profiles of communities in West Africa. The WESCVI and WESCRI should help planners and policy makers to analyse and finally reduce vulnerability and risk. To evaluate the results of the risk indices, this thesis introduces a novel technique to validate the results of complex aggregation methods. Based on up to date knowledge, the CIS concept is the first in the available literature of risk assessment. The thesis also provides a theoretical concept to upscale risk and vulnerability indicators from watershed to higher spatial scales. Further studies are however recommended to apply these theoretical concepts. A conclusion of the thesis is that while it has neither been optimal to completely neglect classical approaches nor to take as an absolute fact opinion from local experts, more emphasis should be paid to the later in risk assessment that is supposed to serve the very people on whose behalf the assessment is done. Attempts should therefore be made in finding mechanisms where the two approaches could interact fruitfully and complement each other. ; Mehrfach-Gefährdungen und Risikoprofile in West Afrika : Abschätzung, Validierung und Hochskalierung Naturgefahren, wie beispielsweise Überflutungen und Dürren, bedrohen die Existenz von Gemeinden und insbesondere schwächeren Haushalten in West Afrika. Durch die zunehmende Klimavariabilität und den geschwächten Zustand der sozial-ökologischen Systeme haben die Verluste während der letzten Dekade ein besonders hohes Ausmaß erreicht. Bisher haben nur wenige Studien versucht, die unterschiedliche Zusammensetzung des Risikos im Hinblick auf mehrere Naturgefahren in Westafrika zu verstehen und über verschiedene Skalen hinweg, von ländlichen Gemeinden hin zu Wassereinzugsgebieten, Distrikten und Regionen zu analysieren. Eine signifikante Anzahl von Studien prognostiziert die zu erwarteten Schäden durch Naturgefahren wie Überflutungen und Dürren. Dies geschieht jedoch oftmals auf einem sehr groben Maßstab, wohingegen wenig über die lokalen Auswirkungen bekannt ist. Trotz mannigfaltiger Anstrengungen in Bezug auf Vulnerabilitätsassessments gab es bisher wenig Erfolg bei der Berücksichtigung verschiedener Skalen und Hierarchien. Die Hochskalierung von Risikoindizes ist jedoch nötig, um die Effekte über verschiedene Skalen hinweg zu verstehen. Diese Forschungslücken werden in dieser Arbeit aufgegriffen und mit methodischen Verfahren über einen "Bottom-up"-Ansatz adressiert, der zunächst die gefährdete Bevölkerung involviert, um die Risiken gegenüber von mehrfachen Gefährdungen in einem sozio-ökologischen System (SES) zu untersuchen. Außerdem verwendet die Studie Methoden, die es ermöglichen, die räumliche Variabilität der Überflutungsintensität auf Gemeindeebene zu reflektieren. Aufbauend auf diesen Forschungsergebnissen stellt diese Arbeit eine neue Vorgehensweise vor, die es erlaubt Verwundbarkeits- und Risikoindizes über verschiedene Skalen hinweg hochzuskalieren. Der Methodenmix umfasst partizipative und statistische Ansätze sowie Methoden basierend auf Geographische Informationssystemen (GIS) und Fernerkundung. Des Weiteren schlägt die Arbeit ein innovatives Konzept zur Quantifizierung der Gefährdungsauswirkungen auf Gemeindeebene vor, den sogenannten "Community Impact Score" (CIS). Die Ergebnisse zeigen, dass etwas mehr als die Hälfte der in dieser Arbeit abgeleiteten Indikatoren auf Gemeindeebene und über zwei Drittel der Indikatoren auf Makroebene selten in den gegenwärtigen Risikoassessments der Region verwendet werden. Zudem wurde den Indikatoren, selbst wenn sie für alle drei Länder abgeleitet wurden, oftmals eine unterschiedliche Wichtigkeit zugesprochen. Die empirische Validierung der Hochwassergefährdungskarten mittels einer statistischen Konfusionsmatrix basierend auf einem partizipativen GIS zeigt, dass die durch Hochwasser gefährdeten Gebiete mit einer Genauigkeit von 77-81% kartiert werden konnten. Trotz dieser hohen Genauigkeit ist es jedoch möglich, dass sich die Hochwassergefährdungskategorien bei Anomalitäten, die über die modellierten Bedingungen hinausreichen, verändern. Dementsprechend werden weiterführende Studien, die eben diese Bedingungen untersuchen empfohlen. Dies ist zur Bestimmung von sicheren Zufluchtsorten oder Hotspots von großer Bedeutung. In dieser Studie wurden außerdem zwei verschiedene Indizes entwickelt, der sogenannte "West Sudanian Community Vulnerability Index" (WESCVI) und der "West Sudanian Community Risk Index" (WESCRI). Die den Indizes zugrunde liegenden Faktoren bilden außerdem die Bestandteile der Risiko- und Vulnerabilitätsprofile für die Gemeinden Westafrikas. Sowohl der WESCVI als auch der WESCRI sollen Planern und politischen Entscheidungsträgern dabei helfen, die Vulnerabilität und das Risiko zu analysieren und zu reduzieren. Um die Ergebnisse der Risikoindizes zu evaluieren stellt diese Arbeit ein innovatives Konzept zur Validierung solch komplexer Aggregationsmethoden vor. Nach aktuellem Kenntnisstand ist das CIS Konzept das erste seiner Art in der erhältlichen Literatur zu Risikoassessments. Des Weiteren wurde ein theoretisches Konzept zur Hochskalierung von Risiko- und Vulnerabilitätsindizes von Wassereinzugsgebieten hin zu höheren Ebenen erarbeitet.Dieses theoretische Konzept bietet eine Basis für weiterführende Untersuchungen im Hinblick auf die Anwendung und Umsetzung. Insgesamt unterstreicht diese Studie, dass weder die klassischen Ansätze allein noch das Gleichsetzen von lokalem Expertenwissen mit der absoluten Wahrheit als optimal erachtet werden können. Die Studie zeigt, dass man dem lokalen Expertenwissen in Risikoassessments mehr Gewicht beimessen sollte. Dementsprechend sollten Ansätze gefunden werden, bei denen sich beide Herangehensweisen erfolgreich ergänzen.
BASE
Ohne Anspruch auf Vollständigkeit bietet Expanded Cinema. Art, Performance, Film einen Leitfaden durch die Geschichte und Epistemologie des 'erweiterten Kinos' in Form einer Rekonstruktion seiner Bedeutungsfragmente. Als Ergebnis eines umfangreichen Forschungsprojekts widmet sich der Sammelband der Geschichte und Form, dem Narrativitätsverständnis und der diskursiven Einbettung des Genres. Alles kreist um die Frage: Was ist Expanded Cinema? Eine Frage, auf die es viele mögliche Antworten gibt, wobei die treffenste im Titel selbst versteckt ist: Art, Performance, Film. Ein großer Vorteil des Buches ist, nicht nur Theoretiker und Medienforscher zu Wort kommen zu lassen, sondern auch Pioniere aus der Praxis des Expanded Cinemas, die in den 1960er und 70er-Jahren die (filmischen) Experimente der historischen Avantgarde neu interpretiert haben. Expanded Cinema bedeutet nicht nur eine Möglichkeit, das klassische Kino neu zu denken; es geht auch mit dem Aufbrechen traditioneller narrativer Strukturen und Räume Hand in Hand. Auch der Begriff des Narrativen selbst wird ausdifferenziert. Bei der Künstlerin Birgit Hein bspw. steht 'narrativ' für einen Akt der Transformation, einen Prozess, an dem auch das Publikum teilnimmt, um damit zur Vervollkommnung des Werkes beizutragen. Somit wird der Film zum lebendigen performativen Ereignis und die 'Erzählung' beschränkt sich nicht auf die Geschichte, die sich auf der starren Leinwand abspielt. Im Schaffen von Malcom Le Grice ist sowohl "narrative" ("represents real or imaginary events in time") als auch "narration" ("is the act of representing the narrative") (S. 161) negativ besetzt. Für ihn ist im Expanded Cinema nur das Nicht-Narrative zulässig, denn nur hier ist der Zuschauer Teil des Werks und eine aktuelle, nicht-illusorische Präsenz kann entstehen. Eine grundlegende Eigenschaft von Expanded Cinema ist dessen experimenteller Charakter. Werner Nekes sieht "cinema as an optical toy" (S. 32). Es fokussiert eher auf ein Ereignis, als auf ein einzelnes, lebloses Objekt und kann als Hybrid verschiedener medial-performativer Praktiken verstanden werden – so in den Arbeiten von Carolee Schneemann (Viet-Flakes, USA 1965; Snows, USA 1967). In diesen Arbeiten sind Produktions- und Rezeptionsphase voneinander nicht zu trennen; das Erlebnis ist unmittelbar (Einbindung des Körpers, der physikalischen Präsenz). Im Expanded Cinema von Werner Nekes, VALIE EXPORT und Peter Weibel ist der Film dazu da, durch ästhetische Radikalität und Aktionismus (Neu-Kontextualisierung des filmischen Dispositivs, Hervorhebung seines Charakters als Medium) auch gesellschaftliche Veränderungen in Gang zu setzen. Kino und soziale Muster (wie bspw. stereotypische Repräsentationen der Geschlechterrollen) sind eng, sogar dialektisch miteinander verbunden – so weitet sich das filmisch-performative Bild auf die Realität/Identität aus und wird Teil einer "expanded reality" (S. 293). Nicht nur Produktion und Rezeption, sondern auch der reale Gegenstand und seine Repräsentation fallen ineinander – oft findet sich das Publikum auf verschiedenen Projektionsflächen abgebildet wieder. William Rabans Arbeit 2'45" (UK 1973) macht einen wesentlichen Teil des filmischen Dispositivs sichtbar, nämlich den Zuschauer. Er kehrt zurück, "seeped in the material reality of celluloid, chemicals, screens, darkness and projected light" (S. 47). Die Partizipation ist Bestandteil des Entstehungsprozesses von Expanded Cinema, es kommt oft zum Rollentausch. Das Sehen selbst wird zur Aktion. Expanded Cinema existiert nicht ohne Interaktivität, es ist auf Kommunikation statt auf Identifikation angewiesen. Peter Weibel meint, dass im Kino (im Gegensatz zur Natur) die Sinne segmentiert und das Verhältnis von Realität und Repräsentation thematisiert werden sollen – die Bewusstmachung dieser Dualität ist das Ziel. Das Eintauchen in den filmischen Moment kann so durchaus positiv konnotiert sein, denn dies gilt als "critical immersion" (S. 258). Expanded Cinema verbindet und dekonstruiert zugleich. Diese Aufsplitterung betrifft in erster Linie das kinematographische Dispositiv, das in Bilder auf kreativen Projektionsoberflächen (Spiegel, menschliche Körper, usw.) zerlegt wird. Es kommt aber auch zur Fusion "using simple combinations of new and old media to create complex conceptual encounters" (S. 237). Dies zeigt auch die Offenheit von Expanded Cinema, in jegliche intermediale Richtung zu expandieren und charakterisiert seine spezifische Art von Immaterialität: "The cinematic is not based on the material conditions of a medium and the cinematic experience can cross media boundaries or be achieved through a range of media combinations" (S. 136). Wie einst László Moholy-Nagy von seinem Lichtrequisit als frühem Rundfunkmedium träumte, ist auch die Geschichte von Expanded Cinema geprägt von utopischen Entwürfen. Stan Vanderbeek entwarf ein nonverbales Bildernetzwerk des "socialimagestics" (S. 50), in dem das Multimediale als Kommunikationsform und -sprache einer Gesellschaft eingesetzt werden kann. Ein Traum von gemeinschaftlichem, interaktivem und partizipatorischem Informationsaustausch. In England führt William Raban das Expanded Cinema in der Londoner Filmmakers Co-operative (der Geburtsstätte des strukturellen Films) ein. Sein "cinema of transgression" (S. 101) geht von einem flexiblen Raum aus, arbeitet mit Improvisation und stellt den Prozess seiner Entstehung aus. In seinen Arbeiten führt er den Entstehungsprozess des 'erweiterten Films' mit der Aktivierung des Publikums zusammen und gelangt so zu einem Konzept des "reflexive cinema" (S. 101). Bei Le Grice sind weitere ästhetische Aspekte des Expanded Cinemas vorzufinden, wie die Thematisierung des Schattens, ein romantischer Blick auf die Archäologie des Spektakels (Vorgeschichte des Filmischen) und die Mechanik des Performativen, des Körpers. Mit dem so genannten Flicker untersucht das Expanded Cinema die Materialität und die rezeptive Umgebung des Films – im Bezug auf die Sichtbarkeit und Unsichtbarkeit der Bilder und "as a means of stimulating an otherwise absent content" (S. 232). Guy Sherwin begann bereits in den 1970ern, den Projektor zur Erzeugung von Ton zu benutzen. Der Theoretiker Steven Ball meint erkannt zu haben, dass heute die Tendenz in verschiedenen Performances dahin geht, die Hegemonie des Visuellen als Hauptsinn in Frage zu stellen. Die Verbundenheit von Raum, Ton und Visualität hat er unter dem Begriff der "audio-visual spatial performance" zusammengeführt: "audio-visual spatial performance practice has come closer both to the activation of complex space as immersive, relational, denying the dominance of the screen" (S. 273). Das aktuelle Interesse des Filmemachers Chris Welsby hat sich Medieninstallationen eines nicht-dualistischen Kybernetikmodells zugewandt. Es geht ihm hierbei um das Verhältnis von Technologie und Natur. So erscheint Expanded Cinema als ein Vertreter der Dialektik der Aufklärung, denn die Medieninstallationen von Welsby weisen auf den Eroberungsmoment der Natur durch die Vernunft hin, die einer Kritik unterzogen wird. Das einzige Beispiel von Vertretern des Expanded Cinemas außerhalb von Westeuropa und Amerika wird im Beitrag von Maxa Zoller behandelt. Sie bespricht das 'open film' Konzept des polnischen Künstlerduos KwieKulik am Beispiel ihrer Arbeit Activities on Moses (PL 1971), bei dem es sich um ein work in progress handelt. Alle Eigenschaften des westlichen Expanded Cinema sind hier gegeben: u.a. eine dynamische Beziehung zwischen dem Künstler und dem Zuschauer. Dabei spielt der antihierarchische Aspekt, das Verschwimmen der Grenzen zwischen politischem (öffentlichem) Raum und Privatleben bzw. Kunst, eine wesentlichere Rolle als im Westen. Ein wichtiger Teil des Sammelbandes widmet sich der Gegenüberstellung von Experimentalfilm (Kino), Video und digitalen Technologien. In den 1980er-Jahren stehen am Beginn einer künstlerischen Phase des New Romanticism diverse Videoinstallationen, die mit einer Krise des konzeptuellen, strukturellen Expanded Cinema einhergehen. Ein "cultural shift in the arts towards a socially embedded avant-gardism" (S. 66) wird sichtbar. Das Feiern des Künstlichen, die Materialität der Ausstellungsform und der Zuseherschaft bzw. die Performativität drängen sich in den Vordergrund – so die Meinung von Michael O'Pray (S. 67). Bereits in den 1960er und 70er-Jahren stellten sich Künstler Fragen über das Kinematographische (Film) und über das Televisuelle (Video): kann das Video oder der TV-Apparat 'expanded' sein? Da diese Frage meist positiv beantwortet wurde (bspw. von den Filmemachern John Adams und David Hall), wird neben dem Projektionsapparat auch der Fernsehkasten in das Expanded Cinema inkorporiert – die Spannung zwischen der Live-Performance und dem Aufgezeichneten wird zum fruchtbaren Boden der Kreativität. In der Interpretation von Autorin Catherine Elwes schufen televisuelle Medien immer einen "active space of reception" (S. 202), wenn sie in die Hände von Künstlern gelangten. In ihrem Verständnis steht Fernsehen nicht für den einseitigen Informationskonsum – Vito Acconci bspw. wendet sich gegen eine solche Interpretation. Dass die Arbeit mit televisuellen Medien gesellschaftliche Kritik nicht außen vor lässt, beweisen nicht nur Werke feministischer Natur, die den "domestic space" (S. 208) als einen versiegelten Raum, als Gefängnis der sexuellen Hierarchien darstellen. Gender betreffende Expanded Cinemas entstehen auch im digitalen Umfeld (unter Verwendung von Webcams zum Beispiel). Persönlichkeiten wie Paul Sharit, Tony Conrad oder John Whitney arbeiteten vor der globalen Digitalisierungswelle mit intermedialen Vernetzungen von Performance, Video und früher Computergraphik. Heute ist unsere Umwelt bereits vollkommen digitalisiert; so kann sie laut Elwes als "the site of an expanded moving image event" (S. 204) gesehen werden. Im 21. Jahrhundert spricht man bereits vom "Post-expanded Cinema". Es haben sich zwei Strategien entwickelt: "On the one hand, the early years of the twenty-first century have seen a renewed interest in live film performance and a recovery or reappropriation of twentieth-century optical and aural technologies. On the other hand, artists have continued to embrace increasingly sophisticated forms of interactive media" (S. 226). Diese Strategien sind als Gegenpol zum endlosen Medien- und Bilderfluss entstanden, als Antwort auf den verschwommenen Begriff des Filmischen, und sie wurden von Künstlern entwickelt, die das Expanded Cinema in den 1960er und 70er-Jahren geprägt haben. Expanded Cinema. Art, Performance, Film ist eine Matrix aus der Vergangenheit und der Zukunft des Genres, ein Rückblick und zugleich auch ein Anstoß zum Weiterdenken – ein Aufruf, die auf den ersten Seiten des Buches skizzierte interdisziplinäre Mediengeschichte weiterzuschreiben.
BASE
International audience ; Dieser Beitrag befasst sich mit einem grundsätzlichen Widerspruch: öffentliche Politik ist als nationales Mittel vor allem vom Begriff der Grenze abhängig, der die Identität eines Staates begründet. Dennoch betrachtet der grenzüberschreitende Akteur die nationale Grenze als Relikt der Vergangenheit und bezweckt mit der Zusammenarbeit gerade die Überwindung der Grenzen. Wie kann im grenzüberschreitenden Raum also öffentliche Politik kohärent gestaltet werden? Die grenzüberschreitende Dynamik bezieht sich auf neu erscheinende Territorien, die nicht von einer Institution abhängen, sondern im Bezug auf ein Projekt entstehen. Nicht der Raum schafft das Projekt, sondern das Projekt schafft den Raum. Grenzüberschreitende Projekte stehen also am Anfang eines Territorialisierungsprozesses und bilden einen neuen Politikbereich, auf den öffentliche Politik angewendet wird. Dieser Prozess steht im Mittelpunkt der öffentlichen Politik selbst, die ebenfalls mehr und mehr territorialisiert werden muss. Grenzüberschreitenden Projekte haben in diesem Kontext die wesentliche Funktion, gemeinsame soziale Praktiken zu erzeugen, die im neu geschaffen Raum einen Integrationseffekt ausüben. Die grenzüberschreitende Dynamik ist aber für die Identität der Staaten eine echte Herausforderung, da diese die öffentliche Politik in neuen territorialen Bereichen anwenden müssen. Dies führt zu der Frage der Institutionalisierung der grenzüberschreitenden Zusammenarbeit, bei der Kompetenzfelder der Gebietskörperschaften neu definiert werden müssen. Wie sollen grenzüberschreitende Verwaltungsidentitäten geschaffen werden, ohne eine Hierarchie zwischen den verschiedenen nationalen und grenzüberschreitenden Akteuren zu bilden? Wie soll die Frage der Governance in einem institutionellen grenzüberschreitenden Kontext geregelt werden? Drei Arten von Instrumenten können aufgeführt werden, die die im grenzüberschreitenden Raum geführte öffentliche Politik zusammenbringen können. Die kognitiven Instrumente zunächst, die eine gemeinsame Basis für Informations- und Repräsentationsformen schaffen. Darauf folgen die strategischen Instrumente, durch die Projekte und Institutionen zusammengeführt werden können. Schließlich gibt es die juristischen Instrumente, mit deren Hilfe Verträge, Konventionen und gemeinsame Entscheidungsprozesse festgelegt werden können, indem ein permanentes institutionelles Gestalten stattfindet, durch das allein die Verschiedenartigkeit der Kompetenzen zwischen den Verwaltungen kompensiert werden kann. Damit die öffentliche Politik ihr Ziel erreichen kann, braucht es eine Konfiguration der kollektiven Aktion, die alle drei Elemente mit einbezieht. Auch wenn eine Perfektionierung der grenzüberschreitenden juristischen Mittel und der Governance-Modelle in den letzten Jahren beobachtet werden konnte, zeigen die Verwaltungsidentitäten noch die Tendenz auf, sich eher zu juxta-positionieren, als zu integrieren. Ein strategisches territoriales Management wird daher immer notwendiger. Der Begriff der Grenze sollte außerdem in einer mehr philosophischen Perspektive behandelt werden. Die Grenze ist der Ort, an dem drei gegensätzliche Pole aufeinandertreffen: die Spannung wischen dem Empirischen und dem Übergeordneten, zwischen dem Denkbaren und Undenkbaren und die Frage nach der Koexistenz des Staates und der Grenze selbst, da die Grenzen des Staates auch die Grenzen der Staatsgewalt bedeuten. ; This contribution focuses on one basic contradiction: public policies are, as national tools, dependent on the notion of the national border which determines the identity of a state. However, the cross-border actor considers the border as an archaism and regards it as the main objective of cross-border cooperation to overcome borders. How can public policies be made coherent in cross-border areas? Cross-border dynamics involve emerging territories that are not linked to an institution but are formed with relation to a project. The project creates the territory, it is not the territory which creates the project. Cross-border projects therefore set off a process of territorialisation by which new political fields of intervention are created which have to be covered by public policies. This process is at the heart of the public policies themselves which have to be more and more territorialised. In this context, cross-border projects have the main objective of bringing forward common social practices that help to integrate the new cross-border territory. Cross-border dynamics are nonetheless a challenge for the identity of the states which have to articulate their public action according to new areas of intervention. This leads to the question of institutionalising cross-border cooperation, where new competences must be defined for the local and regional authorities. How can administrative identities be integrated without establishing a hierarchy between the different national and cross-border actors? How, in an inter-institutional cross-border context, can the question of governance be tackled? Three types of instrument can be distinguished which are capable of bringing together existing public policies in a cross-border area. First of all, there are the cognitive instruments which help to produce common means of information and representation. Secondly, strategic instruments can mutualise the existing pattern of institutions and projects. Finally, legal instruments are used to develop contracts, conventions and shared decision-making processes, by means of a permanent institutional patchworking, which is necessary to make up for existing differences of competences between the administrations. In order for a public policy to attain its goal, a configuration of public action is needed where all three elements are combined. Even though legal tools and governance models for cross-border cooperation have been perfected, the administrative identities still have a tendency to be juxtaposed instead of being integrated. Therefore, it becomes more and more essential to develop a territorial management.The notion of the border has to be increasingly regarded from a philosophical perspective. The border is a place around which three contradictions are articulated: the tension between the empirical and the transcendental; between the thinkable and unthinkable; and the question of the coexistence of the state and the border itself, for the boundaries of the state also determine positively the limits of the state's power. ; Les praticiens de la coopération ont naturellement tendance à considérer la frontière comme un obstacle à dépasser pour mettre en œuvre leurs projets. Ce dépassement de la frontière est non seulement une condition de réussite mais souvent l'objectif primordial des projets en question. Bien sûr, cet objectif est rarement affiché en tant que tel. Mais derrière les contenus explicites des projets, formulés en termes techniques et fonctionnels, il y a toujours la préoccupation implicite de réduire la fracture frontalière. Quand cette volonté silencieuse mais essentielle vient à manquer, le projet est considéré comme un échec pour « défaut de valeur ajoutée transfrontalière »1, quels que soient ses succès apparents. En effet, ce que cherchent fondamentalement les acteurs de la coopération, c'est à contribuer à la construction d'un territoire transfrontalier intégré ; dans cette perspective, le projet n'est jamais une fin en soi, mais l'instrument d'une ambition territoriale. Dans les régions transfrontalières, comme dans les agglomérations, c'est donc le projet qui crée le territoire et non le territoire qui crée le projet2. Du point de vue des États (nationaux, fédérés ou assimilés) qui mettent en œuvre des politiques publiques, la vision est rigoureusement inverse. La frontière est la limite naturelle de leur action. C'est elle qui borne les règles qu'ils édictent, les dispositifs dont ils ont la maîtrise, les principes de légitimité dont ils procèdent ou dont ils sont la source. La frontière est inhérente à la conscience ontologique, et non seulement existentielle, qu'ils ont d'eux-mêmes. Elle les renvoie à leur finitude fondamentale, alors qu'ils ont une propension naturelle à se croire infinis. Pour analyser les conditions et les enjeux de cette prise de conscience d'un État confronté à la réalité de ses limites, il s'agit ici de prendre comme guide Michel Foucault, quand il développe dans le chapitre IX de son livre Les mots et les choses, son « analytique de la finitude ».
BASE
In: Bachelorarbeit
Aus der Einleitung: Untersuchungsgegenstand der vorliegenden Bachelorthesis ist die Darstellung und Bewertung der Rolle der Medien bei der Aufdeckung von Skandalen. Anhand des Fallbeispiels der Berliner Bankgesellschaftsaffäre wird der Verlauf einer Skandalisierung chronologisch aufbereitet und analysiert. In diesem Rahmen werden verschiedene Phasen der Berichterstattung untersucht. Interviews mit Journalisten, die maßgeblich an der Aufdeckung des Skandals beteiligt waren, geben zusätzlich Aufschluss über die in dieser Arbeit dargestellten medialen Abläufe. Daneben wird die Aufarbeitung des Skandals skizziert. Besonderes Augenmerk gilt hierbei dem parlamentarischen Untersuchungsausschuss, der zur Aufklärung der Bankenaffäre eingesetzt wurde. Nach der Analyse der Berichterstattung über den Bankenskandal und der Auswertung der Interviews wurde deutlich, dass sich Skandale innerhalb der Massenmedien zu einer gefährlichen Waffe politischer Einflussnahme entwickelt haben. Die Medien schaffen durch die gezielte Skandalisierung bestimmter Themen ein öffentliches Meinungsbild und kreieren zudem ein aktualisiertes soziales Selbstverständnis.Inhaltsverzeichnis:Inhaltsverzeichnis: Abstract2 Inhaltsverzeichnis3 Abbildungsverzeichnis6 Tabellenverzeichnis7 Abkürzungsverzeichnis8 Kap. 1 Einleitung9 1.1.Fragestellungen.10 1.2.Ziel der Arbeit und methodisches Vorgehen11 1.3.Aufbau und Struktur der Arbeit11 Kap. 2 Eine Einführung in die Mechanismen des Medienskandals14 2.1.Der Ursprung des Skandalbegriffs14 2.1.2.Die Definition des Skandalbegriffs15 2.2.Skandale und ihre Kontrollfunktion16 2.3.Die Kommunikation von Skandalen16 2.4.Die Bedeutung von Nachrichtenfaktoren18 2.4.1.Zusammenhang von Nachrichtenfaktoren und Medienskandalen20 2.5.Die Rollenverteilung bei Medienskandalen22 2.6.Die Koorientierung der Berichterstattung bei Medienskandalen24 2.7.Die Hierarchie der Journalisten bei Medienskandalen24 2.8.Zusammenfassung25 Kap. 3 Die Berliner Bankgesellschaft: Chronologie eines Skandals und die Rolle der Medien bei dessen Aufklärung27 3.1.Die Grundsteine zur Gründung der Bankgesellschaft Berlin27 3.1.1.Die Landesbank Berlin (LBB) 27 3.1.2.Die Berliner Bank (BB)28 3.1.3.Die Berliner Hypothekenbank (Berlin Hyp)28 3.1.4.Die Fusion zur Bankgesellschaft Berlin28 3.2.Die Todsünden der Bankgesellschaft30 3.2.1.Die wichtigsten Skandal-Akteure37 3.2.1.1.Klaus-Rüdiger Landowsky37 3.2.1.2.Christian Neuling und Klaus-Hermann Wienhold39 3.2.1.3.Wolfgang Rupf40 3.2.1.4.Manfred Schoeps.41 3.3.Chronologie der Ereignisse bis Skandalbeginn43 3.3.1.Das Jahr 199543 3.3.2.Das Jahr 199644 3.3.3.Das Jahr 199744 3.3.4.Das Jahr 199845 3.3.5.Das Jahr 199945 3.4.2000/2001 – Von ersten Merkwürdigkeiten bis zur Aufdeckung des Skandals….46 3.4.1.Chronologische Darstellung der Latenzphase.46 3.4.2.Chronologische Darstellung der Hochphase.54 3.4.3.Chronologische Darstellung der abklingenden Phase.63 3.4.4.Auswertung der Berichterstattung.70 3.5.Chronologie der Ereignisse ab Skandalende.73 3.5.1.Das Jahr 200273 3.5.2.Das Jahr 200375 3.5.3.Das Jahr 200476 3.5.4.Das Jahr 200579 3.5.5.Das Jahr 200681 3.5.6.Das Jahr 200782 3.5.7.Das Jahr 200884 Kap. 4 Aufklärung und Folgen des Berliner Bankenskandals85 4.1.Der parlamentarische Untersuchungsausschuss (PUA): Definition85 4.2.Der parlamentarische Untersuchungsausschuss zum Berliner Bankenskandal86 4.2.1.Aussagen eines Mitglieds des PUA88 4.2.2.Die Berichterstattung über den PUA95 4.2.2.1.Die Berichterstattung über den ersten PUA95 4.2.2.2.Die Berichterstattung über den Abschlussbericht des PUA 96 4.3.Die Berliner Bankeninitiative97 4.3.1.Informationen zur Bankeninitiative von Peter Grottian98 4.3.2.Die Berichterstattung über die Berliner Bankeninitiative100 4.3.2.1.Die Berichterstattung über die Veröffentlichung der Fondszeichnerlisten101 4.3.2.2.Die Berichterstattung über den Grunewald-Spaziergang 102 4.3.2.3.Die Berichterstattung über das Volksbegehren103 4.3.2.4.Zusammenfassende Bemerkungen103 4.4.Die Folgen des Berliner Bankenskandals104 4.5.Der aktuelle Stand der Dinge108 Kap. 5 Fazit109 Quellen- und Literaturverzeichnis112 Anhang.132 Anhang 1: Interview mit Mathew D. Rose.132 Anhang 2: Interview mit Ralf Schönball138 Anhang 3: Interview mit Ewald B. Schulte145Textprobe:Textprobe: Kapitel 3; Die Berliner Bankgesellschaft: Chronologie eines Skandals und die Rolle der Medien bei dessen Aufklärung: In diesem Teil der Thesis erfolgt zunächst eine Darstellung über die Gründung der Berliner Bankgesellschaft. Anschließend werden wichtige Handlungsweisen und Geschäftsmethoden der Bankgesellschaft beschrieben, sowie einige Skandalakteure genauer beleuchtet, die im Bankenskandal eine besondere Rolle spielen. Anhand einer chronologischen Aufbereitung der wichtigsten Ereignisse um den Berliner Bankenskandal erfolgt daraufhin eine Rekonstruktion der einzelnen Phasen der Medienberichterstattung über den Skandal. Dabei wird geprüft, wann es zu bestimmten Aufdeckungen kommt und welche Medien in welcher Form und Intensität darüber berichten. Die Grundsteine zur Gründung der Bankgesellschaft Berlin: Anfang der 90er Jahre werden die Bankenbeteiligungen des Landes Berlin neu geordnet. Den Anstoß dazu gibt die große Koalition von CDU und SPD. In den anschließenden Kapiteln erfolgt eine Vorstellung der einzelnen Institutionen, die letztendlich zur Bankgesellschaft Berlin fusionieren. Die Landesbank Berlin (LBB): Die LBB entsteht aus der Sparkasse der Stadt Berlin West und wird mit der Sparkasse Ost vereint. Vorstandsvorsitzender ist Hubertus Moser. Das Land Berlin haftet für die Bank mit Gewährträgerhaftung und Anstaltslast, sofern die LBB Forderungen nicht erfüllen kann oder die Insolvenz droht. Die Bank kann demnach nicht in Konkurs gehen. Dadurch besitzt sie eine äußerst gute Bewertung, die ihr günstige Kredite bringt. Der öffentlich-rechtliche Status schränkt allerdings die Geschäftsfelder der Bank ein. So dürfen zum Beispiel keine Spekulations- und Risikogeschäfte betrieben werden. Aufgrund der Begrenzungen kann die LBB ihre hohe Einlage nicht überall gewinnbringend investieren. Die Berliner Bank (BB): Diese Bank unter dem Vorstandsvorsitzendem Wolfgang Steinriede hat den Status einer privatrechtlichen Aktiengesellschaft, welche zu 51 Prozent dem Land Berlin, zu 25 Prozent der Gothaer Versicherung und zu 24 Prozent Kleinaktionären gehört. Um die Bank am Leben zu halten, muss das Land Berlin bereits 1990 115 Millionen Euro investieren, obwohl die BB einen guten Kundenstamm hat. Grund dafür sind zu viele Kredite, die an insolvente Firmen vergeben werden. Die Berliner Hypothekenbank (Berlin Hyp): Die Berlin Hyp wird 1992 gegründet und fusioniert später mit der Hannoveranischen Hypothekenbank. Der Vorstandsvorsitzende ist Klaus-Rüdiger Landowsky: Die Fusion zur Bankgesellschaft Berlin: Am 01. Januar 1994 erfolgt die Gründung der Bank Gesellschaft Berlin AG (BGB) durch die Fusion der Berliner Bank (BB), der Landesbank Berlin (LBB) und der Berliner Hypothekenbank (Berlin Hyp). Durch die Gründung der Bankgesellschaft profitiert auch die Berliner große Koalition. Das Land Berlin veräußert aus ihrem Aktienpaket einen fünfzehnprozentigen Anteil der Bankgesellschaft an die Norddeutsche Landesbank (Nord/LB) Dadurch fließen fast eine Milliarde Mark in die Landeskasse. Als Hauptargument der Banker für die Fusion gilt, dass die BB von den hohen Kapitalbeständen der LBB profitiert, welche wiederum von ihren Beschränkungen befreit wird. Auch in der Politik wird die Fusion als enorme Chance gesehen. Die große Koalition will mit einem großen Bankenkonzern über ein Geldinstitut für ihre Hauptstadtpläne verfügen und nach der Wiedervereinigung zur ersten Liga der großen Bankplätze gehören. Um die Rechtkonstruktion zu finden, die einen Zusammenschluss von einer öffentlich-rechtlichen Bank mit einer Privatbank ermöglicht, werden diverse Gutachten in Auftrag gegeben. Ein weiterer Nutzen der Fusion ist, dass die LBB ihre günstigen Bedingungen bei der Kreditaufnahme am Kapitalmarkt aufgrund ihres öffentlich-rechtlichen Status an die private Bank weitergeben kann. Die Warnungen vom Landesrechnungshof vor einer solchen Fusion werden ignoriert und als wirtschaftsfeindlich und inkompetent betitelt. Stattdessen wird bewusst ein Konzept vorangetrieben, das Milliardenrisiken zu Lasten der LBB und damit des Landes Berlin möglich macht. Die Todsünden der Bankgesellschaft: Die Berliner Bankenkrise basiert auf vielen Aktionen und zwielichtigen Geschäftsmethoden, von denen im Folgenden die gravierendsten dargestellt werden. Die Aufdeckung der einzelnen Geschehnisse fügt das Ganze später zum Bankenskandal zusammen, der fortlaufend immer größere Ausmaße annimmt. Die Immobilienfonds: Unter der Führung von Dr. Manfred Schoeps wird die LBB Immobilien- und Baumanagementgesellschaft mbH (IBG) gegründet. 1992/1993 legt die Gesellschaft die ersten beiden Immobilienfonds auf, allerdings mit bescheidenem Umfang und wenig Sicherheiten. Der dritte Fonds lässt sich schon nicht mehr besonders gut verkaufen. Deshalb erhält der vierte Fonds der IBG umfangreiche Sicherheiten für die Anleger. Diese sehen vor, dass die Mieteinnahmen, die Baukosten, die Verlustzuweisungen, die Gewinnausschüttung und auch die Rücknahme nach 25 oder 30 Jahren garantiert sind. Der Anleger trägt keinerlei wirtschaftliches Risiko, wodurch der Verkauf der Anteile enorm anzieht. 1995 zeichnet sich ab, dass die Immobiliengeschäfte durch steigenden Leerstand immer schwieriger werden. Dank der umfangreich abgesicherten Fonds sichert sich die Bankgesellschaft die Spitzenposition bei den geschlossenen Immobilienfonds, allerdings behindert sie auch andere Bauherren, die mit den utopischen Garantien nicht mithalten können. Ein wirtschaftliches Risiko bei den Fonds der IBG ist nahezu nicht vorhanden. Somit finden die Anteile reißenden Absatz, so dass immer mehr Immobilien eingekauft werden. Genaue Kalkulationen und Bewertungen der Grundstücke gehen im Massengeschäft unter. Stattdessen werden Immobilien in die Fonds geschoben, deren Kredite bei den Teilbanken nicht mehr gedeckt sind. Durch Provisionszahlungen für den Vertrieb, für die Garantien, für die Kreditvermittlung und diverse weitere Dienstleistungen erzielt die Bankgesellschaft kurzfristig hohe Einnahmen. Diese gehen allerdings zu Lasten der später auftretenden Risiken. Die krummen Geschäfte mit den Immobilienfonds kommen ans Tageslicht durch den Spiegel-Artikel 'Der Milliarden-Bluff' von Wolfgang Reuter und Mathew D. Rose am 29.Januar 2001, sowie dem Artikel 'Inbegriff des Filzes' von Wolfgang Bayer und Wolfgang Reuter am 24. Februar 2001. Die Aubis-Kredite: Ab 1995 beginnt die Aubis-Gruppe unter den CDU-nahen Geschäftsführern Christian Neuling und Klaus Wienhold mit dem von der Berlin Hyp finanzierten Ankauf ostdeutscher Plattenwohnungen. Insgesamt wird mit diversen Teilkrediten der Bankgesellschaft der Ankauf von ca. 16.000 Plattenbauwohnungen in den neuen Bundesländern finanziert. Ohne Eigenkapital, sonstige Sicherheiten oder wohnungswirtschaftliche Kompetenz erhalten Neuling und Wienhold diverse Kredite der Berlin Hyp. In der Folge bauen sie ein Firmengeflecht auf für den Kauf von Wohnungen, für die Verwaltung und die Sanierung. Dabei fallen bei den Krediten auch Summen ab, die in das Privatvermögen der Aubis-Geschäftsführer fließen. Bestandteil der Kreditverträge sind allerdings auch verbindliche Zusagen der Bank, dass sie der Aubis-Gruppe weitere Darlehen in ebenfalls dreistelliger Millionenhöhe für die Sanierung von Wohnungen zur Verfügung stellen wird. Im Juni 1997 wird mit der Billigung von Bankgesellschaftschef Wolfgang Rupf beschlossen, die von der Berlin Hyp ausgereichten Aubis-Kredite durch einen Teilverkauf von Aubis-Wohnungen an die Bank-Tochter IBG zu reduzieren. Die für die Sanierung dieser Wohnungen eingesetzten Baufirmen bleiben daraufhin auf unbezahlten Rechnungen sitzen. Diverse Mieter sitzen teilweise ohne Balkonbrüstung da, oder müssen vollkommen überhöhte Betriebs- und Heizkosten zahlen. In den Geschäftsjahren 1999 und 2000 muss die Berlin Hyp auf ihre Aubis-Kredite Wertberichtigungen in Höhe von 200 Millionen Mark vornehmen. Verantwortlich dafür ist unter anderem der zunehmende Leerstand der gekauften Plattenbauten. Einzelheiten zu den Aubis-Krediten werden am 30. Dezember 2000 durch den Tagesspiegel-Artikel 'Kalte Platten' von Mathew D. Rose bekannt.
Um kulturelle Werte von Landschaft in Landschaftsplanungen stärker zu berücksichtigen wurden sie in dieser Arbeit als kulturelle Landschaftsfunktionen bestimmt, die sich in ein System aus Landschaftsfunktionen einordnen, wie es Landschaftsplanungen insgesamt zugrunde liegen kann. Neben bereits ausdifferenzierten naturhaushalterischen Landschaftsfunktionen umfasst es damit folgende kulturelle Landschaftsfunktionen: - bedeutungstragende und sinnstiftende Funktion - Handlungsfunktion - ästhetische und stimmungsstiftende Funktion - Kommunikationsfunktion - Wissensfunktion - Kontinuitätsfunktion - Gestaltungs- und Ausdrucksfunktion - Ordnungs- und Orientierungsfunktion Ihnen sind jeweils Teilfunktionen zugeordnet. Die kulturellen Funktionen stehen in einem hierarchischen Verhältnis zueinander. Übergeordnete kulturelle Funktionen sind die bedeutungstragende und sinnstiftende sowie die Handlungsfunktion. Die Funktionen können sich wechselseitig bedingen oder in Konkurrenz zueinander stehen. Nachdem Werte nicht aus der Landschaft, sondern nur aus der Gesellschaft bestimmt werden können, bildete die Untersuchung der gesellschaftlichen Konzepte hinter den zentralen Begriffen "Werte", "Raum und Landschaft" sowie "Kultur" eine Grundlage zu ihrer Bestimmung. Ein Schwerpunkt lag auf der Auswertung sozialwissenschaftlicher Theorien. Dabei wurde auch ein auf Planungstauglichkeit angelegtes Verständnis der zentralen Begriffe dieser Arbeit geschaffen. Gewählt wurde ein utilitaristischer und zweckrationaler Zugang zu Werten, ein anthropologischer Zugang zu Kultur und ein konstitutions- und handlungstheoretischer Zugang zu Raum und Landschaft; Landschaft wird als Spezifikation von Raum verstanden. Die andere Grundlage zur Bestimmung kultureller Werte bildete die Untersuchung von Entwicklungstrends, von sozialempirischen Untersuchungen sowie eine Untersuchung prosaischer Darstellungen. An die Ausprägung der kulturellen Funktionen sowie von Raum und Landschaft insgesamt wurden im Ergebnis der Untersuchungen Anforderungen in Form von Hypothesen formuliert, die den Zugang zu Raum und Landschaft weiter erklären. Sie haben den Charakter von Prinzipien, insofern Präferenzen in hohem Maße gebietsspezifisch sind. In der Planung gängige Wertmaßstäbe und Urteile werden damit zum Teil in Frage stellt, so die Hypothese eines ästhetisierenden Zugangs zu Landschaft. Andere werden spezifischer gefasst, so die Rolle von Elementen für die Konstitution oder die Rolle von Wissen und von Natürlichkeit für das Schönheitserleben einer Landschaft. Einige zentrale Hypothesen, die Anlass für diese Arbeit waren bzw. die aus dem theoretischen Teil der Untersuchung entwickelt wurden, konnten im sozialempirischen Teil nicht bestätigt werden. Dies gilt maßgeblich für die Zukunftsperspektive, die Landschaft enthält, die jedoch im Regelfall nicht gefragt ist. Wertgebend ist landschaftliche Kontinuität, die Geschichten erzählt, indem sie die Vergangenheit aufzeigt und Erinnerungen manifest macht. Nicht vollständig aufrecht erhalten werden konnte die im theoretischen Teil der Arbeit aufgebaute Hypothese, dass Landschaftsplanungen stärker gruppenspezifisch anzulegen sind. Verbleibt hier eine Überprüfung des Milieukonzepts auf landschaftsspezifische Fragestellungen, so zeigt sich andererseits relativ klar, dass Landschaft eher für das gruppenübergreifend Geteilte steht. Sie ist nicht Gegenstand eines Luxusgeschmacks, sondern Gemeingut. Klarer zu unterscheiden sind jedoch die Erwartungshaltungen aufgrund der Perspektive als Einheimischer oder Tourist. Für die Planung bedeutet das eine deutlichere Unterscheidung zwischen der Definition der landschaftlichen Eigenart und eines landschaftlichen Images. Beide können für die Konstruktion eines Leitbildes Maßstäbe setzten, wobei ein eigenartbasiertes Leitbild eher den Ansprüchen einer gemeinwohlorientierten Planung genügt, ein Image eher auch einem Bedürfnis nach Inszenierung nachkommt. Landschaftsplanungen sind darin zu stärken, produktiven Landnutzungen ein Landschaftsnutzungsinteresse gegenüberzustellen, das zumeist nichtproduktiver und immaterieller Art ist. Dieses Landschafts-nutzungsinteresse ist über die kulturellen Landschaftsfunktionen abgebildet. In Landschaftsplanungen sollten sie entsprechend differenziert betrachtet werden, um die unmittelbaren gesellschaftlichen Anforderungen an Landschaft umfänglich aufzubereiten und zur Verhandlung zu stellen. Sie materiellen klar benennbaren Interessen allein als Komplexparameter und übergreifende emotionale Bedeutungszuschreibungen gegenüber zu stellen, stärkt ihre Verhandlungsposition nicht. Gerade auch im Zuge eines zunehmenden Landnutzungsdrucks ist dies notwendig. Zu sondieren, welche Rolle einer jeden der kulturellen Funktionen für die künftige Entwicklung einer Landschaft zukommt, sollte darüber hinaus Bestandteil eines Planungsprozesses werden, insofern gerade auch dienende Funktionen für die Ausjustierung der Richtung der weiteren Entwicklung notwendig sind, die sich ansonsten schnell auf Fortschreibungen der Vergangenheit anhand einer expertenbasierten Vorstellung von der Eigenart einer Landschaft nach romantischem Ideal beschränken kann. Im Gegenzug wären auch die Landnutzungsinteressen einer gesellschaftlichen Aushandlung der Inanspruchnahme des Gemeinguts Landschaft besser zugänglich zu machen, indem sie beispielsweise fachplanerisch ebenso raumspezifisch und umfassend aufbereitet und der abwägenden Gesamtplanung zugänglich gemacht werden. Als Forderung betrifft das vor allen die Landwirtschaft. Einen konzeptionellen Anschluss finden die Ergebnisse dieser Arbeit im Konzept der Ökosystemdienstleistungen. Es eröffnet den Zugang zu einer stärkeren Integration ökonomischer und insbesondere sozialempirischer Methoden in Landschaftsplanungen. Zur methodischen Stärkung von Landschafsplanungen, insbesondere für die raumspezifische Integration der gesellschaftlichen Aspekte, die es im Zusammenhang mit kulturellen Werten von Landschaft in Landschaftsplanungen stärker zu berücksichtigen gilt, wird darin in Ergänzung zu nutzerunabhängigen Methoden und explizit über partizipative Methoden hinaus ein großes Potenzial gesehen. Gefragt ist also ein Methodenmix, der sich auch vor dem Hintergrund einer inkonsistenten theoretischen Basis weniger an theoretischer Stringenz orientieren kann. Der interdisziplinäre Anspruch an Landschaftsplanungen steigt damit. Er kann sich im Ergebnis z. B. in einer Verräumlichung sozialer Dimensionen und der beschreibenden Erfassung der expliziten und impliziten Dimension landschaftlicher Werte beispielsweise in Storylines äußern. Einer stringenten Erfassung landschaftlicher Funktionen auch in ihrer kulturellen Dimension und einer methodischen Weiterentwicklung unbenommen bleibt es originäre planerische Herausforderung in jedem Einzelfall, mit dem Nichtfaktischen umzugehen. Eine Leitbildentwicklung unter diesen Vorzeichen kann erheblich von der Anwendung von Szenarien profitieren. Szenarien können auch den gesellschaftlichen Diskurs über die angestrebte Entwicklung unter Anerkennung der Variabilität, die Eigenart als zentraler planerischer Wertmaßstab innewohnt, stärken. In der Konsequenz können diese Ansätze zu einer Demokratisierung einer Landschaftsplanung beitragen, die stärker auf die Handlungs- und Lebensrealität der Menschen ausgerichtet und stärker als Aushandlungsinstanz über Verfügungsrechte verstanden werden sollte.:1 KONTEXT, AUFGABE UND VORGEHENSWEISE 6 1.1 ANLASS 6 1.2 AUSGANGSSITUATION 6 1.2.1 GESELLSCHAFTLICHE EINORDNUNG UND PLANUNGSVERSTÄNDNIS 6 1.2.2 ENTWICKLUNG DES THEMAS KULTURLANDSCHAFT IN DER FORSCHUNG UND IM PLANERISCHEN DISKURS 7 1.2.3 ÜBEREINKÜNFTE 10 1.2.4 DEFIZITE IN DER PLANUNGSPRAXIS 10 1.2.4.1 Inhalte 10 1.2.4.2 Begründungen 11 1.2.5 KONSEQUENZEN 12 1.3 AUFGABE 12 1.4 RAUMBEZUG UND INSTRUMENTELLER BEZUG 13 1.5 VORGEHENSWEISE 14 2 BEGRIFFE UND DEREN KONZEPTE 16 2.1 ZWECK UND VORGEHEN DER BEGRIFFSANALYSE 16 2.2 WERTE 16 2.2.1 PLANUNG UND WERTE 16 2.2.2 WERTEDISKURS IN PHILOSOPHIE UND SOZIOLOGIE 18 2.2.2.1 der philosophische Diskurs zur Relativität von Werten 19 2.2.2.2 der philosophisch-soziologische Diskurs um die Werturteilsfreiheit der empirischen Wissenschaften 19 2.2.3 EINORDNUNG DIESER ARBEIT 23 2.2.3.1 Relativität und sachlicher Gehalt 25 2.2.3.2 Veränderbarkeit 26 2.2.3.3 Seinsollen 27 2.2.3.4 Fazit und Herausforderungen 28 2.3 LANDSCHAFT UND WERTE 29 2.3.1 VOM GUT ZUR FUNKTION 29 2.3.2 VON DER FUNKTION ZUM POTENZIAL 32 2.4 RAUM 32 2.4.1 AKTUELLE ENTWICKLUNGEN ZUM RAUMVERSTÄNDNIS 32 2.4.2 PHYSISCH-MATERIELLE RAUMKONZEPTE 33 2.4.2.1 Arten und Merkmale 33 2.4.2.2 Reflexion und Kritik 34 2.4.3 KONSTITUTIONS- UND HANDLUNGSTHEORETISCHE ANSÄTZE 35 2.4.3.1 Arten und Merkmale 35 2.4.3.2 Dualismus und Dualitäten 36 2.4.3.3 Kritik und Reflexion 39 2.4.4 VERGLEICH UND POSITIONIERUNG 41 2.4.4.1 Verbreitung von Raumkonzepten und gesellschaftliche Übereinkunft über ein Raumverständnis 41 2.4.4.2 Planerische Handhabe: Raum in dieser Arbeit 42 2.4.4.3 Zusammenfassung 45 2.5 LANDSCHAFT UND RAUM 45 2.5.1 ENTWICKLUNG DES BEGRIFFSVERSTÄNDNISSES VON LANDSCHAFT 46 2.5.1.1 Historische Bedeutungen 46 2.5.1.2 Physis versus Konstrukt 46 2.5.1.3 Gestalt versus Bild 47 2.5.1.4 Natur versus Kultur 47 2.5.2 VERSTÄNDNIS ZUM VERHÄLTNIS VON LANDSCHAFT UND RAUM 48 2.5.2.1 Gestalt- und Schaffensaspekt 49 2.5.2.2 Zweckaspekt 49 2.6 KULTUR 50 2.6.1 ETYMOLOGIE 50 2.6.2 GEGENWÄRTIGES KULTURVERSTÄNDNIS 52 2.6.3 ANTONYME 53 2.6.4 DICHOTOMIEN UND BRÜCKEN AUSGEWÄHLTER KONZEPTE 54 2.6.4.1 Kultur im weiten oder im engen Sinne: Alltagskultur oder Kunst? 54 2.6.4.2 Eine mögliche Brücke zwischen einem weitem und einem engen Kulturverständnis: "KULTUR" als Voraussetzung und Aufgabe von "Kultur" 55 2.6.4.3 Vergangenheitsbezug und Zukunftsperspektive 56 2.6.4.4 Eine mögliche Brücke zwischen Vergangenheitsbezug und Zukunftsperspektive: Kultur als Vervollkommnung 58 2.6.4.5 Andere Dichotomien 61 2.6.4.6 Kultur und Religion 62 2.6.5 ZUSAMMENFASSUNG: KULTUR IN DIESER ARBEIT 63 2.6.5.1 Einordnung und Grundverständnis 63 2.6.5.2 Merkmale 64 2.7 LANDSCHAFT UND KULTUR: ANSÄTZE ZU EINER SYSTEMATIK 65 2.7.1 VORGEHENSWEISE 66 2.7.2 SYSTEMATIK 66 2.7.3 METHODISCHE KONSEQUENZEN 70 2.8 ZUSAMMENFASSUNG UND KRITIK 72 3 ERWARTUNGSHALTUNGEN UND PRÄFERENZEN 74 3.1 VORGEHENSWEISE 74 3.1.1 AUSWAHL UND AUSWERTUNG SOZIALEMPIRISCHER UNTERSUCHUNGEN 74 3.1.2 GRENZEN DER UNTERSUCHUNG 75 3.1.3 UNTERSUCHUNG VON ENTWICKLUNGSTRENDS 76 3.1.4 UNTERSUCHUNG VON BELLETRISTIK 77 3.1.5 AUFBAU 77 3.2 ZUKUNFTSSTUDIEN. TRIEBKRÄFTE GESELLSCHAFTLICHER ENTWICKLUNGEN UND GESELLSCHAFTLICHE ENTWICKLUNGSTRENDS 78 3.2.1 GLOBALISIERUNG UND GLOKALISIERUNG 78 3.2.2 MOBILITÄT 79 3.2.3 DEMOGRAFISCHER WANDEL 81 3.2.4 WERTE UND WANDEL 82 3.2.4.1 Individualität, Pluralität und Gemeinschaftlichkeit 83 3.2.4.2 traditionelle Werte und postmaterialistische Einstellungen 84 3.2.5 LEBENSSTANDARD UND BILDUNG 86 3.2.6 ENTINSTITUTIONALISIERUNG UND ENGAGEMENT 87 3.2.7 ZEIT UND FREIZEIT 88 3.2.8 LANDSCHAFT, RAUM UND ORT 90 3.2.9 ZUSAMMENFASSUNG, SCHLUSSFOLGERUNGEN UND AUSBLICK 93 3.2.9.1 Trends 93 3.2.9.2 Bedarfe 94 3.3 SOZIALEMPIRISCHE UNTERSUCHUNGEN: PRÄFERENZEN 96 3.3.1 LANDSCHAFTSWAHRNEHMUNG UND ALLGEMEINE ANFORDERUNGEN AN LANDSCHAFT 96 3.3.1.1 Landschaftswahrnehmung 96 3.3.1.2 allgemeine Anforderungen an Landschaft als Bestandteil der Lebensqualität 98 3.3.2 DIE BEDEUTUNGSTRAGENDE UND SINNSTIFTENDE FUNKTION 99 3.3.2.1 Vorüberlegungen und Forschungsfragen 99 3.3.2.2 Bedarf nach Heimat und ihre Dimensionen 100 3.3.2.3 räumliche Dimensionen 102 3.3.2.4 zeitliche Orientierung 108 3.3.2.5 Verräumlichung zeitlicher Dimensionen 111 3.3.2.6 soziale Dimensionen 113 3.3.2.7 Kritik am Konzept und Ablehnung von Heimat 114 3.3.2.8 Merkmale von Raum und Landschaft als Heimat 116 3.3.2.9 landschaftliche Prägung 123 3.3.2.10 Zusammenfassung 126 3.3.3 DIE KONTINUITÄTSFUNKTION 130 3.3.3.1 Vorüberlegungen und Forschungsfragen 130 3.3.3.2 Ergebnisse aus sozialempirischen Untersuchungen und Schlussfolgerungen 131 3.3.3.3 Gruppenspezifik 133 3.3.3.4 Zusammenfassung 133 3.3.4 DIE ORDNUNGS- UND ORIENTIERUNGSFUNKTION 134 3.3.5 DIE WISSENSFUNKTION 136 3.3.5.1 Vorüberlegungen und Forschungsfragen 136 3.3.5.2 Kritik des Aussagegehalts der vorliegenden Untersuchungen 137 3.3.5.3 gesuchte Kenntnis 138 3.3.5.4 Wissen der Menschen über ihre Landschaft und die Abhängigkeit von der Nutzung 140 3.3.5.5 andere Faktoren, welche die Landschaftskenntnis beeinflussen 141 3.3.5.6 Wunsch nach mehr Kenntnis 143 3.3.5.7 Wirkung von Wissen auf die Wertschätzung von Landschaft 145 3.3.5.8 Zusammenfassung 146 3.3.6 DIE GESTALTUNGS- UND AUSDRUCKSFUNKTION 150 3.3.6.1 Vorüberlegungen und Forschungsfragen 150 3.3.6.2 Wahrnehmung und Beurteilung von Landschaftsveränderungen 152 3.3.6.3 gewünschte Veränderungen 157 3.3.6.4 Gruppenspezifik 158 3.3.6.5 Zusammenfassung 159 3.3.7 DIE ÄSTHETISCHE UND STIMMUNGSSTIFTENDE FUNKTION 160 3.3.7.1 Vorüberlegungen und Forschungsfragen 160 3.3.7.2 Ästhetik und Identität. Zwischen dem Schönen und dem Eigenen 161 3.3.7.3 Ästhetik und Handlungsbezug. Zwischen dem Schönen und dem Nützlichen 163 3.3.7.4 Natur und Schönheit 172 3.3.7.5 wie eine schöne Landschaft aussieht 176 3.3.7.6 Merkmale, die eine Landschaft unattraktiv machen 189 3.3.7.7 Einflussfaktoren 190 3.3.7.8 Zusammenfassung 192 3.3.8 DIE HANDLUNGSFUNKTION 198 3.3.8.1 Vorüberlegungen und Forschungsfragen 198 3.3.8.2 Bedeutung von Landschaft für die Arbeit 199 3.3.8.3 Bedeutung von Landschaft für die Erholung 199 3.3.8.4 Formen landschaftsbezogener Erholung 203 3.3.8.5 Anforderungen an die Landschaft 207 3.3.8.6 Gruppenspezifik 208 3.3.8.7 Zusammenfassung 212 3.3.9 DIE KOMMUNIKATIONSFUNKTION 213 3.3.9.1 Vorüberlegungen und Forschungsfragen 213 3.3.9.2 Partizipation und Engagement 214 3.3.9.3 Kommunikation und Interaktion 218 3.3.9.4 Zusammenfassung 219 3.4 ZUSAMMENFASSUNG UND AUSBLICK 221 4 REFLEXION UND KONSEQUENZEN 222 4.1 INHALTE 222 4.1.1 ÜBERGREIFENDE HYPOTHESEN 222 4.1.1.1 Aneignung, Diskurs und Kommunikation 222 4.1.1.2 Vergangenheitsorientierung und Gestaltungswunsch 223 4.1.1.3 vom Diskurs zum Handeln 226 4.1.1.4 Nutzbarkeit, Eigenart und Schönheit 227 4.1.1.5 Ästhetische Merkmale 229 4.1.1.6 Wissen 230 4.1.1.7 Natur und Kultur 230 4.1.1.8 Heimat 231 4.1.2 KULTURELLE FUNKTIONEN 231 4.1.2.1 Charakterisierung der Funktionen 231 4.1.2.2 Hierarchien und Interdependenzen. 235 4.2 METHODISCHE KONSEQUENZEN 236 4.2.1 ZUR AUSGESTALTUNG DES PLANUNGSPROZESSES UND ZUR ROLLE SOZIALEMPIRISCHER UNTERSUCHUNGEN 238 4.2.1.1 Potenziale sozialempirischer Methoden 238 4.2.1.2 Defizite der verschiedenen Methodenkomplexe 239 4.2.1.3 Kombination 241 4.2.1.4 Weiterentwicklung der Bestandteile 243 4.2.1.5 Leitbildentwicklung 247 4.2.1.6 räumlicher Bezug 249 4.2.1.7 Schlussfolgerungen 251 4.2.2 GRUPPENSPEZIFIK 252 4.2.2.1 Einflussfaktoren 252 4.2.2.2 Kritik monofaktorieller Klassifizierungen 257 4.2.2.3 mehrfaktorielle Klassifizierungen 260 4.2.2.4 eigene Differenzierung 263 4.2.2.5 Zielgruppen 266 4.2.2.6 Zusammenfassung 267 4.3 KONZEPTIONELLE UND INSTRUMENTELLE KONSEQUENZEN 267 4.3.1 ÖKOSYSTEMDIENSTLEISTUNGEN 267 4.3.1.1 das Konzept 267 4.3.1.2 Landschaftsfunktionen und Ökosystemdienstleistungen 268 4.3.2 INSTRUMENTELLE UMSETZUNG 270 4.3.2.1 Raum- und Landschaftsplanung 270 4.3.2.2 Landschaftsplanung und Landnutzungsplanung 271 4.4 WEITERFÜHRENDER FORSCHUNGSBEDARF 272 5 ZUSAMMENFASSUNG UND AUSBLICK 275 6 LITERATUR 277 7 ABBILDUNGEN 299 8 TABELLEN 302 9 ANHANG 303 9.1 ANHANG 1: WERTE UND WERTSYSTEME IM PHILOSOPHISCHEN UND SOZIOLOGISCHEN DISKURS: EINE ÜBERSICHT 304 9.1.1 WERTLEHRE/ WERTEHTIK, WERTPHILOSOPHIE, WERTIRRATIONALISMUS 304 9.1.2 VERANTWORTUNGSETHIKEN: METAPHYSISCHE WERTLEHRE, TELEOLOGISCHE UND RELIGIÖSE KONZEPTE 305 9.1.2.1 metaphysische Wertlehren 305 9.1.2.2 Naturteleologie 305 9.1.3 UNIVERSALISTISCHE PRINZIPIENETHIKEN 306 9.1.3.1 Utilitarismus 306 9.1.4 ABSCHWÄCHUNG DER STRIKTEN DICHOTOMIE ZWISCHEN SEIN UND SOLLEN 307 9.1.5 WERTRELATIVISMUS 307 9.1.6 (NEU-)POSITIVISMUS, WERTSUBJEKTIVISMUS, WERTINDIVIDUALISMUS: 307 9.1.6.1 Positivismus 308 9.1.6.2 Wertsubjektivismus 308 9.2 ANHANG 2: KONNOTATIONEN IM ANTHROPOLOGISCHEN KULTURBEGRIFF NACH KROEBER UND KLUCKHOHN (1952) 309 9.3 ANHANG 3: EAGLETONS "KULTUR" UND "KULTUR" IM VERGLEICH 310 9.4 ANHANG 4: ERKENNTNISSE ZU KULTURELLEN FUNKTIONEN VON RAUM UND LANDSCHAFT AUS DER BEGRIFFSANALYSE 311 9.4.1 BEDEUTUNGSTRAGENDE UND SINNSTIFTENDE FUNKTION 311 9.4.2 GESTALTUNGS- UND AUSDRUCKSFUNKTION 313 9.4.3 ORDNUNGS- UND ORIENTIERUNGSFUNKTION 315 9.4.4 KONTINUITÄTSFUNKTION 315 9.4.5 WISSENSFUNKTION 316 9.4.6 ÄSTHETISCHE UND STIMMUNGSSTIFTENDE FUNKTION 317 9.4.7 KOMMUNIKATIONSFUNKTION 317 9.4.8 HANDLUNGSFUNKTION 318 9.5 ANHANG 5: AUSGEWERTETE EMPIRISCHE SOZIALWISSENSCHAFTLICHE UNTERSUCHUNGEN ZUM LANDSCHAFTSBEWUSSTSEIN UND ZU ERWARTUNGSHALTUNGEN AN LANDSCHAFT. ÜBERSICHT UND KERNAUSSAGEN 319 9.6 ANHANG 6: FACETTEN DES HEIMATEMPFINDENS DER AUTOREN IN GROPP ET AL. (2004) 339 9.7 ANHANG 7: ANSPRÜCHE AUSGEWÄHLTER FREIZEITAKTIVITÄTEN AN LANDSCHAFT 343 9.8 ANHANG 8: LANDSCHAFTSELEMENTE UND LANDSCHAFTSBESTANDTEILE, DIE "GEFALLEN" 347 9.9 ANHANG 9: TRADITIONELLE UND POSTMATERIELLE WERTORIENTIERUNGEN IM VERGLEICH 350
BASE
International audience ; Der "große Tumulus" des Mané Lud verdankt seine Berühmtheit vor allem seinem – erst später hinzugefügten – Ganggrab, das ihn im Westen begrenzt und eine große Anzahl von Gravuren aufweist, die zu den berühmtesten des europäischen Corpus zählen. In einem früheren Artikel wurden zehn Orthostaten beschrieben und fotografisch sowie zeichnerisch dargestellt. Hier werden nun die digitale Bilderfassung, die Darstellungsweisen der Zeichen und der Stelen und die Natur der Linien wiederaufgenommen. Das Corpus der Zeichen wird anschließend analysiert und neu interpretiert. Die Große Göttin wird ein blasender Pottwal; die Dechsel ist ein Mann mit gekreuzten Armen, das Beil des Holzfällers eine Kriegswaffe, der Hirtenstab nur ein Bumerang, das hornförmige Zeichen ein fliegender Vogel, das Graffito bzw. der Kamm ein besetztes Boot und die "Muttergöttin" stellt die Welt im Kleinen dar. In diesem Artikel plädieren wir faktisch für eine Archäologie der Bilder, eine vernachlässigte Kategorie, bei der das wahrgenommene und das geschaffene Bild nicht nur in fortwährendem Wettbewerb miteinander stehen, sondern in der Archäologie der Vorgeschichte überhaupt und in dem was sie Fels-oder Höhlenmalerei oder rock art nennt, auch fortwährend miteinander verwechselt werden. Die Gravuren des Mané Lud sind die Zeichen des Kleinen und des unermesslich Großen. Doch über den hier vorgelegten phänomenologischen Bericht hinaus stellt sich im weiteren Sinne die Frage nach der bildlichen Darstellung der Macht, die sich oft auf historische Probleme beschränkt, die mehr oder weniger auf der Schrift basieren. Und wenn es auch zwecklos erscheinen mag, in der Schrift als solcher oder in dieser Abfolge eingravierter Zeichen den Ursprung jeder Hierarchie oder jeder Herrschaft suchen zu wollen, so ist man doch berechtigt sich die Frage zu stellen, welche Rolle diese in Stein eingravierten "aneinander gereihten" Zeichen gespielt haben mögen bei der Wandlung des politischen Bewusstseins, bei der Einführung neuer Denkweisen, die neuen Herrschaftsweisen entsprechen, die in unseren Augen das Erstellen in einer so kurzen Zeit von Monumenten reflektiert, die zu den gigantischsten des 5. Jahrtausends in Europa gehören. Denn die ersten Schriftsysteme und selbst diese noch älteren graphischen Darstellungsweisen, welche die eingravierte Geschichte eines Anfangs kennzeichnen, haben zugleich die Organisation des sozialen Lebens beeinflusst und die Erkenntnissysteme bereichert. Dies ist die von symbolischen Motiven getriebene Glanzleistung der Technik: hunderte Tonnen von Felsgestein an die Meeresküsten zu transportieren, an die Grenzen des Unergründlichen, damit sie dem Mythos als unvergesslicher Spiegel dienen, vielleicht dem eines Ursprungs, der Gründung eines Königtums. Und selbst, wenn eine Nachricht nicht auf das Instrument ihrer Übermittlung reduziert werden darf, so wirkt sich doch jede Änderung im Kommunikationssystem – und die archäologische "Kultur" ist ebenfalls Teil dieser Abfolge von Kommunikationshandlungen -zwangsläufig auf die übermittelten Inhalte aus. Dies ist das neue Neolithikum in seiner westlichen Revolution. ; The "Grand Tumulus" of the Mané Lud is primarily known for its passage grave – of secondary addition – which borders its western extrimity and contains a significative number of engravings that are among the most well know in Europe. In a previous article, ten orthostates were described and illustrated with photos and drawings. In this paper, new techniques of recording the images are describe, along with the modes of representation of the signs and steles and the nature of the traces. The corpus of sign is then decomposed and the interpretation renewed. The Great Goddess becomes a spooting whale; the adze a man with outstretched arms; the woodcutter's ax a weapon of war, the shepherd's crook only a boomerang; the horn sign a flying bird; the brush-graffiti a mounted boat; the escutcheon idol a world in miniature. In this paper, we plead for an archaeology of pictures. A poorly manipulated category in which the percieved image and the created image are in perpetual competition but also in continual confusion in the works of prehistoric archaeology, and in that which it names parietal art or rock art. The engravings of Mané Lud are signs of the Miniature and the Immensity. But beyond the phenomenological relation exposed, it is images of power that are in question here, which are often limited to historic problems underlain by writing. And though it may seem vain to search within writing itself, or in this suite of engraved signs, the origin of all hierarchy or domination, we can nonetheless question the role of the arrangements of engraved signs "aligned" on a mineral screen, in the transformation of political knowledge, and in the establishment of new manners of thinking, which correspond to new modes of domination, which reflect for us the rapid erection of some of the most gigantic in 5 th millennium Europe. Because these first writing systems, and even these most ancient graphic processes, which mark beginning of the history of engraving, influenced both the organization of the social life and that of the systems of knowledge. Here we see the technical feat pushed by symbolic reason, hundreds of tons of stones transferred to the edge of the ocean, to the limit of the unknowable, to serve as a memorable mirror to myth, perhaps that of an origin, of the foundation of a king. And even though we cannot reduce a message to its material means of transmission, any change in a system of communications – and archaeological "culture" is also a series of acts of communication – forcibly changes the meaning of the contents transmitted. This is the new Neolithic in its western revolution. ; Le « grand tumulus » du Mané Lud est essentiellement connu pour sa tombe à couloir – d'adjonction secondaire –, qui en borne l'extrémité occidentale et qui contient un nombre significatif de gravures comptant parmi les plus célèbres du corpus européen. Dans un article antérieur, dix orthostates ont été décrits et illustrés par des photographies et des dessins. Seront ici rappelés la nouvelle acquisition technique des images, les modes de représentations des signes et des stèles, et la nature des tracés. Le corpus des signes est ensuite décomposé et l'interprétation renouvelée. La Grande Déesse devient un cachalot soufflant, l'herminette est un homme aux bras en croix, la hache du bûcheron est une arme guerrière, la houlette du berger n'est qu'un boomerang, le cornu devient un oiseau volant, le peigne-graffiti est un bateau monté, l'idole en écusson rassemble un monde en miniature. Cet article plaide pour une archéologie des images, catégorie malmenée au sein de laquelle image perçue et image créée sont en perpétuelle concurrence mais aussi en continuelle confusion dans l'oeuvre d'une archéologie commune de la Préhistoire, et dans ce qu'elle nomme art pariétal ou rupestre ou rock art . Les gravures du Mané Lud sont les signes de la Miniature et de l'Immensité. Mais au-delà de ce rapport phénoménologique ici exposé, c'est toute la question des images du pouvoir qui est donnée à entendre, souvent limitée aux problèmes historiques sous-tendus par l'écriture. Et s'il peut sembler vain de vouloir chercher dans l'écriture en tant que telle, ou dans cette suite de signes gravés, l'origine de toute hiérarchie ou de toute domination, on pourra néanmoins s'interroger sur le rôle des agencements de signes gravés «alignés» sur l'écran minéral, dans la transformation du savoir politique, dans la mise en place de nouveaux modes de pensée correspondant à de nouveaux modes de domination que reflète à nos yeux l'érection, en un temps si court, d'ouvrages parmi les plus gigantesques du V e millénaire européen. Car les premiers systèmes d'écriture, et même ces procédés graphiques plus anciens qui jalonnent l'histoire gravée d'un commencement, ont influencé à la fois l'organisation de la vie sociale et celle des systèmes de connaissance. Voici la prouesse technique poussée par la raison symbolique: des centaines de tonnes de pierres transférées en bord d'océan, en limite de l'inconnaissable, pour servir de miroir mémorable au mythe, peut-être celui d'une origine, de la fondation d'un roi. Et quand bien même l'on ne peut pas réduire un message au moyen matériel de sa transmission, tout changement dans le système des communications – et la «culture» archéologique est aussi cet enchaînement d'actes de communication – a nécessairement en retour d'importants effets sur les contenus transmis. Ceci est le Néolithique nouveau en sa révolution occidentale.
BASE
International audience ; Der "große Tumulus" des Mané Lud verdankt seine Berühmtheit vor allem seinem – erst später hinzugefügten – Ganggrab, das ihn im Westen begrenzt und eine große Anzahl von Gravuren aufweist, die zu den berühmtesten des europäischen Corpus zählen. In einem früheren Artikel wurden zehn Orthostaten beschrieben und fotografisch sowie zeichnerisch dargestellt. Hier werden nun die digitale Bilderfassung, die Darstellungsweisen der Zeichen und der Stelen und die Natur der Linien wiederaufgenommen. Das Corpus der Zeichen wird anschließend analysiert und neu interpretiert. Die Große Göttin wird ein blasender Pottwal; die Dechsel ist ein Mann mit gekreuzten Armen, das Beil des Holzfällers eine Kriegswaffe, der Hirtenstab nur ein Bumerang, das hornförmige Zeichen ein fliegender Vogel, das Graffito bzw. der Kamm ein besetztes Boot und die "Muttergöttin" stellt die Welt im Kleinen dar. In diesem Artikel plädieren wir faktisch für eine Archäologie der Bilder, eine vernachlässigte Kategorie, bei der das wahrgenommene und das geschaffene Bild nicht nur in fortwährendem Wettbewerb miteinander stehen, sondern in der Archäologie der Vorgeschichte überhaupt und in dem was sie Fels-oder Höhlenmalerei oder rock art nennt, auch fortwährend miteinander verwechselt werden. Die Gravuren des Mané Lud sind die Zeichen des Kleinen und des unermesslich Großen. Doch über den hier vorgelegten phänomenologischen Bericht hinaus stellt sich im weiteren Sinne die Frage nach der bildlichen Darstellung der Macht, die sich oft auf historische Probleme beschränkt, die mehr oder weniger auf der Schrift basieren. Und wenn es auch zwecklos erscheinen mag, in der Schrift als solcher oder in dieser Abfolge eingravierter Zeichen den Ursprung jeder Hierarchie oder jeder Herrschaft suchen zu wollen, so ist man doch berechtigt sich die Frage zu stellen, welche Rolle diese in Stein eingravierten "aneinander gereihten" Zeichen gespielt haben mögen bei der Wandlung des politischen Bewusstseins, bei der Einführung neuer Denkweisen, die neuen Herrschaftsweisen entsprechen, die in unseren Augen das Erstellen in einer so kurzen Zeit von Monumenten reflektiert, die zu den gigantischsten des 5. Jahrtausends in Europa gehören. Denn die ersten Schriftsysteme und selbst diese noch älteren graphischen Darstellungsweisen, welche die eingravierte Geschichte eines Anfangs kennzeichnen, haben zugleich die Organisation des sozialen Lebens beeinflusst und die Erkenntnissysteme bereichert. Dies ist die von symbolischen Motiven getriebene Glanzleistung der Technik: hunderte Tonnen von Felsgestein an die Meeresküsten zu transportieren, an die Grenzen des Unergründlichen, damit sie dem Mythos als unvergesslicher Spiegel dienen, vielleicht dem eines Ursprungs, der Gründung eines Königtums. Und selbst, wenn eine Nachricht nicht auf das Instrument ihrer Übermittlung reduziert werden darf, so wirkt sich doch jede Änderung im Kommunikationssystem – und die archäologische "Kultur" ist ebenfalls Teil dieser Abfolge von Kommunikationshandlungen -zwangsläufig auf die übermittelten Inhalte aus. Dies ist das neue Neolithikum in seiner westlichen Revolution. ; The "Grand Tumulus" of the Mané Lud is primarily known for its passage grave – of secondary addition – which borders its western extrimity and contains a significative number of engravings that are among the most well know in Europe. In a previous article, ten orthostates were described and illustrated with photos and drawings. In this paper, new techniques of recording the images are describe, along with the modes of representation of the signs and steles and the nature of the traces. The corpus of sign is then decomposed and the interpretation renewed. The Great Goddess becomes a spooting whale; the adze a man with outstretched arms; the woodcutter's ax a weapon of war, the shepherd's crook only a boomerang; the horn sign a flying bird; the brush-graffiti a mounted boat; the escutcheon idol a world in miniature. In this paper, we plead for an archaeology of pictures. A poorly manipulated category in which the percieved image and the created image are in perpetual competition but also in continual confusion in the works of prehistoric archaeology, and in that which it names parietal art or rock art. The engravings of Mané Lud are signs of the Miniature and the Immensity. But beyond the phenomenological relation exposed, it is images of power that are in question here, which are often limited to historic problems underlain by writing. And though it may seem vain to search within writing itself, or in this suite of engraved signs, the origin of all hierarchy or domination, we can nonetheless question the role of the arrangements of engraved signs "aligned" on a mineral screen, in the transformation of political knowledge, and in the establishment of new manners of thinking, which correspond to new modes of domination, which reflect for us the rapid erection of some of the most gigantic in 5 th millennium Europe. Because these first writing systems, and even these most ancient graphic processes, which mark beginning of the history of engraving, influenced both the organization of the social life and that of the systems of knowledge. Here we see the technical feat pushed by symbolic reason, hundreds of tons of stones transferred to the edge of the ocean, to the limit of the unknowable, to serve as a memorable mirror to myth, perhaps that of an origin, of the foundation of a king. And even though we cannot reduce a message to its material means of transmission, any change in a system of communications – and archaeological "culture" is also a series of acts of communication – forcibly changes the meaning of the contents transmitted. This is the new Neolithic in its western revolution. ; Le « grand tumulus » du Mané Lud est essentiellement connu pour sa tombe à couloir – d'adjonction secondaire –, qui en borne l'extrémité occidentale et qui contient un nombre significatif de gravures comptant parmi les plus célèbres du corpus européen. Dans un article antérieur, dix orthostates ont été décrits et illustrés par des photographies et des dessins. Seront ici rappelés la nouvelle acquisition technique des images, les modes de représentations des signes et des stèles, et la nature des tracés. Le corpus des signes est ensuite décomposé et l'interprétation renouvelée. La Grande Déesse devient un cachalot soufflant, l'herminette est un homme aux bras en croix, la hache du bûcheron est une arme guerrière, la houlette du berger n'est qu'un boomerang, le cornu devient un oiseau volant, le peigne-graffiti est un bateau monté, l'idole en écusson rassemble un monde en miniature. Cet article plaide pour une archéologie des images, catégorie malmenée au sein de laquelle image perçue et image créée sont en perpétuelle concurrence mais aussi en continuelle confusion dans l'oeuvre d'une archéologie commune de la Préhistoire, et dans ce qu'elle nomme art pariétal ou rupestre ou rock art . Les gravures du Mané Lud sont les signes de la Miniature et de l'Immensité. Mais au-delà de ce rapport phénoménologique ici exposé, c'est toute la question des images du pouvoir qui est donnée à entendre, souvent limitée aux problèmes historiques sous-tendus par l'écriture. Et s'il peut sembler vain de vouloir chercher dans l'écriture en tant que telle, ou dans cette suite de signes gravés, l'origine de toute hiérarchie ou de toute domination, on pourra néanmoins s'interroger sur le rôle des agencements de signes gravés «alignés» sur l'écran minéral, dans la transformation du savoir politique, dans la mise en place de nouveaux modes de pensée correspondant à de nouveaux modes de domination que reflète à nos yeux l'érection, en un temps si court, d'ouvrages parmi les plus gigantesques du V e millénaire européen. Car les premiers systèmes d'écriture, et même ces procédés graphiques plus anciens qui jalonnent l'histoire gravée d'un commencement, ont influencé à la fois l'organisation de la vie sociale et celle des systèmes de connaissance. Voici la prouesse technique poussée par la raison symbolique: des centaines de tonnes de pierres transférées en bord d'océan, en limite de l'inconnaissable, pour servir de miroir mémorable au mythe, peut-être celui d'une origine, de la fondation d'un roi. Et quand bien même l'on ne peut pas réduire un message au moyen matériel de sa transmission, tout changement dans le système des communications – et la «culture» archéologique est aussi cet enchaînement d'actes de communication – a nécessairement en retour d'importants effets sur les contenus transmis. Ceci est le Néolithique nouveau en sa révolution occidentale.
BASE
In: Internationale Politik und Gesellschaft: IPG = International politics and society, Heft 3, S. 111-127
ISSN: 0945-2419
World Affairs Online
Zur Fragestellung
Tanja Roos analysiert Haushaltsbücher und Taschenkalender eines Kölner Haushalts, in denen für die Jahre 1933 bis 1992 detailliert das Konsumverhalten der einzelnen Haushaltsmitglieder dokumentiert ist. Auf dieser einzigartigen Basis zeigt sie, wie die Ausgaben über die Zeit zunehmen und welchen überragenden Einfluss Schenkgewohnheiten auf das Konsumverhalten selbst in Kriegs- oder Krisenzeiten haben und liefert damit ein facettenreiches Bild vom Lebensalltag dieses Haushalts, von den Konsumbedingungen und Konsumpräferenzen seiner Mitglieder. An der Nahtstelle zwischen wirtschafts- und kulturhistorisch relevanten Fragestellungen leistet dieses Buch einen wertvollen Beitrag zur deutschen Konsumgeschichte und liefert interessante Anknüpfungspunkte für die Alltags- und Biographie-Forschung.
Im Herbst 2004 wurden Haushaltsbücher und Taschenkalender eines Kölner Haushalts ("Bestand Martha K.") an das Seminar für Wirtschafts- und Sozialgeschichte der Universität zu Köln abgegeben. Eine erste Sichtung des Quellenmaterials im Frühjahr 2005 legte die Vermutung nahe, dass dieser Bestand genügend Potential für eine Konsum- Längsschnittstudie auf mikroökonomischer Betrachtungsbasis beinhalten könnte. Als wesentliche Stärken des Bestands stellten sich sein gleichbleibend hoher Detailgrad sowie die ungewöhnlich lange Zeitspanne heraus, die die Haushaltsbücher umfassen: Sie dokumentieren das Konsumverhalten des Untersuchungshaushalts über einen Zeitraum von 60 Jahren. Der Bestand geht damit deutlich über den zeitlichen Umfang klassischer Haushaltsstudien hinaus.
Drei Forschungsfragen wurden entwickelt. Die inhaltliche Konzentration auf das weihnachtliche Konsumverhalten ermöglichte dabei eine detailgenaue Erfassung des Datenmaterials für die weihnachtsrelevanten Zeiträume ("Weihnachtszeiten"). Eine Totalerfassung des gesamten Betrachtungszeitraums (1933-1993) ließ sich aus arbeitsökonomischen Erwägungen an dieser Stelle nicht realisieren.
Forschungsfrage A:
Inwiefern lassen sich Konsum-Hochzeiten als Bestandteile ökonomisch-sozialer Wirklichkeit anhand von Haushaltsbüchern rekonstruieren?
Aus dieser Frage ergeben sich drei Untersuchungsschwerpunkte, die exemplarisch die Konsum-Hochzeit Weihnachten im Untersuchungshaushalt detailliert betrachten und analysieren.
Untersuchungsschwerpunkt A1:
Welchen Umfang nimmt der Weihnachtskonsum im Untersuchungshaushalt im Zeitverlauf ein?
Untersuchungsschwerpunkt A2:
Wie setzt sich der Weihnachtskonsum des Untersuchungshaushalts konkret zusammen?
Untersuchungsschwerpunkt A3:
Weist der weihnachtsrelevante Konsum des Untersuchungshaushalts Kontinuitäten im Zeitverlauf oder Abhängigkeiten zu anderen Ausgabewerten auf?
Forschungsfrage B:
Welche Einflussfaktoren auf den weihnachtlichen Konsum lassen sich anhand des Quellenmaterials identifizieren?
Forschungsfrage C:
Welches weiterführende Untersuchungspotential beinhalten der konkrete Quellenbestand und dieses methodische Vorgehen innerhalb der Konsumforschung und in benachbarten Disziplinen?
Das Thema Weihnachten und auch die mit ihm verbundene Konsumtätigkeit stellen einen komplexen Forschungsgegenstand dar, der eine mehrdimensionale Annäherung nötig macht.20 Dieser Anforderung wird durch eine Analyse verschiedener Parameter auf unterschiedlichen zeitlichen Untersuchungsebenen Rechnung getragen.
Als Parameter des Untersuchungsschwerpunkts A1 dient das Niveau des weihnachtlichen Konsums. Die weihnachtsrelevanten Ausgaben werden also anhand ihrer absoluten und relativen Werte untersucht.
Die im Untersuchungsschwerpunkt A2 gestellte Frage nach der konkreten Zusammensetzung des Weihnachtskonsums wird mithilfe des Parameters Konsumstruktur beantwortet: Auf unterschiedlichen Detailebenen werden die weihnachtlichen Konsumstrukturen des Untersuchungshaushalts in ihrer Entwicklung nachgezeichnet.
Im Rahmen des letzten Untersuchungsschwerpunkts (A3) schließlich, wird der weihnachtsrelevante Konsum auf eventuell erkennbare Konsummuster untersucht und im Anschluss daran nach seinem Verhältnis zum allgemeinen Konsum gefragt.
Aus diesen drei Schwerpunkten und ihren zugehörigen Parametern ergeben sich zwei Untersuchungsebenen des weihnachtlichen Konsums:
Einerseits geschieht dies punktuell für ausgewählte Jahre, andererseits findet eine Betrachtung des Weihnachtskonsums auf der zeitlichen Entwicklungsschiene statt. Beide Ebenen werden in den verschiedenen Analysekapiteln unterschiedlich miteinander verknüpft.
Mit Hilfe einer umfassenden Kontextualisierung des haushaltsspezifischen Konsumverhaltens sowie im Verlauf der einzelnen Analyseschritte werden die unterschiedlichen Einflussfaktoren auf das Konsumverhalten ermittelt (Forschungsfrage B). Hierzu zählen vor allem gesamtgesellschaftliche, wirtschaftliche, aber auch regionalspezifische Einflüsse (äußere Faktoren) sowie familien- bzw. haushaltsspezifische Einflüsse (innere Faktoren). Die Ermittlung dieser Faktoren wird dadurch möglich, dass der hohe Detailgrad des Ausgangsmaterials für die Analyse erhalten bleibt. Das Datenmaterial wird also sowohl in quantitativer als auch in qualitativer Hinsicht ausgewertet. Anhand zusätzlicher Angaben aus den Haushaltsbüchern und Taschenkalendern werden Familienzyklusphasen rekonstruiert sowie die Einflussnahme weiterer haushaltsspezifischer oder äußerer Faktoren ermittelt. Das vorliegende Datenmaterial stellt in dieser Form einen bisher einzigartigen Fundus für die Untersuchung soziokulturellen Wandels dar.
Das besondere Erkenntnisinteresse dieser Studie liegt in thematischer Hinsicht in dem Vorhaben, das Weihnachtsfest als besondere Konsum-Hochzeit intensiv zu beleuchten.
Auf methodisch-praktischer Seite soll mit diesem quellenmäßigen Sonderfall eine Einschätzung der Funktionalität und wissenschaftlichen Aussagekraft der Quelle Haushaltsbuch vorgenommen werden (Forschungsfrage C), für die Uwe Spiekermann konstatiert: "So stark nämlich Haushaltsrechnungen bisher quantitativ überschätzt wurden, so stark wurden sie hinsichtlich ihrer qualitativen Gehalte unterschätzt." Das Haushaltsbuch als wissenschaftliche Quelle soll einerseits konkret am vorliegenden Datenmaterial; andererseits aber auch auf einer allgemeineren Ebene und mit Blick auf Forschungsfragen benachbarter Disziplinen erläutert werden.
In diesem Zusammenhang wird auch auf die Möglichkeiten und Grenzen einer Aufbringung dieser Quellenart einzugehen sein.
Die Erfassung und Aufbereitung des Quellenbestands wurde dahingehend konzipiert, dass das gewonnene Datenmaterial als Grundlage für eine Vielzahl weiterer Forschungen und Sekundäranalysen verwendet werden kann.
Die Beantwortung der vorgestellten Forschungsfragen im Rahmen der vorliegenden Untersuchung soll schließlich einen Beitrag zur qualitativ ausgerichteten Haushaltsforschung liefern. Der Untersuchungsgegenstand Weihnachtskonsum wird dabei unter wirtschafts- und kulturhistorischen Gesichtspunkten betrachtet. Die Studie befindet sich also an einer vielversprechenden und bisher noch wenig untersuchten wissenschaftlichen Nahtstelle. Gleichzeitig stellt sie eine moderne haushaltsbuchbasierte Längsschnittstudie dar, die Kontinuität und Wandel des weihnachtlichen Konsumverhaltens eines konkreten Haushaltes im Zeitverlauf untersucht.
Die Originalquellen (Haushaltsbücher und Kalender) sind von der Primärforscherin dem Rheinisch-Westfälischen Wirtschaftsarchiv (RWWA) in Köln übergeben worden.
Das aus den Haushaltsbüchern und Taschenkalendern entwickelte Datenmaterial (Master Originalprodukte, Datensatz MK Gesamtkonsum, Datensatz MK Weihnachtskonsum) wurde für weitere Sekundäranalysen im GESIS – Leibniz-Institut für Sozialwissenschaften, Bereich Datenarchiv, archiviert.
Die Daten:
Die Daten liegen im Excel-Format vor:
- Nach Jahren erfasste und geordnete Konsum-Daten, 1933-1992:
Einnahmen des Haushalts und Ausgaben (Artikel alphabetisch geordnet)
pro Tag, Monat und Jahr: 1933 11-12.xls bis 1992 11-12.xls und
1939 1-10.xls bis 1989 1-10.xls.
- Master Originalprodukte
- MK Gesamtkonsum
- MK Weihnachtskonsum
- 11-08-05-Master SEA klassifiziert.xls
- 11-10-31 Master Originalprodukte.xls
Die Entwicklung der Datensätze 'MK Weihnachtskonsum' und 'MK Gesamtkonsum' wurde an den Forschungsfragen ausgerichtet. Diese beiden Datensätze bilden die Grundlage für die Analyse des weihnachtlichen Konsums.
Für die Analyse wurden zunächst sämtliche Konsumausgaben des Untersuchungshaushalts für die Monate November und Dezember des gesamten Betrachtungszeitraums erfasst. Die jeweiligen Gesamtausgaben in diesen beiden Monaten dienen als Bezugsgröße für die weiteren Analysen.
Für insgesamt sechs Stichjahre wurden die Konsumausgaben für die Monate Januar bis Oktober erfasst, so dass für diese Jahre die Ausgaben für das gesamte Jahr vorliegen. Es handelt sich um die Jahre 1939, 1949, 1959, 1969, 1979 und 1989. Diese Stichjahre dienen einer Einordnung des weihnachtlichen Konsums im Gesamtkonsum des Haushalts. Die Auswahl dieser Stichjahre sollte jedes Jahrzehnt des Untersuchungszeitraums präsentieren und die ausgewählten Jahre sollten nicht durch äußere politische Ereignisse als Ausnahmejahre geprägt sein. Die Aufzeichnungen der Ausgaben erfolgte chronologisch und quellengenau. Sie sind in folgenden Dateien in dieser detaillierten Form enthalten:
Jährliche Dateien von 1933 11-12.xls bis 1992 11-12.xls sowie für die Stichjahre jeweils 1939 1-10.xls bis 1989 1-10.xls
Die Aufzeichnungen der Ausgaben erfolgte chronologisch und quellengenau. Zum einen werden pro Tag alle in den Haushaltsbüchern für die jeweiligen Monate dokumentierten Produkte und Dienstleistungen aufgenommen (erste linke Spalte mit der Überschrift 'Güter', Bezeichnung für die Tabellenzeilen). Daneben wurde das jeweils im Haushaltsbuch als Einkaufszeitpunkt vermerkte Tagesdatum erfasst (Überschriften der Tabellenspalten (1 steht für den ersten Tag des Monats). Das Tabellenblatt insgesamt wird mit Jahres- und Monatsangabe abgespeichert (z.B.: 1933-11)). Mengen- und Größenangaben wurden nur dort erfasst, wo sie Missverständnisse vorbeuten. So kann der Eintrag "Tasse Kaffee" vom eingekauften Kaffeepulver mit dem Eintrag "Kaffee" unterschieden werden. Der Eintrag "Antrazith, III, 60 Pfund" bezeichnet den dritten Kohleneinkauf des betreffenden Winters. In den Zellen findet sich der gezahlte Preis für die erworbene Ware oder Dienstleistung. Die chronologische Erfassung der Angaben ergab insgesamt 66 Excel-Dateien: 60 Dateien enthalten die Weihnachsausgaben dokumentiert in je zwei Datenblättern, ein Excelblatt für November und ein Excelblatt für Dezember. 6 weitere Excel-Dateien dokumentieren die Ausgaben für die Monate Januar bis Oktober in je 10 Excelblättern für die Stichjahre.
Sämtliche Angaben liegen in alphabetisch sortierter Reihenfolge vor.
Die 'Masterdatei Originalprodukte' ('11-10-31 Master Originalprodukte.xls') umfasst rund 14.500 verschiedene Produkt- und Dienstleistungseinträge mit meist mehreren Ausgabenposten in verschiedenen Monaten. Sie wurde aus den Monatssummen der Einkäufe nach Produktart (Angaben in den Dateien 1933 11-12.xls bis 1992 11-12.xls und 1939 1-10.xls bis 1989 1-10.xls) generiert.
Im Datenfile wird neben dem Zahlencode des SEA'98 auch das entsprechende Produkt aufgelistet (Beispiel: laufende Nr.: 5218; SEA-Produkt-Art: v0100000; Produkte: Gewürz & Pfeffermünz).
Die Konsumartikel sind nach der Systematik des Statistischen Bundesamtes (SEA 1998: Systematisches Verzeichnis der Einnahmen und Ausgaben, Stand 1998) gegliedert. Die SEA ist eine Klassifizierung des Statistischen Bundesamtes für Einnahmen und Ausgaben privater Haushalte und mit einem internationalen Kategorienschema privater Konsumausgaben abgestimmt (siehe COIOP). Im Rahmen der SEA werden die Einnahmen und Ausgaben in 6 Hierarchie-Ebenen mit Hilfe eines siebenstelligen Zahlencodes strukturiert:
1. Ebene: Abteilung (z.B.: 01: Nahrungsmittel, alkoholfreie Getränke)
2. Ebene: Gruppe (z.B.: 011: Nahrungsmittel, die zu Hause zubereitet werden)
3. Ebene: Klasse (z.B.: 0111: Brot u. Getreideerzeugnisse)
4. Ebene: Unterklasse (z.B.: 01112: Brot u. Backwaren)
5. Ebene: Kategorie (z.B.: 011121: Brot u.a. Backwaren aus Brotteig )
6. Ebene: Art (z.B.: 0111211: Weißbrot, 0111212 Roggen- und Mischbrot)
Darüber hinaus wurde die SEA-Systematik um insgesamt 30 haushaltsspezifische Zusatzcodes von der Primärforscherin erweitert. Grund hierfür waren produktmäßige Besonderheiten im Untersuchungshaushalt, die mithilfe der vorhandenen Zahlencodes nicht angemessen erfasst werden konnten. Andererseits ermöglichte die Ausdifferenzierung einzelner Klassen der SEA eine systematische Erfassung eines Teils des weihnachtlichen Konsums. Die 14.500 Datenzeilen aus der Masterdatei Originalprodukte wurden anhand dieser erweiterten Systematik kategorisiert und in aufsteigender Reihenfolge nach den SEA 98 Zahlencodes sortiert.
MK Gesamtkonsum.xls
Aus den nach SEA kategorisierten, sortieren und nach identischen Codes zusammengeführten Datenzeilen geht der Datensatz 'MK Gesamtkonsum.xls' hervor. Es ist die abschließende Kategorisierung des Datenmaterials (Einzelausgaben) nach der SEA-Klassifikation. Er umfasst 725 verschiedene Güter- bzw. Dienstleistungsvariablen. Davon sind 695 Zahlencodes originäre Unterteilungen der SEA98. 27 Codes wurden zusätzlich in die bestehende SEA 98-Struktur eingefügt, um die Detailtiefe des Ausgangsmaterials adäquat abzubilden. Darüber hinaus wurden 3 zusätzliche Sammelcodes gebildet, in denen insgesamt 314 Produkt- und Dienstleistungsangaben zusammengefasst wurden, die verschiedene Abteilungen und Ebenen gleichermaßen zuzuordnen wären: Sammelcode 'sonstiges' (ohne Lebensmittel und Getränke); Sammelcode 'Ernährung' (Lebensmittel und Getränke); Sammelcode 'J und G Verschiedenes'. Zahlenmäßig fallen diese Angaben jedoch kaum in das Gewicht.
MK Weihnachskonsum.xls
Dieser Datensatz enthält alle weihnachtsrelevanten Ausgaben nach SEA 98 Abteilungen und Untergruppen.
Erstellt wurde der Datensatz aus der Datei 'MK Gesamtkonsum.xls'.
Für die nach SEA 98 klassifizierten Ausgaben wurde eine Weihnachtskategorisierung anhand der Original-Produktbeschreibungen vorgenommen. Ziel ist eine Konzentration auf die wesentlichen Ausgabengruppen mit Weihnachts-Relevanz. Auf diese Weise stellen die ermittelten Ausgabenwerte jeweils die weihnachtlichen Minimalaufwendungen dar, die der Untersuchungshaushalt in der jeweiligen Weihnachtszeit getätigt hat. Das Weihnachtsfest setzt sich im Wesentlichen aus folgenden Bestandteilen zusammen: festliches Essen; intergenerationelle Feier; gegenseitiges Beschenken. Diese drei Bestandteile bilden das thematische Gerüst für die Analyse des weihnachtlichen Konsums. Innerhalb des Gerüsts kommen die Konsumausgaben aus folgenden SEA 98-Abteilungen in Betracht:
Festliches Essen:
- Abteilung 01 (Nahrungsmittel und alkoholfreie Getränke)
- Abteilung 11 (Beherbergungs- und Gaststättendienstleistungen)
Intergenerationelle Feier:
- Abteilung 05 (Einrichtungsgegenstände)
- Abteilung 07 (Verkehr)
- Abteilung 08 (Nachrichtenübermittlung)
- Abteilung 09 (Freizeit, etc.)
Gegenseitiges Beschenken:
- Abteilung 03 (Bekleidung und Schuhe)
- Abteilung 09 (Freizeit, etc.)
- Abteilung 15 (Ausgaben der privaten Haushalte, ohne Individualkonsum)
Pro weihnachtlichen Festbestandteil (Essen/ Feier/ Beschenken) wurde die Datenauswahl weiter in mehrere Untergruppen präzisiert.
So wurden für das Festliche Essen folgende Untergruppen gewählt:
Abteilung 01,
Untergruppe Backwaren: 0111 000 (0111 200, 0111 400)
Untergruppe Fleisch: 0112 000 (0112 400)
Untergruppe Süßigkeiten: 0118 000 (0118 300, 0118, 400)
Untergruppe Früchte u. Nüsse: 0116 000 (0116 100, 0116 300, 0116 800)
Abteilung 11
Untergruppe Außerhaus-Verpflegung: 1111 000, 1112 000, 1120 000
Als Resultat des Auswahlprozesses ergeben sich für die Weihnachtsbestandteile 11 Untergruppen, denen wiederum insgesamt 32 weihnachtsrelevante SEA 98-Klassen zugeordnet wurden. Sämtliche Konsumausgaben, die in der Masterdatei 'Originalprodukte' diesen Klassen zugeordnet waren, wurden in einer Übergangsdatei zusammengeführt. Anhand der Original-Produktbezeichnungen wurden die einzelnen Einträge anschließend nach folgenden Kategorien klassifiziert:
- Kategorie 0: Ausgaben, die keine Weihnachtsrelevanz besitzen.
- Kategorie 1: Ausgaben mit eindeutiger Weihnachtsrelevanz.
- Kategorie 2: Ausgaben, die nicht eindeutig identifizierbar sind.
Als eindeutig weihnachtsrelevant wurden Ausgaben gewertet, die entweder Produkte mit klaren Weihnachtsbezug getätigt wurden (z.B.: Spekulatius, Weihnachtsbaum) oder für Produkte, die durch entsprechende zusätzliche Notizen im Haushaltsbuch als Weihnachtseinkauf erkennbar waren (z.B.: Silvia zu Weihnachten).
Alle Einträge der Kategorisierung 1 wurden in ihren jeweiligen Untergruppen angeordnet und zu dem Datensatz 'MK Weihnachtskonsum' zusammengestellt.
Der Datenfile '11-08-05-Master SEA klassifiziert.xls' enthält im Tabellenblatt 'Master komplett' in der ersten Spalte die Angaben der Produkt-Gruppen nach dem Zahlencode der Klassifikation des Statistischen Bundesamtes und zusätzlich noch weitere definierte Klassifikationen, die von der SEA 1998 nicht abgedeckt wurden (smandguet, smbuero, smdienstl, smfahrtua, smfahrtuaq, smgesukoe, smgetraen, smgversch, smjversch, smkontobe, smkriegsa, smnahrget, smunspezi, sx, sy, sz).
Der vierstellige Zahlencode am Kopf jeder Datenspalte gibt das Jahr und den Monat an. 3311 steht für das Jahr 1933 und den 11. Monat (November).
Der Wert 0,00 in einer Datenreihe gibt an, dass vom Haushalt für dieses Produkt keine Ausgaben getätigt wurden.
GESIS
Bad governance causes economic, social, developmental and environmental problems in many developing countries. Developing countries have adopted a number of reforms that have assisted in achieving good governance. The success of governance reform depends on the starting point of each country – what institutional arrangements exist at the out-set and who the people implementing reforms within the existing institutional framework are. This dissertation focuses on how formal institutions (laws and regulations) and informal institutions (culture, habit and conception) impact on good governance. Three characteristics central to good governance - transparency, participation and accountability are studied in the research. A number of key findings were: Good governance in Hanoi and Berlin represent the two extremes of the scale, while governance in Berlin is almost at the top of the scale, governance in Hanoi is at the bottom. Good governance in Hanoi is still far from achieved. In Berlin, information about public policies, administrative services and public finance is available, reliable and understandable. People do not encounter any problems accessing public information. In Hanoi, however, public information is not easy to access. There are big differences between Hanoi and Berlin in the three forms of participation. While voting in Hanoi to elect local deputies is formal and forced, elections in Berlin are fair and free. The candidates in local elections in Berlin come from different parties, whereas the candidacy of local deputies in Hanoi is thoroughly controlled by the Fatherland Front. Even though the turnout of voters in local deputy elections is close to 90 percent in Hanoi, the legitimacy of both the elections and the process of representation is non-existent because the local deputy candidates are decided by the Communist Party. The involvement of people in solving local problems is encouraged by the government in Berlin. The different initiatives include citizenry budget, citizen activity, citizen initiatives, etc. Individual citizens are free to participate either individually or through an association. Lacking transparency and participation, the quality of public service in Hanoi is poor. Citizens seldom get their services on time as required by the regulations. Citizens who want to receive public services can bribe officials directly, use the power of relationships, or pay a third person – the mediator ("Cò" - in Vietnamese). In contrast, public service delivery in Berlin follows the customer-orientated principle. The quality of service is high in relation to time and cost. Paying speed money, bribery and using relationships to gain preferential public service do not exist in Berlin. Using the examples of Berlin and Hanoi, it is clear to see how transparency, participation and accountability are interconnected and influence each other. Without a free and fair election as well as participation of non-governmental organisations, civil organisations, and the media in political decision-making and public actions, it is hard to hold the Hanoi local government accountable. The key differences in formal institutions (regulative and cognitive) between Berlin and Hanoi reflect the three main principles: rule of law vs. rule by law, pluralism vs. monopoly Party in politics and social market economy vs. market economy with socialist orientation. In Berlin the logic of appropriateness and codes of conduct are respect for laws, respect of individual freedom and ideas and awareness of community development. People in Berlin take for granted that public services are delivered to them fairly. Ideas such as using money or relationships to shorten public administrative procedures do not exist in the mind of either public officials or citizens. In Hanoi, under a weak formal framework of good governance, new values and norms (prosperity, achievement) generated in the economic transition interact with the habits of the centrally-planned economy (lying, dependence, passivity) and traditional values (hierarchy, harmony, family, collectivism) influence behaviours of those involved. In Hanoi "doing the right thing" such as compliance with law doesn't become "the way it is". The unintended consequence of the deliberate reform actions of the Party is the prevalence of corruption. The socialist orientation seems not to have been achieved as the gap between the rich and the poor has widened. Good governance is not achievable if citizens and officials are concerned only with their self-interest. State and society depend on each other. Theoretically to achieve good governance in Hanoi, institutions (formal and informal) able to create good citizens, officials and deputies should be generated. Good citizens are good by habit rather than by nature. The rule of law principle is necessary for the professional performance of local administrations and People's Councils. When the rule of law is applied consistently, the room for informal institutions to function will be reduced. Promoting good governance in Hanoi is dependent on the need and desire to change the government and people themselves. Good governance in Berlin can be seen to be the result of the efforts of the local government and citizens after a long period of development and continuous adjustment. Institutional transformation is always a long and complicated process because the change in formal regulations as well as in the way they are implemented may meet strong resistance from the established practice. This study has attempted to point out the weaknesses of the institutions of Hanoi and has identified factors affecting future development towards good governance. But it is not easy to determine how long it will take to change the institutional setting of Hanoi in order to achieve good governance. ; Bad governance (schlechte Regierungsführung) verursacht neben wirtschaftlichen und sozialen Schäden auch Umwelt- und Entwicklungsprobleme in vielen Entwicklungsländern. Entwicklungsländer haben zahlreiche Reformen in Angriff genommen, welche sie in der Entwicklung von good governance (gute Regierungsführung) unterstützen sollen. Der Erfolg solcher Reformen staatlicher Steuerungs- und Regelsysteme hängt jedoch maßgeblich von der Ausgangssituation in den einzelnen Ländern ab. Einfluss auf den Erfolg haben Faktoren wie z. B. die existierende institutionelle Ordnung, auf die zu Beginn solcher Reformen zurückgegriffen werden kann. Auch der verantwortliche Personenkreis, der mit der Umsetzung der Reformen beauftragt wird, ist für deren Erfolg maßgeblich. Diese Dissertation befasst sich damit, wie sich formelle Institutionen (Gesetze und Regeln) sowie informelle Institutionen (Kultur, Gewohnheit und Wahrnehmung) auf good governance auswirken können. Im Rahmen dieser Forschungsarbeit werden drei Merkmale mit besonderem Bezug zu good governance untersucht: Transparenz, Partizipation und Rechenschaftspflicht. Folgende Untersuchungsergebnisse sind hervorzuheben: In Bezug auf good governance stellen Berlin und Hanoi zwei Extreme dar. Während Berlin auf einer "good-governance-Skala" im positiven oberen Bereich anzusiedeln wäre, müsste sich Hanoi eher im unteren Bereich wiederfinden. Good governance im Sinne von verantwortungsvoller Regierungsführung ist in Hanoi bei weitem noch nicht erreicht. So sind in Berlin Informationen sowohl über die Ziele und die Entscheidungen der am Politikprozess beteiligten Akteure und über Dienstleistungen der Verwaltung als auch über die öffentlichen Finanzen allgemein abrufbar, verlässlich und verständlich. Dies ist nicht der Fall in Hanoi. Während in Berlin die BürgerInnen keine Schwierigkeiten im Zugang zu öffentlichen Informationen haben, so sind diese Informationen in Hanoi nicht oder nur schwer erhältlich. Weiterhin gibt es zwischen Hanoi und Berlin erhebliche Unterschiede in den drei Arten der Partizipation. Während die Wahlen kommunaler Vertreter in Hanoi rein formell und erzwungen sind, so sind Wahlen in Berlin gleich, geheim und frei. Bei den Berliner Kommunalwahlen entstammen die VertreterInnen den unterschiedlichen Parteien und Wählervereinigungen, während die Kandidatur der KommunalvertreterInnen in Hanoi weitgehend durch die Volksfront bestimmt wird. Obwohl die Wahlbeteiligung bei den lokalen Wahlen in Hanoi bei fast 90% liegt, so ist die Legitimität sowohl der Wahlen selbst als auch des Vertretungsprozesses so gut wie nicht vorhanden. Die zu wählenden VolksvertreterInnen werden ausschließlich durch die Kommunistische Partei bestimmt. In Berlin wird die Teilhabe der BürgerInnen bei der Lösung kommunaler Probleme durch die Regierung gefördert. Hierzu werden unterschiedliche Methoden genutzt, u. a. der Bürgerhaushalt, Bürgerportale, Bürgerinitiativen etc. Einzelne BürgerInnen können entscheiden, ob sie sich individuell oder auch kollektiv einbringen. Durch das Fehlen von Transparenz und bürgerlicher Teilhabe ist die Qualität öffentlicher Dienstleistungen in Hanoi gering. So werden Dienstleistungen selten innerhalb der Fristerbracht, die gesetzlich vorgegeben ist. BürgerInnen, die dennoch öffentliche Dienstleistungen in Anspruch nehmen und zeitnah erhalten wollen, können die verantwortlichen Beamten direkt bestechen, ihre persönlichen Beziehungen nutzen oder eine dritte Person gegen Bezahlung beauftragen – einen "Mediator" (Vietnamesisch: "Cò"). Im Gegensatz hierzu werden Dienstleistungen in Berlin kundenorientiert erbracht. Die Qualität der Dienstleistungen ist in Bezug auf Zeit und Kosten hochwertig. Schmiergeldzahlungen, Bestechung sowie das Nutzen persönlicher Beziehungen im Austausch für "bessere" öffentliche Dienstleistungen sind in Berlin unüblich. Die Analyse der Fallstudien in Berlin und Hanoi verdeutlichen, wie Transparenz, bürgerliche Teilhabe sowie Rechenschaftspflicht miteinander verflochten sind und sich gegenseitig beeinflussen. Es ist schwierig die Kommunalverwaltung in Hanoi zur Rechenschaft zu ziehen. Hierzu fehlt es an geeigneten Instrumenten, wie z.B. freie und gleiche Wahlen. Es fehlt ebenfalls die Beteiligung von Akteuren wie freien Medien, Nichtregierungsorganisationen und zivilgesellschaftlichen Organisationen. Der wesentliche Unterschied formeller regulativer und kognitiver Institutionen zwischen Berlin und Hanoi wird anhand von drei Prinzipien dargestellt: Rechtsstaatlichkeit (Rule of Law) vs. Herrschaft durch Recht (rule by law), Pluralismus vs. Einheitspartei innerhalb der Politik sowie Marktwirtschaft vs. Marktwirtschaft sozialistischer Prägung. In Berlin gelten Verhaltensnormen, welche das Gesetz und die individuelle Freiheit respektieren. Ebenso herrscht das Bewusstsein vor, die Gemeinschaft zu fördern. EinwohnerInnen Berlins erachten es als selbstverständlich, dass sie öffentliche Dienstleistungen gerecht in Anspruch nehmen können. Die Vorstellung, Geld oder Beziehungen auf unrechtmäßige Art zu nutzen, um Verwaltungsvorgänge abzukürzen, herrschen weder bei Verwaltung noch bei den BürgerInnen vor. Innerhalb eines schwachen formellen Rahmens von good governance in Hanoi interagieren neue Werte und Normen einer Volkswirtschaft im Umbruch (Wohlstand, Erfolg) mit denen einer Planwirtschaft (Lügen, Abhängigkeit, Passivität) sowie mit denen traditioneller Gesellschaften (Hierarchie, Harmonie, Familie, Kollektivismus) und beeinflussen die Handlungen der Akteure. In Hanoi wird es nicht als selbstverständlich angesehen, das zu tun, was in Berlin als "das Richtige" angesehen würde, z. B. Gesetze einzuhalten. Unbeabsichtigte Konsequenzen willkürlicher Reformaktivitäten der Partei zeigen sich im Fortbestehen von Korruption. Die sozialistische Orientierung der Marktwirtschaft scheint nicht erreicht worden zu sein, da sich die Schere zwischen Reich und Arm geweitet hat. Good governance ist unerreichbar, wenn BürgerInnen, Verwaltung und PolitikerInnen hauptsächlich von Eigeninteressen gelenkt werden. Der Staat und die Gesellschaft hängen voneinander ab. Um theoretisch good governance in Hanoi zu erreichen, müssten (formelle und informelle) Institutionen geschaffen werden, die positiven Einfluss auf BürgerInnen, Verwaltung und VolksvertreterInnen haben. BürgerInnen sind "gut" aufgrund von Lernprozessen und Gewöhnung und nicht aufgrund ihrer Natur. Das Rechtstaatlichkeitsprinzip ist notwendig, um die Leistungsbereitschaft lokaler Verwaltungen sowie der Volksvertretungen zu stärken. Sobald Rechtstaatlichkeit konsequente Anwendung findet, verringert sich auch der Raum, in dem informelle Institutionen angewendet werden können. Die Förderung von good governance in Hanoi hängt im Wesentlichen vom Verlangen ab, die Regierung und die Menschen zu verändern. Good governance in Berlin sollte als Ergebnis eines andauernden Prozesses von Entwicklung und Änderung von Lokalregierung und BürgerInnen angesehen werden. Institutionelle Transformation ist ein langwieriger und komplizierter Prozess. Veränderungen formeller Regelungen sowie die Art der Implementierung solch neuer Regelungen trifft möglicherweise auf starken Widerstand seitens etablierter Akteure mit ihren Gewohnheiten. In dieser Studie wurde gezeigt, welches die Schwachpunkte der Institutionen in Hanoi sind. Ebenso wurden jene Faktoren identifiziert, welche die zukünftige Entwicklung in Richtung von good governance beeinflussen können. Es ist jedoch schwierig einzuschätzen, wie lange es dauern wird, das institutionelle Gefüge in Hanoi hin zu verantwortungsvoller Regierungsführung zu ändern.
BASE
Wäre die Gegenwart eine andere, hätte im Mai 2020 die achte Ausgabe der Konferenz "Theater und Netz", einer Initiative von nachtkritik.de und der Heinrich-Böll-Stiftung, stattgefunden. Stattdessen ergab sich für Theaterschaffende, Kritiker*innen und Publikum reichlich Gelegenheit, das Verhältnis von Theater und Netz in actu auszuloten: Durch die Ausgangsbeschränkungen befeuert, verlagerte sich das Theatergeschehen in die digitale Experimentierstube. Im Oktober erschien nun der Band Netztheater, der in 21 Beiträgen die Erfahrungen der vergangenen sechs Monate reflektiert –fundiert durch die Expertise der im Format "Theater und Netz" seit 2013 geleisteten Pionierarbeit. Die Kürze der zwei- bis siebenseitigen Beiträge, gepaart mit der Erfahrungsdiversität aus Herstellung, Rezeption und wissenschaftlicher Auseinandersetzung, hat entscheidende Vorteile: Hier wird nicht lange umständlich unter Ausrufung irgendeines "Post-" herumgeredet oder die beliebte Formel strapaziert, Theater müsse "neu gedacht" werden. Die Beitragenden verbindet die gemeinsame Sache und so kommen sie rasch zum Punkt. Als Hybrid aus theoretischen Positionen und reflektierender Praxis bündelt die Publikation praktisch verwertbares und weiterentwickelbares Wissen kompakt und beinahe in Echtzeit. Daher verhandelt diese Rezension die Beiträge nicht chronologisch, sondern führt einander ergänzende Perspektiven zu zentralen Aspekten wie Dramaturgie, Community, Interaktion etc. kommentierend zusammen: Der Band eröffnet mit einem Praxisbericht des geglückten Burgtheater-on-Twitter-Experiments #vorstellungsänderung, das tausende Mittweeter*innen auch abseits des Abopublikums rekrutierte. Projekte wie dieses geben Hoffnung, dass die Theater, die sich im Netz oft als singuläre kulturelle Leuchttürme gebärden, durchaus von den Praktiken der Sozialen Medien profitieren können: Like, share, comment, retweet sind schließlich nichts anderes als digitale Kürzel für gemeinschaftsstiftende Interaktionen, basierend auf Emotion, Zuspruch, Diskussion und Multiplikation. Vielleicht sind in Zukunft ja auch vermehrt offen und öffentlich geführte Dialoge zwischen Theaterhäusern zu erwarten? Netztheater geht davon aus, dass die Suche nach digitalen künstlerischen Ausdrucksformen sich nicht erst daraus ergibt, dass Hygieneregeln und Distanzierungsvorgaben die Modi des Zuschauens kurzfristig verändert haben. Auch tradierte Annahmen über das Publikum sind zu überprüfen. In ihrem kollaborativen Text "Das Theater der Digital Natives" beobachten Irina-Simona Barca, Katja Grawinkel-Claassen und Kathrin Tiedemann, dass die Digitalisierung längst "in Form von Alltagstätigkeiten und Wahrnehmungsweisen" (S.16) im Theater angekommen sei. Das Theater ist kein geschützter Ort, an dem die Zeit stehen geblieben ist. Vielmehr tragen die Zuschauer*innen die Welt, in der sie leben, unweigerlich in ihn hinein. Das betrifft auch Praktiken des Multitaskings bzw. des 'Second Screen', also die Gleichzeitigkeit mehrerer Interfaces und Informationsquellen. Jahrhundertelang war der zentralperspektivische Blick der Barockbühne prägend für die Organisation einer exklusiven Aufmerksamkeit im Theater. Wiewohl es also eine neue Erfahrung für die Theaterhäuser ist, "Nebenbeimedium zu sein" (S. 20), wie Judith Ackermann betont, ist es höchste Zeit, diese 'verstreute' Aufmerksamkeit im Inszenierungsprozess aktiv mitzudenken und gezielt einzusetzen. Dabei ist die Diversität des Publikums inklusive der unterschiedlich ausgeprägten Media Literacy zu beachten, denn nicht alle Zuschauer*innen werden sich augenblicklich z. B. in einer gamifizierten virtuellen Umgebung zurechtfinden: "Indem ich im digitalen Raum Zusatzinformationen – Hintergrundinfos zum Stück, zur Produktion – zu meinen Inszenierungen streue, kann ich zum Beispiel auch dem 'analogen Publikum' einen Mehrwert bieten, der es aber nicht verschreckt." (S. 22) Für eine Dramaturgie des Digitalen ist Aristoteles allenfalls partiell ein guter Ratgeber. Zu viele Komponenten sind neben 'der Story an sich' an der Architektur der Erzählung beteiligt. Einige Elemente des 'klassischen' Storytellings lassen sich psychologisch für den digitalen Raum begründen: Das Überschreiten der 'Schwelle' etwa wird als zentraler Moment markiert, zumal die Spielregeln für das Dahinterliegende noch nicht festgelegt sind – die Verständigung auf "Floskeln, Rollen und Situationen" (S. 71) hat erst zu erfolgen. Friedrich Kirschner, Professor für digitale Medien an der Ernst Busch Berlin, schlägt vor, die zur Vermittlung von "Rollen- und Erlebnissicherheit" (ebd.) dringend nötigen Ausverhandlungsprozesse im Rahmen der jeweiligen Inszenierung ästhetisch zu gestalten. Dabei setzt er auf ein Miteinander, "das im Gegensatz zu den treibenden Kräften der Plattformhalter auf Erkenntnis gerichtet ist; das Handlungsfähigkeit vermittelt anstelle von Determinismus" (S. 73). In diesem Sinne schlägt Ackermann überdies vor, "modular" zu denken, also "leichte Ein- und Ausstiegsmöglichkeiten" zu schaffen, "indem man immer wieder die Möglichkeit gibt dazuzustoßen" (S. 21). Wiederholt wird das Serielle als Chance für neue Theaterformen ausgewiesen, beispielsweise um "durch gemeinsames, geteiltes Wissen über einen langen Zeitraum […] eine Beziehung zu Figuren auf[zu]bauen, sie mit der eigenen Lebensrealität ab[zu]gleichen und mit Freund/innen [zu] diskutieren" (S. 72), wie Kirschner in "Teilhabe als Notwendigkeit: Theater als Raum pluraler Gemeinschaften" schreibt. Um diese Gemeinschaftsbildung ist es auch Christiane Hütter zu tun: Die Community ist das Herzstück des Theaters, weshalb die künstlerische Energie aktuell vor allem darauf zu verwenden sei, "dass Leute wiederkommen, dass sich Routinen und Rituale entwickeln, dass serielle Formate entstehen" (S. 45). Diese Community aufzubauen, "das ist ein Handwerk, das eine Strategie, Zeit und Inhalte benötigt" (S. 30), weiß auch Christian Römer, Referent für Kulturpolitik und Neue Medien der Heinrich-Böll-Stiftung, in seinem Plädoyer "Für ein Theater @home!". Essentieller Bestandteil dieser Strategie, die vorerst noch strategisch auf eine Gemeinschaft "vor der Bezahlschranke" setzen müsse, sei die "Arbeit an der eigenen Identität als Theater im Netz" (ebd.). "Ein Schaufenster in die eigene Vergangenheit stärkt die Bindung des Publikums an 'sein' Theater." (S. 29) Man möchte hinzufügen, dass die "Verbindung zur [eigenen] Geschichte" (ebd.) auch nach Innen identitäts- und strukturbildend wirken und so womöglich die ein oder andere Erschütterung abfangen kann, die die Theaterschaffenden gegenwärtig persönlich und als Gemeinschaft erleben. Wie zugkräftig Selbstmarketing bzw. 'Branding' in Sachen Follower*innenschaft ist, lässt sich beispielsweise bei erfolgreichen Influencer*innen beobachten. Der Dramatiker und Dramaturg Konstantin Küspert zeigt in "Sozialmediale Theaterräume: Die performative Parallelwelt von TikTok" überaus schlüssig auf, welche "Grundelemente theatraler Praxis" in Social-Media-Formaten zu finden sind: "TikToks müssen, um erfolgreich zu sein, praktisch immer eine Pointe haben, meistens überraschend und lustig, und damit grundsätzliche Elemente einer Narration – teilweise regelrechte Fünf-Akt-Strukturen oder Rekontextualisierungen im Miniformat – nachbauen." (S. 26) Auffällig sind auch Praktiken des Samplings, wie sie schon in Hans-Thies Lehmanns Postdramatische[m] Theater, das jüngst seinen zwanzigsten Geburtstag feierte, zu finden sind: Denn auch bei TikToks wird "reinszeniert, kontextualisiert und koproduziert" (ebd.). Aber manchmal ist es gerade das Ähnliche, das trennt. Man stelle sich etwa einen Burgschauspieler auf der Bühne eines Kölner Karnevalsvereines vor. So verlockend wasserdicht die von Küspert angestrengte Gleichung auch anmutet, lässt sich eigentlich nur in der konkreten Anwendung überprüfen, "was vom eigenen Formenrepertoire übersetzbar ist" (S. 84). Der schmerzliche Verlust öffentlicher Orte, zu denen auch das Theater als Raum der gesellschaftlichen Verständigung gehört, zieht sich leitmotivisch durch die Texte des Sammelbandes. "Die Corona-Krise ist eine Krise der Versammlung" (S. 35), bringt Dramaturg Cornelius Puschke diesen Umstand zu Beginn seines "Plädoyer[s] für 1000 neue Theater" auf den Punkt. Dass es sehr wohl auch im Internet Formen von Gemeinschaftsbildung gibt, die sich auf dezentrale Weise organisieren, beobachtet Christiane Hütter mit kritischem Interesse: "QAnon und Konsorten glänzen mit orchestriertem Storytelling, outgesourced an viele, mit einem übergeordneten World-building-Framework, das Inkonsistenzen erlaubt" (S. 41). Eine Aufgabe des Theaters könnte es sein, positive Gegenangebote zu entwerfen, die dieser Sehnsucht nach Gemeinschaft, Austausch und gemeinsamer Erzählung entsprechen. Wie aber können solche Dialog und Austausch befördernden Formate aussehen? Die interdisziplinäre Künstlerin und Game Designerin Christiane Hütter, aus deren Feder insgesamt drei Texte des Bandes und zwei Interviews stammen, entwirft zu diesem Zweck eine "Typologie von Interaktion, Kollaboration und Partizipation" in übersichtlich tabellarischer Form, denn häufig enttäuschten 'interaktive Stücke' durch "Pseudo-Interaktions-Möglichkeiten" oder "asymmetrische Interaktion" (S. 44). Angesichts der pandemiebedingten Einschnitte in die Möglichkeit, durch Handlungen 'stattzufinden', ist es eine der wichtigsten Herausforderungen an Inszenierungsprozesse, die Agency der Zuschauer*innen sinnvoll zu integrieren. Die Nachtkritikerin Esther Slevogt plädiert explizit dafür, die Webseiten der Theater als "Portale in den digitalen Raum" und "Interfaces" (S. 109) zu behandeln. Diese verstehen sich gegenwärtig eher als Sende- denn als Empfangskanäle; die einstigen Gästebücher sind längst in selbstverwaltete Facebook-Gruppen migriert und bilden hier den kulturkritischen Versammlungsort einer recht spezifischen Theaterklientel. Eine Brücke zwischen analog und virtuell, Inszenierungs- und Alltagsgeschehen könnten hybride Formate herstellen. Der Theaterregisseur Christopher Rüping beschreibt Hybridität durchaus als Challenge, weil "sich die kulturellen Praktiken des einen und des anderen so beißen". Eine Inszenierung, die so divergente Rezeptionsbedingungen berücksichtigt, sei entsprechend komplex im Herstellungsprozess und müsste "auf achtzehn Ebenen gleichzeitig" funktionieren: "Interaktivität, die nur im digitalen Raum stattfindet, während ich analog zuschaue und davon ausgeschlossen bin, ist merkwürdig." (S. 94) Zudem ist es auch für Darsteller*innen eine neue Erfahrung, auf die weder Ausbildung noch bisherige Praxis sie angemessen vorbereitet haben. So stellt Ackermann die berechtigte Frage: "Wie kann den Schauspieler/innen das Gefühl vermittelt werden, dass sie keinen Film machen, sondern dass sie mit Personen interagieren, die nicht Teil der performenden Gruppe sind – auch wenn diese Personen nicht physisch kopräsent sind?" (S. 21) 'Gemeinsames Erzählen' prägt die Entstehungsgeschichte unserer Kultur, Gesellschaft und Sozialisation. Keine Entwicklung ohne Kooperation, keine Innovation ohne Vorstellungsvermögen. Netztheater könnte ein System der jahrhundertelangen Professionalisierung von Theater neu in Bewegung bringen, weil es Expertisen unterschiedlicher Provenienz bedarf und den Grundgedanken von Crowdsourcing in Schaffensprozesse integriert. Aber sind wir wirklich bereit für künstlerische Formate mit offenem Ausgang? Widerspricht das nicht dem Prinzip von Inszenierung? Müsste man das Profil der Regie – der ja gerade im deutschen Sprachraum besondere Deutungshoheit zukommt – womöglich neu definieren? Aktionen von Zuschauer*innen, die aktiv am Handlungsverlauf mitschreiben, sind schwer zu antizipieren; die Interventionen von Trollen und Bots brechen unerwartet in den Handlungsverlauf ein. Aber vielleicht ist es angesichts der Erschütterungen von 2020 gar keine dumme Idee, statt vorgefertigter Handlungsbögen flexibel adaptierbare Aktionsmodelle zu entwerfen, mit denen auf den Einbruch des Unvorhergesehen reagiert werden kann. Frank Rieger vom Chaos Computer Club beforscht Mixed-Reality-Projekte bereits seit den 1990er-Jahren. "Hybride Räume, digitale und interaktive Formate" hätten bereits eine lange Geschichte, allerdings gäbe es immer wieder "unrealistische Annahmen über das, was die Technik am Ende leisten können wird" (S. 61). Mitunter behindere aber gerade die entgegengesetzte Annahme die Umsetzung: "Man kriegt ein staatliches Theater für eine große Produktion nur dazu, das auch im digitalen Raum zu machen, wenn die das gleiche Gefühl von ernsthafter Technik haben" (S. 94), weiß Regisseur Christopher Rüping aus eigener Erfahrung. Andere Internetformate bewiesen, dass es nicht immer schweres Gerät erfordert, denn "im digitalen Raum dieses Erlebnis [von Gemeinschaft] zu stiften" sei etwas, das "jedem mittelmäßigen Streamer gelingt" (ebd.). Die Ursache für solche Trugschlüsse sieht Rieger in der Inselexistenz, die viele Theater fristen. Der Branche fehle noch immer eine "breite Kultur des ehrlichen Erfahrungsaustausches, der Diskussion von technischen, inhaltlichen und Projektmanagement-Fehlern" (S. 62), sodass das Rad immer wieder neu erfunden werden müsse. Dem entgegenzuarbeiten beabsichtigt die im vergangenen Jahr gegründete Dortmunder Akademie für Digitalität und Theater. Gemäß ihrer Open-Source-Strategie will sie "Nerdkultur […] ins Theater reinbekommen" (S. 67) und die Erkenntnisse ihrer prototypischen Arbeit in Tutorials, Talks und Wikis zugänglich dokumentieren. In ihrer Auswertung der Netztheaterexperimente des ersten Pandemie-Halbjahres bemerken die Bandredakteur*innen Sophie Diesselhorst und Christian Rakow, dass "das Gros […] piratischen Charakter" hatte. "Es entstammte der Freien Szene oder ging auf Initiativen von Einzel-Künstler/innen zurück, die sich ihre eigene Infrastruktur bauten und einfache technische Lösungen jenseits des Stadttheater-Apparats fanden." (S. 89) Man kann annehmen, dass dieser Innovationsgeist zumindest teilweise der Not geschuldet war. Denn selbst Projekte an etablierten Häusern sind häufig von externen Zusatzförderungen abhängig. Um über den eigenen Guckkasten hinauszudenken, haben einige Theater bereits Kontakt zu freien Künstler*innen und Kollektiven aufgenommen. "Es gibt viele kleine Aufträge von Theatern, die sagen: 'Wir wissen nicht, wie es weitergeht. Wollen Sie etwas ausprobieren?'" (S. 97), schreibt die britische Kritikerin Alice Saville. Diese vorsichtige Kontaktaufnahme birgt die Chance, das Gespräch darüber zu beginnen, wie sich festgefahrene Strukturen künstlerisch und wirtschaftlich öffnen lassen. Eine Möglichkeit wäre, Theater künftig als "Agenturen für das Dramatische" zu denken, wie am 13.11.2020 bei der Onlinetagung "Postpandemisches Theater" vorgeschlagen wurde, die ebenfalls auf die Initiator*innen des Sammelbandes zurückgeht. Für die Pluralität und Interdisziplinarität der Branche steht übrigens auch, dass keine der Autor*innenbiographien einen linearen Verlauf aufweist, geschweige denn sich auf eine einzige Berufsbezeichnung zurückführen ließe. Eine der aktuellen Herausforderungen besteht darin, Jobprofile zu überdenken. In Christiane Hütters Entwurf für ein "Theater der Gegenwart" ändert sich die Organisationsstruktur auch auf der Leitungsebene: "Es geht in Zukunft vor allem auch darum, die Gesamtprozesse zu koordinieren, Projektmanagement zu machen, Herstellungsleitung für Situationen, Care-Arbeit fürs Team." (S.45) Ein Kernanliegen der Publikation ist das Plädoyer für eine 'vierte', digitale Sparte – wobei zu bemerken ist, dass das digitale Theater sich diesen vierten Platz vielerorts mit dem Theater für junges Publikum teilt. Dieser Befund ist symptomatisch, werden doch Digitalität und Jugend oft zusammengedacht. Berücksichtigt man die zeitliche Dimension –"in naher Zukunft wird es nur noch Digital Natives geben" (S. 16) – wird rasch klar, dass es sich um eine voreilige Schlussfolgerung handelt. Die sich andeutende Marginalisierung verheißt wenig Gutes für die so dringend nötigen Finanzierungsstrukturen und Fördermodelle, zumal auch die Verantwortung, diese 'vierte Sparte' zu gestalten, damit demselben Personenkreis zugesprochen wird. Folgerichtig wird immer wieder sachlich bemerkt, dass zum Aufbau einer künstlerischen Infrastruktur tatsächliche Ressourcen in Form von Zeit, Geld und neuen Stellenprofilen am Theater benötigt werden. Einige Häuser haben bereits erste Schritte gesetzt und beschäftigen neben Positionen wie Social Media oder – neudeutsch – Community Management nun auch Programmierer*innen. Das Staatstheater Augsburg, das sich bereits im Frühjahr "einen Namen als VR-Hochburg mit einem umfangreichen Spielplan an Virtual-Reality-Produktionen" (S. 99) machte, hat mit Beginn der Spielzeit 2020/21 Tina Lorenz als "Projektleitung für Digitale Entwicklung" eingestellt; das Schauspielhaus Zürich holte für seine Webserie Dekalog den Designer für Virtuelle Interaktion, Timo Raddatz, ins Boot. Für eine "Digitale Sparte" argumentiert auch Elena Philipp, die die Münchner Kammerspiele, das Staatstheater Augsburg und das Hebbel am Ufer als Case Studies ins Feld führt. Die Nutzung digitaler Technologien beschränkt sich aber naturgemäß nicht nur auf die künstlerische Außenwirkung, sondern bietet auch ganz praktische Lösungen: Produktionsvorgänge –und sogar der ökologische Fußabdruck –können beispielsweise durch 'virtuelle Bauproben', 3D-Modelle und die Nutzung von Extended Reality (XR) wesentlich erleichtert werden. Mit der routinemäßigen Nutzung digitaler Technologien stehen auch neue Inhalte in Aussicht. Derzeit erfahre die Form zu große Aufmerksamkeit, zitiert Philipp Tina Lorenz, die konkrete Vorschläge für inhaltliche Schwerpunkte abseits der tausendsten Neuauflage von Goethe und Schiller macht: "Noch ist das Medium die Message, aber wir müssen Geschichten für das digitale Zeitalter entwickeln, über die Gig Economy, Smart Cities oder darüber, wie Kommunikation, Aktivismus und soziale Bewegungen im 21. Jahrhundert funktionieren." (S. 102) Der Blick der Herausgeber*innen inkludiert auch Länder, deren staatliche Subventionsstrukturen weit weniger privilegiert beschaffen sind als im deutschsprachigen Raum. Alice Saville stellt in ihrem Beitrag "Keine Show ohne Publikum" einige Beispiele aus "Großbritanniens immersive[r] Theaterszene im Lockdown" vor, die ja aufgrund ihrer Organisationsform –weit mehr Touring Companies als feste Ensembletheater –ein gewisses Training in innovativer Raumgestaltung besitzt. Der Stadtplaner und Theaterleiter Trevor Davies berichtet von seinen Erfahrungen mit der hybriden Performancereihe "Wa(l)king Copenhagen", für die 100 Künstler*innen eingeladen wurden "ab dem 1. Mai 2020 über 100 Tage lang 100 kuratierte zwölfstündige Walks […] über stündliche Livestreams digital [zu] übertragen" (S. 54). Und die Kuratorin und Kritikerin Madly Pesti erzählt am Beispiel Estlands, bei dem sich die Einwohnerzahl und die Summe der jährlichen Theaterbesuche entsprechen, von der gelungenen Kooperation von Theaterhäusern und Rundfunk, die auf ein über Jahrzehnte gepflegtes Verhältnis zurückgeht: Da die Rechte der beteiligten Künstler*innen vom Estnischen Schauspielerverband vertreten wurden, konnte eine Sonderregelung für die Dauer des Ausnahmezustands verhandelt werden, um die künstlerischen Arbeiten im kulturellen Webportal des Nationalrundfunks kostenlos zugänglich zu machen. Angesichts des vergleichsweise neuen Terrains muss das Theater sich fragen, was es aus den Erfahrungen anderer Branchen lernen kann. Denkt man beispielsweise an die wirtschaftlichen Nöte des Onlinejournalismus und die mühsame Etablierung von Paywalls, ist es sinnvoll, frühzeitig über Verwertungsmodelle bzw. den Preis von 'gratis' nachzudenken. Es gilt zu prüfen, inwiefern Limitation (zeitlich, kapazitär, Ticketing), Exklusivität (Sonderformate, Blicke hinter die Kulissen, Stichwort Onlyfans) oder Partizipations- und Mitgestaltungsoptionen als wertsteigernde Maßnahmen praktikabel und tragfähig sind. Im Kontext von Big Data ist zudem branchenweit zu diskutieren, wie sich Theaterhäuser zu privatisierten Plattformen, die ja den digitalen Raum dominieren, verhalten sollen. Erschwerend kommt hinzu, dass die ungeklärte Rechtesituation im deutschsprachigen Raum auf Netztheaterexperimente nachgerade innovationsfeindlich wirkt. "Man kann nicht Theater im Internet machen und dann aber straight die Copyright-Gepflogenheiten des Analogen anwenden wollen" (S. 93), spricht die Dramaturgin Katinka Deecke im Interview ein Feld mit raschem Klärungsbedarf an. Wiewohl alle Texte von den Lehren aus spezifischen Best Practices leben – schließlich werden die neuen Ausdrucksformate von Pionieren "des Ausprobierens, Aneignens und Entdeckens" (S. 76) entwickelt – versammelt die Publikation in einem eigenen "Produktionen"-Kapitel gezielt Besprechungen einzelner Projekte. Sinnigerweise stammen diese Texte mehrheitlich von Menschen, die berufsbedingt einen größeren Überblick über die Rezeption der Szene besitzen: Kritiker*innen und Redakteur*innen. So kommt Elena Philipps Untersuchung des "Aufbau[s] von Online-Programmen an Theatern" beispielsweise zu dem Schluss, dass "begleitend zu einer Theaterästhetik" – beispielsweise "für Virtual-Reality-Umgebungen" – auch "das Publikum dafür entwickelt" (S. 101) werden müsse. Der Umgang mit neuer Technologie ist schließlich für alle Beteiligten zunächst eine Terra incognita. Sophie Diesselhorst berichtet vom Online-Zusammenspiel der "Netztheater-Experimente aus Schauspielschulen", etwa der vielbeachteten Produktion Wir sind noch einmal davongekommen der Münchner Theaterakademie August Everding, die sich das Artifizielle des Mediums spielerisch überhöht zunutze machte und vermittels kluger Discord-Regie die Videokästchen in Bewegung setzte. Schade, dass die zitierten Experimente nicht zur Nachschau verlinkt bzw. verfügbar sind. Ein Grund hierfür könnte neben der prinzipiellen Unverfügbarkeit einmalig ausgestrahlter Livestreams sein, dass auch andere Quellen knapp einen Monat nach Erscheinen der Publikation bereits der 'Transitorik' des Internets zum Opfer gefallen sind. "Virtuelle[n] Festivalauftritte[n]" widmet sich Esther Slevogt, allen voran dem Berliner Theatertreffen mit seinen streambegleitenden Sonderformaten, die mittels Chat und Videotelefonie erstmals Fachdiskurse, die sonst wenigen Eingeweihten vorbehalten sind, mitsamt den dazugehörigen Gesichtern im Internet teilten. Für das Festival Radar Ost entwarf das Künstlerduo CyberRäuber ein weboptimiertes 360-Grad-3D-Modell des Deutschen Theaters, innerhalb dessen in verschiedenen 'Räumen', inklusive der Unterbühne, Veranstaltungen im Videoformat eingesehen werden konnten. Rückgriffe auf analoge Formate – die Berliner Volksbühne entschied sich etwa für eine Magazinanmutung bei der Gestaltung ihres Festivals Postwest – können laut Slevogt durchaus inspirierend sein: Als "Transfererleichterung für das Denken immaterieller Räume" genüge mitunter eine simple Lageplanskizze, wie es schon 1995 die Association for Theatre in Higher Education der Universität Hawai'i bewies. Wenn es gilt "Übergangsschleusen von der analogen in die digitale Welt benutzer/innenfreundlich zu gestalten", votiert Slevogt ganz klar für "Pragmatismus" (S. 109). Netztheater räumt mit dem weitverbreiteten Missverständnis auf, dass das Digitale allenfalls ein Substitut für 'das Echte' sei. Es ist an der Zeit, sich von falsch verstandenen Authentizitätsdiskursen und einer Überbetonung der 'leiblichen Ko-Präsenz', die die Theaterwissenschaft – die ja damit eine ganz eigene Agenda vertrat – an das Theater herangetragen hat, zu verabschieden. Netztheater will niemandem etwas wegnehmen. Es will das tradierte Theater keineswegs abschaffen, nicht den intimen Moment der Begegnung zweier Menschen ersetzen. Es sucht vielmehr nach technologisch unterstützten Erzähl- und Interaktionsformaten, in denen solche Begegnungen ebenfalls möglich sind. Das Digitale hat unser Denken bis in seine neurologischen Strukturen hinein verändert, die Art, wie wir kommunizieren und interagieren, wie wir uns organisieren, uns in der Welt verorten. Es hat sich in unser Verhältnis zu unseren Körpern eingeschrieben, unseren Zugang zu Wissen erleichtert und auf Herrschaftswissen basierende Hierarchien abgeschafft oder zumindest verschoben. Die Fülle an Information ist nahezu unnavigierbar geworden, Fake News haben unser Vertrauen in glaubwürdige Quellen erschüttert. Das Internet hat eine Vielzahl von alternativen Wahrheiten und alternativen Realitäten geschaffen. Das ist beängstigend, zumal in Zeiten einer Pandemie. Das 18. Jahrhundert hat das Theater als Laboratorium gedacht und die Bühne als Ort, an dem Probehandeln möglich ist, um etwas über unser Menschsein zu erfahren. Auch das Netztheater ist ein solches Laboratorium, ausgestattet mit den Gerätschaften der Gegenwart, die etwa Aufschluss darüber geben können, wie unsere Wahrnehmung beschaffen ist oder wie sich Aufmerksamkeit organisieren lässt. "Theater ist die Institution mit dem ältesten Wissen über die gesellschaftliche Kraft des Spielens." (S. 15) Philosophie und Soziologie veranschlagen im Spiel die Grundlage unseres Menschseins. Es wäre fatal, die verfügbaren virtuellen Spielzeuge und technischen Gadgets jenen Player*innen zu überlassen, deren Interessen wirtschaftlich, militärisch oder politisch getrieben sind. Indem wir unser über die Jahrtausende gewachsenes Wissen über Theatralität und Inszenierungsformen einsetzen, um spielerisch zu experimentieren, erlernen wir den Umgang damit und finden heraus, welche Weltgestaltung mit ihnen möglich ist. Die Lektüre der Beiträge zeigt deutlich: Die vielfach beschworene Minimaldefinition des Theaters – A geht durch einen Raum während B zuschaut – beinhaltet keinerlei Spezifikation, dass B sich dabei im selben Zimmer befinden muss.
BASE
Blog: Schnabeltier EU
Quo vadis, EU? Das Projekt, das zu Anfang für Frieden sorgen sollte, hat inzwischen so manches umgesetzt, was in der Gründungszeit, im Mai 1951, für visionär gehalten wurde. Die Europäische Gemeinschaft für Kohle und Stahl, die zu Beginn aus sechs Staaten (Frankreich, Deutschland, Belgien, Niederlande, Luxemburg, Italien) bestand, entwickelte sich schnell weiter: Von einem Gemeinsamen Markt über weitere Mitgliedsländer bis hin zu einer gemeinsamen Währung transformierte sich die einstige Gemeinschaft zur heutigen Europäischen Union."Spill over"-Effekte sorgten dafür, dass ausgehend vom Gemeinsamen Markt auch gemeinsame Arbeitsbereiche außerhalb der Ökonomie entstanden: Das Wirtschaftsprojekt wurde zunehmend politisch und steht heute zwischen Supranationalismus und Intergouvernementalismus. Die EU, so wird gerne gesagt, ist ein System sui generis, weder ganz internationale Organisation noch ganz Staat. Doch gerade weil die EU in machen Belangen staatliche Züge angenommen hat, stellt sich die Frage, ob ihre demokratische Legitimation ausreicht. Angela Merkel drückte das in einer Regierungserklärung von 2006 folgendermaßen aus:"Kurz gesagt muss man feststellen: Europa steht bei den Europäerinnen und Europäern nicht so hoch im Kurs […]. Wir müssen […] den Stand des Projekts Europa kritisch überprüfen. Wir müssen den Bürger in den Mittelpunkt stellen" (Bundesregierung 2006, S. 3f.).Doch worunter leidet die demokratische Legitimation der EU? Und wie könnte man der Union zu mehr Demokratie verhelfen? Diesen Fragen geht der folgende Beitrag nach. Ausgehend vom Aufbau der EU wird das sogenannte Demokratiedefizit in institutioneller und struktureller Hinsicht erläutert. Abschließend werden mögliche Lösungsvorschläge vorgestellt und Kritikpunkte geäußert.Aufbau der EU und DemokratiedefizitDie Aufbau der Union wird häufig als abstrakt und kompliziert erachtet. Auch die ZDF-Satiresendung Die Anstalt greift den komplexen Aufbau der EU zusammen mit dem Demokratiedefizit in der Sendung vom 06.09.2015 auf. Um auf das Demokratiedefizit aufmerksam zu machen, beginnen die Satiriker Claus von Wagner und Max Uthoff so: Claus von Wagner (C.v.W.): "Die meisten Nutzer [gemeint sind hier die Bürger*innen der Europäischen Union] beschweren sich, dass unser Haus [gemeint ist die Europäische Union] nicht den demokratischen Anforderungen entspricht."Max Uthoff (M.U.): "Diese Leute sind doch gar nicht in der Lage, ein so komplexes Haus wie unseres zu verstehen."C. v. W.: "Aber sie sollen drin wohnen ... wie soll denn das gehen?! Vielleicht können Sie's mir erklären, schau'n Sie mal, wir haben da hinten doch den Grundriss von unserem Hotel [gemeint ist hier abermals die Europäische Union]."M. U.: "Ja ... ja, was suchen Sie denn?"C. v. W.: "Na, die Demokratie!"M. U.: "Ach Demokratie ... Demokratie ... was heißt schon Demokratie?"C. v. W.: "Na, das Regieren des Volkes durch das Volk für das Volk." (von Wagner/Uthoff 2016, 00:00:00 – 00:01:00). Wie Markus Preiß, Leiter des ARD-Studios in Brüssel, in seinem #kurzerklärt-Video erläutert, ist die Europäische Union "demokratisch mit Schönheitsfehlern" (Preiß 2019, 00:02:07-00:02:10) und sicherlich weit weg davon, undemokratisch zu sein. Doch über ihr Demokratiedefizit lässt sich schlecht hinwegsehen. Es fußt im Wesentlichen auf zwei Gründen: "zu wenig Bürgerbeteiligung infolge mangelnder Transparenz und eine[r] unzureichende[n] Legitimation der Institutionen der Europäischen Union" (Bollmohr 2018, S. 73). Doch politische Systeme sind auf Legitimation angewiesen, "um Herrschaft dauerhaft zu sichern" (Abels 2019, S. 2). Um dieses Demokratiedefizit besser verstehen zu können, ist eine Beschreibung des Aufbaus der Europäischen Union und ihrer Institutionen unerlässlich. Autor*innen, die die Europäische Union für demokratisierbar halten, begreifen die EU als als ein politisches System, das durch institutionelle und strukturelle Reformen verändert werden kann (vgl. Schäfer 2006, S. 354). Sie gehen hierbei von einem Demokratieverständnis gemäß der Übersetzung des Wortes Demokratie (= Volksherrschaft) aus. Wie in der Inszenierung der Anstalt angeklungen, wird von einer Auslegung des Wortes ausgegangen, das das Regieren des Volkes durch das Volk für das Volk als Grundlage nimmt und auf eine Aussage von Abraham Lincoln zurückgeht ("government of the people, by the people, for the people"). Die EU hat sieben Organe (vgl. Weidenfeld 2013, S. 116). Den Kern bildet dabei das "institutionelle Dreieck" bzw. nach der Inklusion des Europäischen Rates durch den Vertrag von Lissabon das "institutionelle Viereck", bestehend aus dem Europäischen Rat, der Europäischen Kommission, dem Europäischen Parlament und dem Rat der Europäischen Union. Zu den Organen gehört darüber hinaus der Gerichtshof der Europäischen Union, die Europäische Zentralbank und der Rechnungshof. Beginnend mit dem Europäischen Parlament werden nachfolgend alle Institutionen nach der Reihenfolge aufgelistet, wie sie im Vertrag von Lissabon stehen, und ihr Demokratie- bzw. Legitimationsdefizit erläutert. Europäisches Parlament In das Bewusstsein der europäischen Bevölkerung kam das Europäische Parlament (EP) erst mit der ersten Direktwahl im Jahr 1979 (vgl.: ebd.). Damit war "[d]er Schritt hin zu einem von den Bürgern legitimierten europäischen Einigungswerk […] getan" (ebd.). Seither gewann das EP an Befugnissen. So wurde beispielsweise mit dem Vertrag von Maastricht (1992) das Mitentscheidungsverfahren eingeführt, "welches das Parlament dem Rat im Gesetzgebungsprozess gleichstellt" (ebd.). Wahlen für das Europäische Parlament finden alle fünf Jahre statt (vgl.: Weidenfeld 2006, S. 65). Insbesondere hinsichtlich des Demokratiedefizits ist es wichtig festzuhalten, dass das EP die einzig direkt gewählte Institution der Europäischen Union darstellt. Als solche stellt sie "die unmittelbare Vertretung der Unionsbürger auf der europäischen Ebene dar" (Weidenfeld 2013, S. 116). Dabei werden die Sitze "degressiv-proportional" verteilt (ebd., S. 117). Dies führt allerdings dazu, dass "ein deutscher Abgeordneter mehr als 13 Mal so viele Bürger vertritt wie ein Parlamentsmitglied aus Luxemburg oder Malta" (ebd.). Von einer gleichen Wahl, wie es das Grundgesetz in der Bundesrepublik Deutschland für die Bundestagswahlen vorgibt, kann nicht gesprochen werden. Die Funktionen und Aufgaben des EP sind vielfältig. Es "fungiert zusammen mit dem Ministerrat der Union als Gesetzgeber" (ebd.) und stellt mit ihm die Haushaltsbehörde dar (vgl. ebd.). Gleichzeitig "kontrolliert [es] die Arbeit der Kommission" (ebd.). Generell kann von fünf Funktionen des EP gesprochen werden: Systemgestaltungsfunktion, Politikgestaltungsfunktion, Wahlfunktion, Kontrollfunktion und Repräsentations- bzw. Artikulationsfunktion (vgl.: ebd., S. 121ff.). Mit der Systemgestaltungsfunktion hat das Europäische Parlament einen, wenn auch geringen, Spielraum zur "konstitutionellen Weiterentwicklung des EU-Systems" (ebd., S. 121). Beispielsweise darf das Parlament "Entwürfe zur Änderung der Verträge [vorlegen]" (ebd.). Außerdem kann eine Erweiterung der Europäischen Union nur mit Zustimmung der Parlaments durchgeführt werden. Die Politikgestaltungsfunktion bezeichnet die Möglichkeit des EP, die Kommission auffordern zu können, eine Gesetzesinitiative zu starten (= indirektes Initiativrecht). Die Kommission muss dieser Bitte innerhalb von drei Monaten nachkommen oder andernfalls ihr Verhalten wohlbegründet erläutern. Das indirekte Initiativrecht teilt sich das EP mit dem Rat. Ebenso teilen sich beide Organe das Haushaltsrecht, wobei das EP in diesem Belang, zumindest auf Ausgabenseite, das letzte Wort behält (vgl.: ebd., S. 122). Die Wahlfunktion wird durch die Wahl des Kommissionpräsidenten erfüllt, der vom Europäischen Rat vorgeschlagen wird. Das EP ist auch an der Bestellung der Kommission beteiligt und muss der Zusammensetzung zustimmen. Die Repräsentations- und Artikulationsfunktion des Europäischen Parlaments wird kritisch gesehen. Aufgrund einer fehlenden europäischen Öffentlichkeit kann eine Repräsentation der europäischen Bürger*innen nicht in dem Maße stattfinden, wie es in nationalstaatlichen Parlamenten der Fall ist. Das Europäische Parlament arbeitet in Fraktionen, die sich nach der politischen Ausrichtung organisieren und sich aus den Mitgliedern des EP aus den verschiedenen Mitgliedsstaaten zusammensetzen. Im Gegensatz zu nationalen Parlamenten gibt es kein "Regierungs-Oppositions-Schema" (vgl.: ebd., S. 124) und es wird mit Ad-hoc-Mehrheiten gearbeitet. Wie Weidenfeld (2013) klarstellt, bietet diese Herangehensweise "immer wieder neue Möglichkeiten zur persönlichen Einflussnahme […]; [allerdings wird es] für die Öffentlichkeit […] dadurch schwierig, politische Verantwortung zuzuordnen" (ebd.). Auch wenn sich das EP durch verschiedene Vertragsreformen immer weiter an die "Rolle nationaler Parlamente angenähert" (ebd., S. 121) hat, besitzt es nicht alle Funktionen der Parlamente der Mitgliedsstaaten. Bezogen auf das EP werden "drei wesentliche Legitimationsmängel" (Bollmohr 2018, S. 99) aufgezeigt. Einer der Mängel ist der Wahlmodus, denn statt eines "kodifizierten Wahlrechts […] gelten nationale Wahlgesetze mit zum Teil erheblichen Unterschieden" (ebd., S. 86). Die Sitzverteilung im Europäischen Parlament nach der degressiven Proportionalität verstärkt die Ungleichheit der Wähler*innenstimmen bei der Europawahl. Zu erwähnen ist hierbei auch, dass es zur Europawahl, anders als bei nationalen Wahlen, kaum einen erkennbaren Wahlkampf gibt. Dies hängt unter anderem damit zusammen, dass es keine europäischen Parteien und deshalb kein parteienspezifisches Wahl- bzw. Parteiprogramm und kaum europäische Themen gibt (vgl.: ebd., S. 86f.). Auswirkungen hat das auf die Arbeitsweise des Europäischen Parlaments. Ohne Parteiprogramm können Mitglieder der Fraktionen lediglich fallbezogen "über Vorgänge beraten und abstimmen, die von der Europäischen Kommission vorgegeben werden", was den Prozess "unvorhersehbar" macht (ebd., S: 87). Ein weiterer Mangel ist die eingeschränkte Gesetzgebungsfunktion. Die Rechtsetzungsverfahren werden, trotz Aufwertung des EP, von den Räten dominiert (vgl.: ebd.). Wie Bollmohr (2018) auf Seite 99 feststellt, ist die Beteiligung an der Gesetzgebung mit unter zehn Prozent noch "zu gering". Zusätzlich wird der fehlende Austausch zwischen Unionsbürger*innen und den Abgeordneten des EP als Mangel gesehen. Das einzige von den Unionsbürgern direkt gewählte Organ hat zwar in den letzten Jahrzehnten an Kompetenzen gewonnen, ist aber in wichtigen Bereichen (Außenpolitik, Steuerpolitik) nach wie vor nicht gleichberechtigt mit den nationalen Regierungen im Rat. Europäischer Rat Der Europäische Rat besteht aus den Staats- und Regierungschefs der Mitgliedsstaaten der EU und entscheidet im Konsens. Er nimmt formal nicht am Gesetzgebungsprozess teil, sondern hat eine gewichtige Rolle bei der "Systemgestaltung und bei der Besetzung von Schlüsselpositionen" (Weidenfeld 2013, S. 127). Der Europäische Rat hat drei zentrale Funktionen: Lenkungsfunktion, Wahlfunktion und Systemgestaltungsfunktion. Die Lenkungsfunktion erlaubt es dem Europäischen Rat, allgemeine Leitlinien für die Politik der EU, vornehmlich für die Außenpolitik, zu erlassen. Er wählt mit dem Präsidenten des Europäischen Rats und dem Hohen Vertreter für die Außen- und Sicherheitspolitik die zwei wichtigsten "Vertreter der EU-Außenpolitik" (ebd.). Darüber hinaus nimmt er eine "Schlüsselstellung" in der Systemgestaltung ein (ebd.). Schließlich sind die Mitgliedsstaaten die Herren der Verträge und sie entscheiden, welche Kompetenzen sie an die europäische Ebene abgeben. Rat der EU/Ministerrat"Der Rat [der EU] besteht aus je einem Vertreter jedes Mitgliedstaats auf Ministerebene, der befugt ist, verbindlich für die Regierung zu handeln" (ebd., S. 129). Er ist nach Fachgebiet in Fachministerräte unterteilt. Zunehmend entscheidet der Rat mit Mehrheit. Halbjährlich wechselt die Präsidentschaft des Rates (vom 01.01.2023-30.06.2023 hat beispielsweise Schweden die Ratspräsidentschaft inne). Der Rat besitzt zentrale Befugnisse in der EU-Außen- und Sicherheitspolitik. Daneben ist seine Legislativ- und Exekutivfunktion entscheidend. Inzwischen teilt sich der Rat die Legislativfunktion, genauso wie das Haushaltsrecht, mit dem Europäischen Parlament. Beide Organe besitzen überdies das Recht, auf die Kommission zuzugehen und einen Gesetzentwurf vorzuschlagen. Die Exekutivfunktion nimmt der Rat wahr, "indem er Vorschriften zur Durchführung von Rechtsakten erlässt, die Durchführung selbst ausführt oder sie an die Kommission delegiert" (ebd., S. 132). Der Rat übernimmt gegenüber der Kommission darüber hinaus eine Kontrollfunktion.Die Räte, also der Europäische Rat und der Rat der Europäischen Union, beziehen ihre Legitimation durch die Nationalstaaten. Daraus entsteht dennoch ein Legitimationsmangel bzw. ein Demokratiedefizit, weil der Ministerrat maßgeblich am Gesetzgebungsverfahren in der EU beteiligt, aber nicht auf EU-Ebene legitimiert ist (vgl.: Bollmohr 2018, S. 99). Zusätzlich hält Bollmohr (2018) fest, dass der Rat (der EU) "zwar von den nationalen Parlamenten beeinflusst wird, aber da die qualitative Mehrheit im Rat auch Abstimmungsniederlagen für einzelne Länder nach sich ziehen kann, sind die Möglichkeiten der Parlamente begrenzt" (ebd.). KommissionWie Weidenfeld (2013) auf Seite 135 schreibt, ist die Kommission "vertragsrechtlich auf das allgemeine EU-Interesse verpflichtet und soll unabhängig von den nationalen Regierungen handeln". Während der Europäische Rat das prototypische intergouvernementale Organ darstellt, ist die Kommission die klassische supranationale Institution in der Europäischen Union. Das Kollegium, aus dem sich die Kommission zusammensetzt, besteht aus einem Kommissar pro Mitgliedsland. Es wird "in einem Zusammenspiel zwischen den Staats- und Regierungschefs und dem EP [bestimmt]" (ebd., S. 137). Der/die Kommissionspräsident*in und der Verwaltungsapparat ergänzen die Kommission. Der Europäische Rat schlägt ein*e Kandidat*in für das Amt der/des Kommissionpräsident*in vor, welche*r sich dann einer Wahl im EP unterziehen muss. Bei Ablehnung unterbreitet der Rat einen neuen Vorschlag, bei Annahme schlagen die Staats- und Regierungschefs mit dem/der Präsident*in die weiteren Kommissionsmitglieder vor, die ebenso der Zustimmung des Parlaments bedürfen. Eine Amtsperiode der/des Präsident*in dauert fünf Jahre. Außerdem hat das EP die Befugnis, die Kommission durch ein Misstrauensvotum ihres Amtes zu entheben. Hierfür ist eine Zweidrittelmehrheit notwendig. Die Kommission hat vier wichtige Funktionen: Sie fungiert sowohl als Exekutive als auch als Außenvertretung und hat die Legislativ- und Kontrollfunktion inne. Als Exekutive ist die Kommission für die Durchführung von Rechtsakten und die "Umsetzung und Verwaltung der Unionspolitiken verantwortlich, die vom Parlament und vom Rat verabschiedet wurden" (ebd., S. 138). Die Ausführung des vom Europäischen Parlament beschlossenen Haushalts gehört ebenso zu den exekutiven Aufgaben der Kommission. Die Legislativfunktion umfasst das Initiativmonopol. Die Kommission darf als einzige EU-Institution Gesetzesvorschläge einbringen. Sie ist "agenda-setter" (ebd., S. 139) und kann die EU-Integration vorantreiben. Als Hüterin der Verträge ist die Kommission für die Einhaltung des Unionsrechts verantwortlich und kann, bei Verletzung des Unionsrechts, ein Vertragsverletzungsverfahren eröffnen. Sie vertritt überdies die vergemeinschaftete Handels- und Entwicklungspolitik nach außen und nimmt "im Namen der EU an den Verhandlungen im Rahmen der WTO teil" (vgl.: ebd., S. 140). Die Mängel der Legitimation der Europäischen Kommission zeigen sich bei der Wahl der Mitglieder und der/des Präsident*in. Kandidat*innen werden von den Mitgliedsstaaten der Europäischen Union vorgeschlagen und vom Europäischen Parlament bestätigt. Dies ist in den Verträgen zwar so festgehalten, "aber der Legitimationsglaube in die wichtigste Institution der EU ist gering" (Bollmohr 2018, S. 99). Schließlich ist "das EP durch das bestehende Wahlverfahren nur bedingt als legitimiert [anzusehen] […] und der Europäische Rat durch die Nationalparlamente nicht im Eigentlichen für EU-Fragen legitimiert" (ebd., S. 80). Zudem stellt die Kommission eine Art Exekutive, also Regierung dar. Diese ist momentan weder wähl- noch abwählbar. Doch genau das, eine wähl- und abwählbare Regierung, zeichnet eine Demokratie aus, weswegen das Demokratiedefizit der EU an dieser Stelle besonders zum Vorschein kommt. EuGH, Europäische Zentralbank und RechnungshofDer Europäische Gerichtshof mit Sitz in Luxemburg ist verantwortlich für die Wahrung und die Einheitlichkeit des Unionsrechts. Er wird dann aktiv, wenn eine Klage oder eine Anfrage vorliegt und agiert deshalb reaktiv. Gleichzeitig stellt er – wie die Kommission – ein supranationales Organ dar. Der Gerichtshof besteht aus einem Richter je Mitgliedsstaat, die von "den nationalen Regierungen im gegenseitigen Einvernehmen für eine Amtszeit von sechs Jahren ernannt [werden]" (Weidenfeld 2013, S. 143). Das Europäische Parlament spielt bei der Ernennung der Richter keine Rolle, was den Gerichtshof von anderen obersten Gerichten, wie dem Supreme Court oder dem Bundesverfassungsgericht, unterscheidet. Zusätzlich unterscheidet ihn vom höchsten Gericht der Bundesrepublik Deutschland, dass eine Wiederwahl der Richter möglich ist. Der Europäische Gerichtshof hat die Befugnis, gegenüber den Mitgliedsstaaten "bindende Urteile [zu] sprechen" (ebd., S. 143). Das hat zur Folge, dass seine Entscheidungen die Bevölkerung der EU direkt betreffen. Mit dem Vertrag von Lissabon wurden seine Kompetenzen von der supranationalen Säule zudem auf die Innen- und Justizpolitik erweitert (vgl.: ebd.). Entscheidungen fallen meist einvernehmlich oder per einfacher Mehrheit. Der Gerichtshof hat "in der Geschichte der Integration immer wieder eine Motorrolle übernommen" (ebd., S. 145). Seine Urteile fallen überwiegend integrationsfreundlich aus (in dubio pro communitate – (ugf.) im Zweifel für die Europäische Union). Die Europäische Zentralbank (EZB) mit Sitz in Frankfurt am Main wurde 1998 mit der Einführung der gemeinsamen Währung eingerichtet. Sie ist für die Geldpolitik der EU verantwortlich und hat als Organ einen supranationalen Charakter. In ihrer Arbeitsweise ist sie von anderen EU-Organen und von den Mitgliedsstaaten unabhängig. Bei der Währungspolitik arbeitet die EZB mit nationalen Zentralbanken zusammen. Ihr vorrangiges Ziel ist es, Preisstabilität zu sichern. Darüber hinaus unterstützt sie die Wirtschaftspolitik der Europäischen Union. Der Vertrag von Maastricht (1992) hob den Rechnungshof zu einem Organ an. Seine Aufgabe ist die Rechnungsprüfung der EU, was alle Einnahmen und Ausgaben betrifft. Er besteht aus einem Staatsangehörigen je Mitgliedsstaat, welche vom Rat ernannt werden. Hierbei verfügt das Europäische Parlament über ein Anhörungsrecht. Alle drei Organe, der EuGH, die Zentralbank und der Rechnungshof, werden nicht gewählt, sind aber dennoch in besonderem Maße am Integrationsprozess beteiligt. Dieser Umstand ist keine Besonderheit der EU, sondern auch in Nationalstaaten üblich. Dennoch gibt es Kritik und Reformvorschläge. Die Wiederwahl der Richter am EuGH gilt als besonders problematisch. Ebenso gibt es Forderungen nach mehr Transparenz in allen drei Organen.Die bisher genannten Defizite beziehen sich auf die Institutionen der Europäischen Union und werden deswegen institutionelle Defizite genannt. Daneben gibt es das strukturelle Demokratiedefizit, das die nach wie vor fehlende Kommunikations-, Erfahrungs- und Erinnerungsgemeinschaft beschreibt, in der sich eine kollektive Identität herausbildet, etabliert und tradiert (vgl. Graf Kielmannsegg 2003, S. 57ff.). Oder einfacher ausgedrückt: Es mangelt an einer "Wir-Identität", denn es fehlt eine gemeinsame Sprache, es gibt kein gemeinsames Politikverständnis und kein einheitliches Rechtssystem (vgl. Bollmohr 2018, S. 74). Schließlich schafft ein auf Effizienz ausgelegter Gemeinsamer Markt noch keine Demokratie, geschweige denn einen gemeinsamen Demos. Darauf ist der Markt auch gar nicht angewiesen. Das strukturelle Demokratiedefizit macht sich beispielsweise bei den Europawahlen durch eine geringe Wahlbeteiligung bemerkbar (im Jahr 2009 lag die Wahlbeteiligung bei gerade mal 43%, vgl.: Decker 2017, S. 166). Diese Defizite sind nicht neu und seit der zunehmenden Politisierung der Europäischen Union bekannt. Seit Ende der 1980er Jahre ist man auf EU-Ebene bemüht, sie zu beheben (vgl.: Bollmohr 2018, S. 71). Doch wie könnten weitere Schritte in Richtung weniger Demokratiedefizit in einem "Mehrebenensystem ohne einheitlichen Demos […], ohne einheitliche Regierung […] und ohne nennenswerte intermediäre Strukturen" (ebd., S. 73) aussehen? Nachfolgend werden exemplarisch Lösungsvorschläge für das institutionelle und strukturelle Demokratiedefizit vorgestellt. Sie erheben nicht den Anspruch, die Gesamtheit aller Lösungsvorschläge abzudecken. Potenzielle Lösungsansätze für das institutionelle und strukturelle Demokratiedefizit der EUInstitutionelles DemokratiedefizitIn ihrem Beitrag "Neue Governance-Formen als Erweiterung der europäischen Demokratie" (2017) nennt Gesine Schwan eine bessere Zusammenarbeit von europäischen und nationalen Parlamentariern als Stellschraube für mehr demokratische Teilhabe. Die Überwindung des Gegensatzes zwischen "renationalisierender" und "supranationaler" europäischer Integration hätte einige Vorteile. Beispielsweise bewirke diese "verschränkte Parlamentarisierung" (S. 158), wie sie diese Form der Zusammenarbeit nennt, eine bessere Verständigung über die Perspektiven von nationalen und europäischen Abgeordneten. Außerdem führe der intensivere Austausch zu einer früheren Information der nationalen Parlamentarier über Debatten und Entscheidungen im Europäischen Parlament. Dies hat folgende, demokratiefördernde Konsequenzen: Einerseits gebe es dadurch eine breitere öffentliche Diskussion und eine daraus resultierende Legitimation. Andererseits eine verstärkte parlamentarische Kontrolle. Einen Einbezug von Wissenschaft und Medien hält Schwan für geboten. Zusätzlich fördere dies die grenzüberschreitende Kommunikation und Kooperation. Nach wie vor, bemängelt Schwan, existiere ein Mangel an intermediären Vermittlerstrukturen in der Europäischen Union, was beispielsweise Medien, Parteien und Verbände betrifft. Etwas konkreter wird Frank Decker in seinem Beitrag "Weniger Konsens, mehr Wettbewerb: Ansatzpunkte einer institutionellen Reform" (2017). Er benennt die seiner Meinung nach drei wichtigsten "demokratischen Stellschrauben" (S. 167), um das institutionelle Demokratiedefizit zu beheben. Er sieht im einheitlichen Wahlrecht, in der Wahl des Kommissionspräsidenten und der Bestellung der Gesamtkommission Potenziale, um die Europäische Union institutionell zu legitimieren.Decker moniert, dass gemäß dem Vertrag über die Arbeitsweise der Europäischen Union (AEUV, Art. 223 Abs. 1) ein einheitliches Wahlrecht längst hätte erfüllt sein müssen (vgl. Decker 2017, S. 168). Nun gebe es die "paradoxe Situation" (ebd.), dass europäische Parteien zwar den Parlamentsbetrieb bestimmen, bei den Europawahlen aber nach wie vor nur die nationalen Parteien kandidieren (vgl.: ebd.). Eine Aufhebung dieser Tatsache sieht Decker in einer "Einführung eines europaweiten Verhältniswahlsystems mit moderater Sperrklausel" (ebd.). Diese wäre ein starker Anreiz dafür, sich als Parteien zusammenzuschließen, was einerseits der Fragmentierung im Europäischen Parlament entgegenwirken würde und andererseits förderlich für die Arbeitsfähigkeit des EP wäre. Diese Regelung würde zudem zu einer Vereinheitlichung des Wahlsystems innerhalb der Europäischen Union beitragen. Die Mitgliedsstaaten dürften weiterhin selbst entscheiden, wie das Wahlrecht genau geregelt ist und wie die Wahl durchgeführt wird. Unbedingt geboten sei hingegen eine Wahlpflicht oder alternativ eine Verteilung der Sitze nach der Wahlbeteiligung. So würde ein Anreiz für eine hohe Teilnahme geschaffen werden und die Wahlen für das EP könnten ihre Bewertung als Nebenwahl ein wenig verlieren. Jede*r EU-Bürger*in hätte nach wie vor eine Stimme, die er/sie bei der Verhältniswahl mit "starren Listen" vergeben darf (ebd., S. 170). Auf diese Weise, schlussfolgert Decker, könnte mit der heutigen Diskrepanz zwischen Parteiensystem auf der parlamentarischen und elektoralen Ebene gebrochen werden (vgl.: ebd.). Die Wahl der/des Kommissionspräsident*in ist eine weitere Stellschraube, mit der man Decker zufolge das institutionelle Demokratiedefizit der EU schmälern kann. Für zentral hält er die Frage nach dem Verhältnis zwischen Parlament und Regierung. Decker schlägt an dieser Stelle das präsidentielle System vor, mit der Begründung, dass die Bürger*innen selbst die Chance hätten, ihre*n Präsident*in direkt zu wählen. Ob der/die Kommissionspräsident*in mit relativer oder absoluter Mehrheit gewählt wird, müsste geklärt werden. Die Wahl des/der Kommissionspräsident*in auf diese Art zu verändern, würde zum einen dafür sorgen, dass "[d]ie europäische Politik […] endlich ein Gesicht [bekäme]" (ebd., S. 174). Zum anderen würde diese Änderung dazu führen, dass die EU eine wählbare Exekutive hätte, was einer Regierung im nationalstaatlichen Sinn gleichkäme. Ebenso sieht Decker die Bestellung der Kommissare kritisch. Momentan ist das Gremium durch den gleichberechtigten Vertretungsanspruch aller Mitgliedsstaaten zu groß, was negative Auswirkungen auf die Arbeitsweise hat (vgl.: ebd., S. 175). Daneben kann der/die Kommissionspräsident*in kaum Einfluss auf die Auswahl der Kommissare nehmen, was zur Folge hat, dass "[d]ie Zusammensetzung der Kommission […] insofern eher die nationalen Wahlergebnisse [reflektiert] als das Ergebnis der Europawahlen" (ebd.). Deswegen schlägt Decker vor, dem/der direkt gewählten Kommissionspräsident*in das Recht zu erteilen, die Kommissare selbst zu ernennen. Alternativ könnten die Wähler*innen befugt werden, neben dem/der Präsident*in noch die Kommissar*innen zu wählen (vgl.: ebd., S. 176). Dies, so Decker, würde die Kommission nicht nur weiter demokratisch aufwerten, sondern wäre auch ein Beitrag zur Europäisierung der Europawahlen. Antoine Vauchez geht in seinem Beitrag "Die Regierung der 'Unabhängigen': Überlegungen zur Demokratisierung der EU" (2017) auf die mangelnde Transparenz mancher Institutionen der Europäischen Union ein. Er merkt bezüglich der Demokratisierung an:"Um die Stellung dieser Institutionen [gemeint sind hier Kommission, Zentralbank und EuGH, Anm. A.B.] im politischen Prozess neu zu justieren, muss man an den drei Säulen rütteln, auf denen ihre Autorität in der europäischen Politik bislang beruhte: der vollständigen Souveränität in der Auslegung ihres Mandats, dem Anspruch auf wissenschaftliche Objektivität in ihren Diagnosen und Urteilen und einem bestimmten Verständnis von Unabhängigkeit als Abgrenzung von den vorhandenen politischen und sozialen Interessen. Diese Trias bildet eine Blockade, die zu durchbrechen jede Demokratisierungsstrategie bemüht sein muss" (Vauchez 2017, S. 187f.). Vauchez prangert Kommission, EuGH und EZB als "Mysterien des Staates" (ebd., S. 188) an. Beispielsweise mische sich die EZB inzwischen in Bereiche wie "das Rentensystem, die Lohnpolitik, das Arbeitsrecht und die Organisation des Staatswesens" ein (ebd.). Ähnliches gilt für den Europäischen Gerichtshof. In diesen Institutionen liege damit auch Regierungsgewalt. Deren Mandate sollten politisch erweitert werden, um dem Demokratiedefizit entgegenzuwirken. Antoine Vauchez vertritt deswegen die Ansicht, dass Themen, die in diesen Institutionen behandelt werden, "das Produkt öffentlicher Debatten und Auseinandersetzungen […] in einer Vielzahl nationaler und transnationaler Arenen [sein sollten]" (ebd.). Er nennt als Beispiel das Europäische Parlament, schließt aber andere politische Mittel, um EuGH und EZB zu überprüfen, wie beispielsweise das Frühwarnsystem, das mit dem Lissabonner Vertrag eingeführt wurde, nicht aus. Hierbei können "[e]ine Mindestzahl von einem Drittel der nationalen Parlamente […] den Entwurf eines Gesetzgebungsaktes vor die Kommission bringen, wenn er die Grundsätze der Subsidiarität und der Verhältnismäßigkeit missachtet" (ebd., S. 189). Die Kommission sollte die Möglichkeit haben, Entscheidungen von EZB und EuGH für nichtig erklären zu können, sollten "diese den von der Union zu vertretenden 'Werten, Zielen und Interessen' [entgegenstehen]" (ebd.).Um der Intransparenz der Arbeitsweise dieser EU-Institutionen entgegenzuwirken, schlägt Vauchez zudem vor, der Öffentlichkeit Zugang zu Archiven, Daten, vorbereitenden Dokumenten und Beratungsprotokollen zu verschaffen. Auch hier hält er die Schaffung eines öffentlichen Forums für Dissens und Diskussion für notwendig (vgl.: ebd., S. 190). Abschließend hält es Vauchez für geboten, den repräsentativen Charakter der 'unabhängigen' Institutionen zu stärken. Damit meint er nicht nur die Repräsentanz aller Mitgliedsstaaten, sondern auch die Abbildung der Komplexität und Vielfalt der Bürger*innen der Europäischen Union in den Gremien und Ausschüssen der Institutionen. So, schlussfolgert Vauchez, stelle "man letztlich die Fähigkeit unter Beweis, ein europäisches Allgemeininteresse zu verkörpern" (ebd., S. 191). Institutionelle Reformen, wie sie hier gefordert werden, sind prinzipiell möglich. Doch kann mit ihnen allein das strukturelle Demokratiedefizit nicht behoben werden (vgl. Bartolini 2000, S. 156, zitiert nach: Schäfer 2006, S. 356). Strukturelles Demokratiedefizit Das strukturelle Demokratiedefizit beruht darauf, dass es kein europäisches Wir-Gefühl bzw. kein europäisches Volk im Sinne eines Staatsvolkes gibt. Dabei verfolgt die EU bereits seit geraumer Zeit eine Politik, die identitätsstiftend sein soll (vgl.: Thalmaier 2006, S. 4). Seit den 1970er Jahren haben Parlament und Kommission versucht, die EU-Bürgerschaft voranzutreiben und die europäischen Bürger*innen an europäische Themen heranzuführen (vgl.: Wiener 2006, S. 8). Diese Politik hat bisher jedoch nicht zu einem 'Wir-Gefühl' geführt (vgl.: ebd.). Doch möchte die EU ihr strukturelles Demokratiedefizit schmälern, ist sie auf ebenjenes 'Wir-Gefühl' angewiesen, denn eine Unterstützung wird von den Bürger*innen für die Europäische Union unbedingt gebraucht. Thalmaier (2006) unterscheidet hierbei zwischen spezifischer und diffuser Unterstützung. Während Bürger*innen ein politisches System spezifisch unterstützen, wenn es Ergebnisse hervorbringt, die den Interessen der Bürger*innen entsprechen, beschreibt die diffuse Unterstützung ein Vertrauen und eine Identifikation mit einem System, auch wenn die eigenen Interessen nicht immer durchgesetzt werden (vgl.: ebd., S. 6). Auf dieses grundsätzliche Vertrauen in das Handeln der Institutionen ist die Europäische Union als politisches System angewiesen. Eine kollektive Identität, die jedoch nicht mit einer nationalen Identität vergleichbar sein soll, ist dabei unerlässlich. Die Behebung des Öffentlichkeitsdefizit ist bei der Herausbildung einer kollektiven Identität erforderlich. Thalmaier schreibt deswegen, dass die "Ausbildung einer europäischen Identität […] entscheidend von der Entstehung einer europäischen Öffentlichkeit [abhängt]" (ebd., S. 10). Zu lange habe es eine mangelnde Dynamik in der europapolitischen Kommunikation gegeben. Eine "stärkere Politisierung europäischer Politik" ist geboten, um eine europäische Öffentlichkeit überhaupt herauszubilden (ebd., S. 12). Daneben soll die Identitätserweiterung für eine kollektive Identität sorgen. Sie soll nach Thalmaier über die Schließung von Wissensdefiziten und -lücken über die Europäische Union erreicht werden. Der Schule kommt hier eine tragende Rolle zu. Deren Lehrpläne sollen angepasst und europäisiert werden, sodass die Bildungsinhalte in Fremdsprachen oder auch in sozial- und geisteswissenschaftlichen Fächern die europäische Ebene beleuchten. Dadurch soll zusätzlich die Relevanz der Europäischen Union vermittelt werden. Das minimiere die Fremdheit der EU (vgl.: ebd., S. 10) und könne identitätsstiftend wirken. Schließlich, so Thalmaier, erreiche man eine Reduzierung des strukturellen Demokratiedefizits nicht ohne eine Schaffung von mehr Partizipationsmöglichkeiten für die Bürger*innen bei Themen, die die Politik der EU betreffen. Neben institutionellen Reformen, die in diesem Beitrag bereits thematisiert wurden, spricht sich Thalmaier für europaweite Referenden aus, beispielsweise bei Angelegenheiten, die das Primärrecht oder EU-Beitritte betreffen. Dazu gehöre ein intensiver Austausch mit den Bürger*innen der Europäischen Union. Bereits im Weißbuch der Europäischen Kommission aus dem Jahr 2006 ist ein Austausch und Dialog in der Dienstleistungsrichtlinie festgeschrieben. Bisher wird sie jedoch wenig genutzt. Thalmaier schlägt deswegen vor, enger in den Austausch mit den EU-Bürger*innen zu gehen. Eine Begründung jedes Projekts in einem öffentlichen Interaktionsprozess sei geboten, genauso sollte um Zustimmung für jede politische Neuerung auf EU-Ebene gerungen werden. Neue Wege der Kommunikation und des Dialogs mit Bürger*innen seien dabei zentral. Mehr Interaktion und Kommunikation schlägt auch Antje Wiener in ihrem Artikel "Bürgerschaft jenseits des Staates" (2006) vor, um die EU-Identität zu stärken und das strukturelle Demokratiedefizit zu mindern. Insbesondere die "Kommunikation über europäische Rechte innerhalb der EU-Mitgliedsstaaten sowie intra- oder transeuropäisch in den entsprechenden institutionellen beziehungsweise medialen Kontexten, kurz jede Art von öffentlicher Diskussion zum Thema Rechte" (ebd., S. 11), trage dazu bei und mobilisiere auch das "Interesse am europäischen Projekt" (ebd.). Interaktion mit Institutionen, (EU-)Politiker*innen und Mitbürger*innen hätten das Potenzial, zu mehr "Staats- und Gemeinschaftsbildung" (ebd.) zu führen und die Bürger*innen enger an die EU zu binden. Durch Teilhabe und Teilnahme "im öffentlichen Diskurs soll eine zivile republikanische Identität geschaffen werden" (ebd.).Ähnliches fordert Ulrike Guérot, wenn es um die "Ausgestaltung einer europäischen Demokratie geht" (2018, S. 71). Damit "Europa" (ebd., S. 76) entstehe, brauche es Gemeinsames in der Europäischen Union über einheitliche bürgerliche und soziale Rechte. Sie argumentiert: "Es ist die Konvergenz von Recht, die Gemeinsamkeit entstehen lässt. In diesem Fall von Wahlrecht, Steuerrecht und sozialen Anspruchsrechten" (ebd.). Einigkeit und Einheitlichkeit seien auf dem europäischen Markt gegeben, bei den Bürger*innen sei Europa ihrer Ansicht nach aber noch zu fragmentiert. Solle sich daran etwas ändern, müsse mehr Gleichheit geschaffen werden, was am ehesten durch gemeinsame Rechte und Gesetze passiere. Guérot spricht hierbei von einem "Paradigmenwechsel" (ebd., S. 75) hin zu mehr Demokratie. Denn sollte einheitliches europäisches Recht eingeführt werden, wende man sich hin zu einer "Europäischen Republik, bei der die Souveränität bei den Bürger*innen Europas liegt […]" (ebd.). Kritik an diesen Ansätzen einer Demokratisierung der EU Kritiker*innen dieser Vorschläge sehen in einer "politisierte[n] EU eine Lähmung" der Europäischen Union (Schäfer 2006, S. 357). Für sie stellt die EU einen starren Verwaltungsapparat dar, "[e]ine Bürokratie, die sachlich und zielgerichtet arbeitet [und die] vom politischen Tagesgeschäft abgeschottet werden [muss]" (ebd.; Føllesdal/Hix, 2006, S. 538). Kritiker*innen sehen das Problem nicht in einem fehlenden Demos oder mangelnder Beteiligung der Bürger*innen, sondern in "vielfältigen Blockaden" (Schäfer 2006, S. 357) bei der Entscheidungsfindung und -durchsetzung. Ihrer Ansicht nach müsse die Europäische Union effizienter sein, um an Legitimität zu gewinnen, was nicht durch eine Demokratisierung erreicht werden könne (vgl.: ebd.). Schließlich müsse das Gemeinwohl über den Partikularinteressen der aktuellen Regierungen stehen. Für diejenigen, die einer Demokratisierung skeptisch gegenüberstehen, ist die Europäische Union bereits jetzt eine "aufgeklärte Bürokratie, die im Interesse der Bevölkerung entscheidet" (ebd./vgl.: Føllesdal/Hix, 2006, S. 546). Eine Demokratisierung bzw. "Politisierung der Europäischen Union liefe ihrem Aufgabenprofil zuwider" (Schäfer 2006, S. 357). Ebenso merken Kritiker*innen an, dass Macht in der EU geteilt werde und Entscheidungen durch Verhandlungen und nicht durch "Hierarchie" zustande kämen (vgl.: ebd., S. 360). Würde Macht in einem so fragmentierten Raum wie Europa zentralisiert, müsse das "für Minderheiten bedrohlich wirken" (ebd.). Zudem gründe der Erfolg des Konkordanzsystems der EU auf dem "Verzicht auf partizipatorische Entscheidungsverfahren" (ebd.). Gerade das Demokratiedefizit, so die Kritiker*innen, sei deshalb der wesentliche Faktor für den Zusammenhalt der Europäischen Union. Fazit und Ausblick Das sogenannte Demokratiedefizit existiert in institutioneller und struktureller Form. Das Problem ist dabei nicht unbekannt und es wird auf EU-Ebene durchaus versucht, es zu beheben. Reformvorschläge, beispielsweise von führenden Politikwissenschaftler*innen, gibt es zuhauf. Institutionell wird vorgeschlagen, dass sich verschiedene Organe der EU durch demokratische Wahlen legitimieren. Bei den Lösungsvorschlägen wird hierbei häufig auf die Kommission und die Wahl der/des Präsident*in und die Bestimmung der Beamten eingegangen. Eine (direkte) Wahl der/des Präsident*in und gegebenenfalls der Beamten würde das Interesse an der Europäischen Union stärken und das Demokratiedefizit schmälern. Andere Organe, wie beispielsweise der EuGH und die EZB sollten in ihrer Arbeitsweise transparenter werden, indem sie ihre Vorhaben/Gesetzesinitiativen vorab bekanntgeben, sodass sie in öffentlichen Debatten diskutiert werden können. Ein weniger auf konkrete Organe zugeschnittener Vorschlag ist ein engerer Austausch zwischen nationalen Parlamenten und dem EP. Um das strukturelle Demokratiedefizit zu beheben, ist eine europäische Öffentlichkeit, bzw. deren Herausbildung, von besonderer Bedeutung. Stellschrauben sind hier ein intensiver Austausch mit den EU-Bürger*innen und europaweite Referenden. Eine andere wäre die Europäisierung des Schulcurriculums. Damit könnte die Bedeutung der EU vermittelt und Wissenslücken über sie geschlossen werden. Tiefgreifender sind Forderungen nach gleichen Rechten und Pflichten für EU-Bürger*innen in allen Mitgliedsstaaten. Dies würde sicherlich zu einer höheren Identifikation mit der EU und den Mitbürger*innen führen – und somit zu einem Abbau des strukturellen Demokratiedefizits –, bräuchte jedoch weitreichende institutionelle Veränderungen und somit die Zustimmung der Mitgliedsstaaten zu einer EU in supranationalem Gewand.Kritiker*innen einer Demokratisierung der EU stellen sich deswegen die Frage, ob die EU überhaupt einen Demokratisierungsprozess durchlaufen soll. Für sie ist die Union bereits jetzt eine demokratisch legitimierte Gemeinschaft, die effizient und zielgerichtet arbeitet. Eine Demokratisierung, so die Kritiker*innen, laufe dem Aufgabenprofil der "aufgeklärten Bürokratie" (Føllesdal/Hix, 2006, S. 546) zuwider und ist zwecks Effizienzmangel deshalb gar nicht wünschenswert. Die Europäische Union steht vor einem Dilemma: Einerseits fehlt ihr demokratische Legitimität, wie sie in Nationalstaaten vorhanden ist, beispielsweise durch eine wähl- und abwählbare Regierung, gleiche Wahlen mit bedeutendem, europäischem Wahlkampf und Transparenz. Andererseits ist sie, qua Ursprung, eine effiziente Bürokratie, die dem Ziel des Wohlstandserhalts verpflichtet ist. LiteraturverzeichnisAbels, Gabriele (2020): Legitimität, Legitimation und das Demokratiedefizit der Europäischen Union. In: Becker, Peter/Lippert, Barbara (Hrsg.): Handbuch Europäische Union, SpringerVS: Wiesbaden, S. 175-193.(AEUV) Vertrag über die Arbeitsweise der Europäischen Union (2009): Sechster Teil: Institutionelle Bestimmungen und Finanzvorschriften, Titel I: Vorschriften über die Organe, Abschnitt 1: Das Europäische Parlament (Art. 223). Abrufbar unter: https://dejure.org/gesetze/AEUV/223.html [zuletzt abgerufen am 23.01.2023].Andersen, Uwe (Hrsg.) (2014): Das Europa der Bürger. Europa besser verstehen und daran mitwirken, Wochenschau Verlag: Schwalbach/Ts.Antalovsky, Eugen (Hrsg.)/Melchior, Josef/Puntscher Riekmann, Sonja (1997): Integration durch Demokratie. Neue Impulse für die Europäische Union, Metropolis: Marburg.Bartolini, Stefano (2000): Institutional Democratization and Political Structuring in the EU. Lessons from the Nation-state Development, in: Henry Cavanna (Hrsg.), Governance, Globalization and the European Union. Which Europe for Tomorrow?, Dublin: Four Courts Press, S. 129-158.Bollmohr, Rainer (2018): Das Demokratiedefizit der EU nach dem Vertrag von Lissabon. Der Einfluss der erweiterten Kompetenzen der nationalen Palramente am Beispiel des Deutschen Bundestags, 2. Aufl., Tectum: Baden-Baden.Bundesergierung (2006): Bulletin der Bundesregierung Nr. 44-1 vom 11. Mai 2006. Regierungserklärung von Bundeskanzlerin Dr. Angela Merkel zur Europapolitik vor dem Deutschen Bundestag am 11. Mai 2006 in Berlin, abrufbar unter https://www.bundesregierung.de/resource/blob/975954/769336/2f7ab272f747f3dc5b57c8d6317e7713/44-1-merkel-data.pdf?download=1 [zuletzt abgerufen am 15.01.2023].Decker, Frank (2017): Weniger Konsens, mehr Wettbewerb: Ansatzpunkte einer institutionellen Reform. In: Rüttgers, Jürgen/Decker, Frank (Hrsg.): Europas Ende, Europas Anfang, Campus Verlag GmbH, Frankfurt am Main, S. 163-180.Franzen, Wolfgang (2018): Europa ohne Europäer? Die Europäische Union aus Sicht ihrer Bevölkerung, 2. Aufl., Tectum: Baden-Baden.Føllesdal, Andreas/Hix, Simon (2006): Why there is a Democratic Deficit in the EU: A Response to Majone and Moravcsik. In: Journal of Common Market Studies 44 (3), S. 533-562.Gehler, Michael (2005): Europa. Ideen, Institutionen, Vereinigung. Olzog: München.Graf Kielmannsegg, Peter (2003): Integration und Demokratie. In: Jachtenfuchs, Markus/Kohler-Koch, Beate (Hrsg.): Europäische Integration. 2. Aufl., Leske + Budrich: Opladen, S. 49-83.Grimm, Dieter (2017): Europa: Ja – Aber welches? In: Rüttgers, Jürgen/Decker, Frank (Hrsg.): Europas Ende, Europas Anfang, Campus Verlag GmbH, Frankfurt am Main, S. 31-48.Grimmel, Andreas (Hrsg.) (2020): Die neue Europäische Union. Zwischen Integration und Desintegration, Nomos: Baden-Baden.Guérot, Ulrike (2018): Die Zukunft Europas – oder Zukunft ohne Europa? In: Guérot, Ulrike/Negt, Oskar/Kehrbauch, Tom/Herold, Emanuel: Europa jetzt! Eine Ermutigung, Steidl: Göttingen, S. 65-82.Hennette, Stéphanie/Piketty, Thomas/Sacriste, Guillaume/Vauchez, Antoine (2017): Für ein anderes Europa. Vertrag zu Demokratisierung der Eurozone, C.H. Beck: Nördlingen.Lincoln, Abraham (1863): The Gettysburg Address. Rede abgerufen über die Bibliothek der Cornell University, abrufbar unter https://rmc.library.cornell.edu/gettysburg/good_cause/transcript.htm [zuletzt abgerufen am 28.12.2022].Preiß, Markus (2019) [tagesschau]: #kurzerklärt: Wie demokratisch ist die EU? [Video]. Abrufbar auf YouTube unter https://www.youtube.com/watch?v=Zm6fIF2LIWI&t=4s [hochgeladen am 13.05.2019; zuletzt abgerufen am 23.01.2023].Schäfer, Armin (2006): Nach dem permissiven Konsens: Das Demokratiedefizit der Europäischen Union. In: Leviathan 34(3), Nomos: Baden-Baden, S. 350-376.Schwan, Gesine (2017): Neue Governance-Formen als Erweiterung der europäischen Demokratie. In: Rüttgers, Jürgen/Decker, Frank (Hrsg.): Europas Ende, Europas Anfang, Campus Verlag GmbH, Frankfurt am Main, S. 149-162.Simons, Alexander (2005): Europäische Union für Dummies. WILEY-VCH: Weinheim.Thalmaier, Bettina (2005): Braucht die EU eine eigene Identität? (CAP Analyse, 10/2005). München: Universität München, Sozialwissenschaftliche Fakultät, Centrum für angewandte Politikforschung (C.A.P) Bertelsmann Forschungsgruppe Politik.Thalmaier, Bettina (2006): Möglichkeiten und Grenzen einer europäischen Identitätspolitik. (CAP Analyse, 6/2006). München: Universität München, Sozialwissenschaftliche Fakultät, Centrum für angewandte Politikforschung (C.A.P) Bertelsmann Forschungsgruppe Politik.Vauchez, Antoine (2017): Die Regierung der "Unabhängigen": Überlegungen zur Demokratisierung der EU. In: Rüttgers, Jürgen/Decker, Frank (Hrsg.): Europas Ende, Europas Anfang, Campus Verlag GmbH, Frankfurt am Main, S. 181-196.von Wagner, Claus/Uthoff, Max (2016) [Freidenker]: Das Demokratiedefizit in der EU (ZDF – Die Anstalt, 6.9.2016) [Video]. Abrufbar auf YouTube unter https://www.youtube.com/watch?v=3lHVcvJdWIs [hochgeladen am 09.09.2016; zuletzt abgerufen am 11.01.2023].Weidenfeld, Werner (2006): Die Europäische Verfassung verstehen. Verlag Bertelsmann Stiftung: Gütersloh.Weidenfeld, Werner/Wessels, Wolfgang (Hrsg.) (2007): Europa von A bis Z. Taschenbuch der europäischen Integration, 10. Aufl., Nomos: Baden-Baden.Weidenfeld, Werner (2013): Die Europäische Union. 3. Aufl., Wilhelm Fink: München.Wiener, Antje (2001): Zum Demokratiedilemma europäischer Politik: Symbole und Inhalte der Verfassungsdebatte. Erschienen in Jean-Monnet-Working Paper 2001/1, abrufbar unter: https://media.suub.uni-bremen.de/bitstream/elib/3614/1/ELibD601_2001_1.pdf [zuletzt abgerufen am 14.01.2023].Wiener, Antje (2006): Bürgerschaft jenseits des Staates. Die europäische Bürgerschaftspraxis folgt eigenen Regeln, Publiziert 2006 in: Vorgänge 174, 2: 27-38, abrufbar unter: https://www.wiso.uni-hamburg.de/fachbereich-sowi/professuren/wiener/dokumente/publikationenaw/zeitschriftenartikelaw/wiener-2006-vorgaenge.pdf [zuletzt abgerufen am 13.01.2023].