Partnering for global security: the EU, its strategic partners and transnational security challenges
In: European foreign affairs review, Band 21, Heft 1, S. 9-34
ISSN: 1384-6299
8841 Ergebnisse
Sortierung:
In: European foreign affairs review, Band 21, Heft 1, S. 9-34
ISSN: 1384-6299
World Affairs Online
In: Politische Studien: Magazin für Politik und Gesellschaft, Band 44, Heft Sonderheft 9, S. 1-77
ISSN: 0032-3462
World Affairs Online
In: Aus Politik und Zeitgeschichte: APuZ, Band 34, Heft 49, S. 3-16
ISSN: 0479-611X
World Affairs Online
Blog: www.jmwiarda.de Blog Feed
Der IQB-Bildungstrend zeigt: Innerhalb von sieben Jahren ist die Deutschkompetenz von Neuntklässlern auf den Stand abgerutscht, den 2015 Siebt- und Achtklässler hatten. Dafür gibt es viel mehr
Jugendliche, die richtig gut Englisch können – trotz der Corona-Schulschließungen. IQB-Direktorin Petra Stanat über die Suche nach den Ursachen – und die Gestaltungsaufgaben der
Bildungspolitik.
Petra Stanat ist Psychologin, Bildungsforscherin und seit 2010 Direktorin des Instituts für Qualitätsentwicklung im
Bildungswesen (IQB).
Foto: IQB Berlin.
Frau Stanat, nach 2009 und 2015 hat das Institut zur Qualitätsentwicklung im Bildungswesen (IQB) zum dritten Mal im Auftrag der Kultusminister die sprachlichen Kompetenzen der
Neuntklässler in Deutschland überprüft. Jetzt liegen sie vor, die Ergebnisse des "IQB-Bildungstrends 2022". Sind irgendwelche Überraschungen dabei?
Für mich persönlich zum Teil schon. Ich hatte zwar erwartet, dass es wie im vergangenen Jahr im IQB-Bildungstrend für die Grundschulen auch in der neunten Jahrgangsstufe einen Rückgang in den
erreichten Kompetenzen geben würde, allein schon wegen des Ausfalls von Präsenzunterricht und anderen Einschränkungen während der Corona-Zeit. In Deutsch mussten wir diesen
Rückgang jetzt tatsächlich auch feststellen, und zwar in allen drei untersuchten Kompetenzbereichen Lesen, Orthografie und Zuhören. Womit ich aber nicht gerechnet hatte: dass er in
Deutsch derart heftig ausfällt. Und was mich noch mehr überrascht hat: dass die Schülerinnen und Schüler fast spiegelbildlich in Englisch so stark zulegen würden, sogar ebenso stark wie zwischen
2009 und 2015, als wir keine Pandemie hatten. Das ist ein bemerkenswerter Befund.
"Ein Lernrückstand zwischen einem
und zwei Schuljahren im Vergleich zu 2015."
Wie heftig ging es denn runter in Deutsch und wie kräftig nach oben in Englisch?
In Deutsch beträgt der Rückgang zwischen den Jahren 2015 und 2022 im Lesen 25 Kompetenzpunkte, in der Orthografie 31 Punkte und im Zuhören sogar 44 Punkte. Wenn man das in Unterrichtzeit
umrechnet, was allerdings in der Sekundarstufe schwierig ist, entspricht das je nach Kompetenzbereich einem Lernrückstand zwischen einem und zwei Schuljahren im Vergleich zu 2015.
Nur zur Klärung: Das heißt, heutige Neuntklässler sind in Deutsch auf dem Stand, den 2015 Siebt- oder Achtklässler hatten?
Wie gesagt: Diese Umrechnung ist aus verschiedenen Gründen nicht exakt, deshalb sollte man sie nicht allzu wörtlich nehmen, aber richtig ist in jedem Fall: Wir sprechen von einer massiven
Verschlechterung der Ergebnisse in Deutsch. Umgekehrt erreichten die Schülerinnen und Schüler in Englisch im Leseverstehen im Schnitt 22 Punkte und im Hörverstehen 23 Punkte mehr, was wiederum
etwa der Lernzeit von einem halben Schuljahr gleichkommt. Auch das ist erstaunlich viel. >>>
Stichproben, Risikogruppen und Länder-Unterschiede: die IQB-Ergebnisse in der Zusammenfassung
Die Ergebnisse des IQB-Bildungstrends basieren auf repräsentativen Stichproben in allen 16 Bundesländern, die insgesamt mehr als 35.000
Neuntklässler umfassten. Untersucht wurden 2022 die Kompetenzen in Deutsch, Englisch und (in einzelnen Bundesländern) Französisch, die Testaufgaben orientierten sich an den
KMK-Bildungsstandards.
In Deutsch verfehlten im Kompetenzbereich Lesen fast 33 Prozent aller Schüler den Mindeststandard, der als Untergrenze für den Mittleren
Schulabschluss (MSA) angesetzt wird, im Zuhören 34 Prozent und in der Rechtschreibung 22 Prozent, jeweils ein massiver Anstieg gegenüber der letzten Messung von 2015. Auch die durchschnittlichen
Kompetenzen aller Neuntklässler rutschten ab, je nach Bereich um 25 bis 44 Punkte, was laut IQB-Direktorin Stanat grob dem Stoff von ein bis zwei Schuljahren entspricht. Der Rückgang betraf in
unterschiedlicher Stärke fast durchgängig alle Bundesländer.
Genau umgekehrt verlief die Entwicklung in Englisch. Im Leseverstehen ging es im Vergleich zu 2015 um 22, im Hörverstehen um 23 Kompetenzpunkte
hoch, wobei fast alle Länder einen positiven Trend verzeichneten. Damit setzt sich die seit 2009 beobachtete Aufwärtsbewegung fort.
Allerdings wurde die Risikogruppe derjenigen Schüler, die die Mindeststandards verfehlen, nicht in gleichem Maß kleiner, was laut IQB darauf hinweist,
dass die Kompetenzsteigerung besonders bei den mittelguten und den leistungsstarken Schülern stattgefunden hat. Immer noch liegen 24 Prozent
der Neuntklässler unterhalb der MSA-Mindestanforderungen für Englisch im Leseverstehen und 14 Prozent im
Hörverstehen. Immerhin: Legt man die geringeren Mindeststandards für den Ersten Schulabschluss (ESA, früher Hauptschulabschluss) an, verfehlen diese beim Lesen
weniger als neun und beim Hörverstehen weniger als zwei Prozent aller Schüler.
Am besten fielen die Deutsch-Ergebnisse erneut in Bayern und Sachsen aus, die Risikogruppen waren auch in
Sachsen-Anhalt sowie teilweise in Mecklenburg-Vorpommern und Thüringen vergleichsweise klein. Besonders schwach schnitten laut IQB nahezu
durchgängig Berlin, Bremen und Nordrhein-Westfalen ab. Erfreulich: In Englisch gelingt es den meisten Ländern, den Anteil der Schüler unterhalb
der ESA-Mindeststandards auf dem deutschen Durchschnittsniveau zu halten. Im Schnitt besonders gute Ergebnisse erreichen die Neuntklässler in Bayern und Hamburg
sowie in Rheinland-Pfalz und Schleswig-Holstein. Auffällig ist, dass in Englisch wie schon 2015 die ostdeutschen Bundesländer gegenüber dem
Westen schlechter da stehen als der Westen.
In der Gesamtbetrachtung beider Fächer liegen neben Bayern die Länder Baden-Württemberg und Hamburg jeweils in
mehreren Kompetenzbereichen statistisch signifikant über dem Bundesdurchschnitt.
Eine gute Nachricht noch am Ende: Angesichts der aktuell sehr negativ geprägten Diskussion über den Lehrerberuf, sagt
IQB-Direktorin Stanat, "hat mich der Befund erfreut, dass mehr als 70 Prozent der Lehrkräfte sagen, dass sie sehr zufrieden mit ihrer Berufswahl sind." Politik, Gesellschaft und
gerade auch die Lehrerverbände müssten aufpassen, dass sie den Beruf nicht systematisch schlecht redeten, warnt Stanat.
>>> Sie geben beim Bildungstrend zusätzlich den Anteil der Schülerinnen und Schüler an, die die Mindeststandards verfehlen. Was genau bedeutet das?
Die Kultusministerkonferenz hat auf Grundlage der Bildungsstandards auch festgelegt, was Kinder und Jugendliche in bestimmten Klassenstufen mindestens können sollten in Deutsch, Englisch und
anderen Fächern. Also im Sinne einer Untergrenze, die von allen erreicht werden sollte, um erfolgreiches Weiterlernen und Teilhabe zu ermöglichen. Dabei wird nach dem angestrebten Schulabschluss
unterschieden. Das absolute Minimum ist der Mindeststandard für den früheren Hauptschulabschluss, der heute als Erster Schulabschluss bezeichnet wird. Den sollten wirklich alle erreichen.
Wer diesen Mindeststandard nicht beherrscht, kann nicht richtig lesen, rechnen oder schreiben?
Vereinfacht kann man das so sagen. Zumindest wird ohne das Beherrschen der Mindeststandards ein erfolgreicher Übergang in eine Berufsausbildung und gesellschaftliche Teilhabe deutlich erschwert
sein. Und wir sehen, dass je nach Kompetenzbereich in Deutsch acht bis 18 Prozent der Jugendlichen dieses Minimum nicht mehr erreichen. Legen wir die höheren, aber immer noch sehr moderaten
Mindeststandards für den Mittleren Schulabschluss an, verfehlen diese im Lesen und Zuhören inzwischen ein Drittel der Neuntklässler in Deutschland. In der Orthografie ist es gut ein Fünftel. Da
inzwischen sehr viele Berufe den mittleren Schulabschluss erfordern, ist auch diese Gruppe zu groß und im Vergleich zu 2015 stark gewachsen: je nach Kompetenzbereich und Abschlussart um vier bis
16 Prozentpunkte – wobei die Leistungen im Zuhören besonders kräftig abgefallen sind, das war schon im Bildungstrend für die Grundschule der Fall.
"Deutlich mehr Jugendliche,
die richtig gut Englisch können."
Geben Sie bitte ein konkretes Beispiel für eine Aufgabe, die ich richtig beantworten muss, um den Mindeststandard für den Ersten Schulabschluss zu erfüllen.
Zum Beispiel lesen die Jugendlichen einen 70 Wörter umfassenden Text über die Seidenstraße, in dem wörtlich steht, dass es sich um die wichtigste Handelsroute zwischen Asien und Europa handelte.
Dennoch wird zur Frage, "Was war die Seidenstraße laut Text?" nicht mit hoher Sicherheit die Antwortalternative "ein Handelsweg zwischen Asien und Europa" angekreuzt. Oder bei einer
Korrekturaufgabe zur Orthografie wird in dem Satz "Das rote Auto hate das Kennzeichen MM-NB 612" nicht mit hoher Sicherheit das Wort "hate" korrigiert.
Sehen wir wenigstens umgekehrt, dass die Risikogruppen in Englisch kleiner geworden sind?
Sie sind zumindest nicht größer geworden. Die Kompetenzverbesserungen, die wir insgesamt beobachten, sind vor allem im mittleren und oberen Leistungsbereich festzustellen. Diejenigen
Jugendlichen, die den Mittleren Abschluss anstreben, erreichen zu deutlich höheren Anteilen die Regelstandards und sogar die sogenannten Optimalstandards, hier sehen wir einen Anstieg in den
Prozentwerten um zehn bis 14 Prozentpunkte. Anders formuliert: Im Vergleich zu 2015 gibt es heute deutlich mehr Jugendliche, die richtig gut Englisch können.
"Der Trend in Deutsch zeigt auch bei den nicht zugewanderten Jugendlichen nach unten. Es ist in
der aktuellen Debatte sehr wichtig, das festzuhalten."
So erfreulich die Entwicklung in Englisch ist: Die Bildungsdebatte der nächsten Tage wird sich vermutlich um die dramatisch schlechteren Ergebnisse in Deutsch drehen. Die Kultusminister
könnten sagen, schuld sei nicht die Bildungspolitik, sondern verantwortlich seien die Corona-Schulschließungen und die Flüchtlingsströme seit 2015.
Da ist ja bestimmt auch etwas dran, nur wissen wir nicht, welchen Einfluss genau Corona hatte, das können wir nicht messen. Dafür, dass die Pandemie eine erhebliche Rolle gespielt hat, spricht
jedoch, dass wir in praktisch allen Bundesländern unabhängig von ihrer Ausgangslage eine deutlich negative Entwicklung beobachten. Gleichzeitig erzielten neu zugewanderte Schülerinnen und Schüler
erneut signifikant schwächere Ergebnisse als der Durchschnitt, und der Anteil dieser Schülerinnen an der Gesamtschülerschaft in Deutschland ist seit 2015 um fünf Prozentpunkte auf insgesamt neun
Prozent gestiegen. Wahr ist aber auch: Selbst wenn wir statistisch so tun, als hätte sich die Zusammensetzung der Schülerschaft seit damals nicht verändert, zeigt der Trend trotzdem eindeutig
nach unten. Und auch bei den Jugendlichen ohne Zuwanderungshintergrund sehen wir in Deutsch einen Kompetenzrückgang, wenn auch weniger stark. Es ist in der aktuellen Debatte sehr wichtig, das
festzuhalten.
Wirkt sich hier der vielerorts extreme Lehrkräftemangel aus?
Das können wir anhand unserer Daten nicht untersuchen. Eigentlich wollten wir uns ansehen, ob Schülerinnen und Schüler, die von nicht traditionell ausgebildeten Lehrkräften unterrichtet werden,
weniger gute Ergebnisse erzielen. Aber diese Auswertung ist daran gescheitert, dass die Gruppe der Quer- und Seiteneinsteigenden in den sprachlichen Fächern immer noch vergleichsweise klein ist:
Von den etwa 1250 befragten Lehrkräften in unserer Studie betrifft das nur 40 Deutsch- und 59 Englischlehrkräfte. Der Anteil der Berufsanfänger, die ohne reguläres Lehramtsstudium
unterrichten, steigt zwar, aber auf die Ergebnisse des Bildungstrends 2022 dürfte sich das kaum ausgewirkt haben.
Eben sagten Sie, die durchschnittlichen Kompetenzen seien in praktisch allen Bundesländern gesunken, aber es gibt schon noch deutliche Unterschiede, oder?
In der Tat kann man einige Länder herausheben. Hamburg zum Beispiel, das sich in den vergangenen 13 Jahren sukzessive hochgearbeitet hat, 2009 noch zu den Schlusslichtern zählte und jetzt in
Deutsch im Mittelfeld liegt, in Englisch teilweise mit an der Spitze. Und das bei einem sehr hohen Anteil an Einwandererkindern wohlgemerkt. Erstaunlich finde ich auch, dass in Baden-Württemberg
in mehreren Kompetenzbereichen wieder etwas bessere Ergebnisse erzielt werden als in Deutschland insgesamt. Auf die enttäuschenden Ergebnisse früherer Bildungstrends hat dieses Land strategisch
reagiert, und vielleicht zeichnet sich hier schon eine Trendwende ab. Das lässt sich jetzt aber noch nicht mit Sicherheit sagen.
"Die Dynamik in Baden-Württemberg hat mich beeindruckt. Sogar der Ministerpräsident hat sich intensiv mit den Ergebnissen beschäftigt."
Baden-Württembergs damalige Kultusministerin Susanne Eisenmann hatte die Losung ausgegeben, von Hamburg lernen zu wollen.
Eine genaue Ursache-Wirkungs-Analyse kann ich Ihnen leider nicht bieten, nur einen Eindruck: Nach Veröffentlichung des Bildungstrends 2015 bin ich sehr oft nach Baden-Württemberg eingeladen
worden, und es fanden dort viele bildungspolitische Diskussionen statt, unter Beteiligung von Politik, Administration, Schulpraxis, Bildungsforschung und Verbänden. Sogar der Ministerpräsident
hat sich intensiv mit den Ergebnissen beschäftigt. Man war sich einig, dass etwas passieren muss. Diese Dynamik, die unter anderem in der Gründung von zwei Instituten mündete, die
Bildungsprozesse wissenschaftlich fundiert unterstützen sollen und sehr überzeugende Arbeit leisten, hat mich beeindruckt.
Beeindruckend ist allerdings auch, wie sich Länder wie Bayern oder Sachsen von Mal zu Mal weit vorn halten. Wie ist das zu erklären?
Diese Frage stellt sich bei jedem Bildungstrend, und ehrlich gestanden habe ich darauf immer noch keine guten Antworten. Ein Faktor ist sicher, dass der Anteil zugewanderter Schülerinnen und
Schüler in diesen Ländern geringer ist als in vielen der anderen Länder, vor allem in Sachsen. Das sieht man ansatzweise in Analysen, in denen wir statistisch so tun als wäre die Schülerschaft in
allen Ländern so zusammengesetzt wie in Deutschland insgesamt, bezogen auf den sozioökonomischen und den zuwanderungsbezogenen Hintergrund. Dann schrumpft der Vorsprung in den erreichten
Kompetenzen für Sachsen und Bayern etwas, er verschwindet aber keineswegs. Es müssen also weitere Faktoren eine Rolle spielen. Vielleicht ein besonders ausgeprägter Konsens darüber, dass
Lernerfolg in grundlegenden Kompetenzbereichen wirklich zentral ist und auf sich abzeichnende Probleme reagiert werden muss. Und in Bayern hatte ich immer wieder den Eindruck, dass einmal
getroffene bildungspolitische Entscheidungen von einer gut funktionierenden Bildungsverwaltung umgesetzt werden und in der Praxis auch ankommen. Wenn die bildungspolitischen Entscheidungen
fundiert und zielführend sind, ist das natürlich von Vorteil. Aber das sind wirklich nur Spekulationen, die auf subjektiven Eindrücken und Gesprächen basieren.
Sie haben den Einfluss der Corona-Pandemie auf den Schulbetrieb erwähnt, den teilweise viele Wochen langen Distanzunterricht zum Beispiel. Wie kann es sein, dass der in Deutsch offenbar
zum Absturz beigetragen hat – in Englisch die Leistungen aber hochgegangen sind, als sei nichts passiert?
Der Anstieg der Kompetenzen war im Zeitraum von 2015 bis 2022, in dem die Corona-Pandemie lag, sogar genauso groß wie von 2009 bis 2015. Auch hier kann ich im Moment nur spekulieren, weil wir uns
in Ruhe anschauen müssen, wie sich die Sprachnutzung bei außerschulischen Aktivitäten verändert hat. Denn die Annahme liegt ja nahe, dass die Schülerinnen und Schüler auf Englisch Videos und
Serien anschauen, Computerspiele spielen und im Internet unterwegs sind. Und genau diese Aktivitäten dürften während der Pandemie zugenommen haben. Das könnte mit dazu beigetragen haben, dass die
Schülerinnen und Schüler in diesem Zeitraum ihre englischsprachigen Kompetenzen weiter gesteigert haben.
"Guter Englischunterricht schafft die Voraussetzungen, dass die Schülerinnen und Schüler von ihrer Internetnutzung profitieren können."
Das klingt so, als sei die Zeit mit Videogucken oder Daddeln besser angelegt gewesen als mit Schulunterricht?
Das wäre sicher übertrieben. Denn natürlich braucht man einen guten Englischunterricht, der die Grundlagen dafür schafft, dass Schülerinnen und Schüler von der Internetnutzung und anderen
Aktivitäten auf Englisch profitieren können. Der Englischunterricht ist heute viel kompetenzorientierter als früher. Übrigens zeigt sich in einer unserer Analysen, dass Unterricht, der fachfremd,
also nicht von einer Englischlehrkraft erteilt wird, mit einem niedrigeren Leistungsniveau der Schülerinnen und Schüler einhergeht. Ein weiteres Indiz dafür, dass guter Englischunterricht wichtig
ist.
Aber auch nach Ihrer Ehrenrettung des schulischen Englischunterrichts bleibt festzuhalten: Die Behauptung, viel Zeit online wirke sich automatisch negativ auf die Schulnoten aus, ist
vermutlich falsch.
Eine Fremdsprache lernt man durch ihre Nutzung – so, wie man Lesen durch Lesen lernt. Und weil die Schülerinnen und Schüler unter anderem online erleben, wie wichtig gute Englischkenntnisse sind,
wie viele neue Inhalte sie sich mit Englisch erschließen können, dürfte das ihre Motivation gewaltig steigern. Hierin liegt ein weiterer großer Unterschied zum Deutschunterricht, für den wir eine
vergleichsweise niedrige Lernmotivation bei den Neuntklässlern finden – das Fach kann offenbar nur wenige Jugendliche für sich begeistern. Das Interesse am Englischunterricht ist viel höher
ausgeprägt.
Vorhin haben Sie darauf hingewiesen, dass eingewanderte Kinder deutlich schwächere Kompetenzen erreichen als der Durchschnitt. Deutschland gilt insgesamt als ein Land, in dem die soziale
Herkunft stark über den Bildungserfolg entscheidet. Spiegelt sich das auch im IQB-Bildungstrend 2022 wider?
Leider ja. Die Disparitäten haben weiter zugenommen. Die negative Entwicklung im Fach Deutsch ist bei sozioökonomisch benachteiligten Jugendlichen im Schnitt stärker ausgefallen, auch der
Rückstand der neu eingewanderten Schülerinnen und Schüler hat sich vergrößert. In Englisch wiederum haben Jugendliche aus sozioökonomisch besser gestellten Elternhäusern besonders stark zugelegt,
die soziale Schere geht also auch hier weiter auf. Aber ein erfreuliches Ergebnis möchte ich noch erwähnen: Jugendliche, die zu Hause nicht immer Deutsch sprechen, haben zwar Nachteile in
Deutsch, aber Vorteile in Englisch. Dies bestätigt, dass sich Mehrsprachigkeit auf den Erwerb weiterer Sprachen positiv auswirken kann – der Zusammenhang hat sich auch schon in früheren Studien
gezeigt.
Insgesamt aber gilt: Deutschland entfernt sich weiter vom Ziel, mehr Bildungsgerechtigkeit zu schaffen – obwohl die Bildungspolitik seit vielen Jahren das Gegenteil beschwört?
So ist es.
"Besteht tatsächlich bei allen Akteuren
Einigkeit darüber, dass es brennt?"
Bildungspolitik und Öffentlichkeit werden angesichts der Ergebnisse natürlich wissen wollen, was zu tun ist. Wie lautet Ihre Antwort?
Zunächst müssen sich alle Akteure im Bildungssystem darüber einig sein, dass diese grundlegenden Kompetenzen wirklich grundlegend sind und dass wir alles dafür tun müssen, damit die
Mindeststandards erreicht und gesichert werden.
Haben wir den Konsens nicht längst?
Einen gesellschaftlichen Konsens darüber, dass Lesen, Schreiben, Mathematik wichtig sind, haben wir schon, denke ich. Auch die alten Debatten, in denen die Förderung dieser Kompetenzen und die
Entwicklung sozialer Kompetenzen als Gegensatz darstellt wurden, haben wir zum Glück weitgehend hinter uns gelassen. Genauso wie die Stimmen, die Kompetenzmessungen und Sicherung von Standards
als überzogenen Leistungsdruck betrachtet haben. Aber besteht tatsächlich bei allen Akteuren Einigkeit darüber, dass es brennt und wir trotz schwieriger Rahmenbedingungen dringend dafür sorgen
müssen, dass wirklich alle Kinder und Jugendlichen die grundlegenden Kompetenzen erwerben, die sie benötigen, um sich gut weiterentwickeln zu können? Da bin ich mir nicht sicher.
Wie erreichen wir diese Einigkeit?
Dazu ist es unter anderem erforderlich, dass regelmäßig geschaut wird, wie sich die Kompetenzen der Kinder und Jugendlichen entwickeln, inwieweit sie besondere Förderung benötigen und ob die
Förderung gegriffen hat. Stichwort "Kultur des Hinschauens" durch datengestützte Unterrichtsentwicklung, die selbstverständlicher Bestandteil von Professionalität werden muss. Das hat ein
Gutachten der Ständigen Wissenschaftlichen Kommission der KMK jüngst für die Grundschule beschrieben. Oder nehmen Sie die frühkindliche Sprachförderung, die schon so lange Thema ist. Hier hat
sich zwar schon einiges getan, aber von einer systematischen Umsetzung in der Fläche sind wir noch weit entfernt. Und wir müssen uns dringend mit der Frage beschäftigen, wie die Sprachförderung
für Kinder und Jugendliche zu gestalten ist, die mit geringen Deutschkenntnissen ins System kommen. Hier ist in den vergangenen Jahren nach den großen Fluchtbewegungen ad hoc viel geleistet
worden, aber wir werden ja weiter Zuwanderung haben und müssen diese Förderung jetzt systematischer aufsetzen und begleiten. Alles anspruchsvolle Entwicklungen, die natürlich Zeit brauchen. Aber
die Ergebnisse des Bildungstrends zeigen erneut, dass wir dringend vorankommen müssen.
Bund und Länder werden auf das geplante "Startchancen"-Programm verweisen als ihren Beitrag zur Lösung der Probleme.
Das "Startchancen"-Programm ist dann eine Chance, wenn es wirklich fokussiert wird auf die evidenzbasierte Förderung grundlegender Kompetenzen in Deutsch und Mathematik. Dafür müssen Bund und
Länder bei ihrer Ankündigung bleiben, die "Startchancen" wissenschaftlich begleiten und evaluieren zu lassen. Denn eines darf nicht passieren: dass das Programm in Maßnahmen zerfasert, für die es
keinen soliden Grund zur Annahme gibt, dass sie wirken.
Kostenfreien Newsletter abonnieren
Und jetzt?
Welche Erklärungen Politiker aus Bund und Ländern für den Abwärtstrend bei den Schülerleistungen haben – und was sie jetzt tun wollen.
(13. September 2023) >>>
In eigener Sache: Bitte unterstützen Sie meine Arbeit
Nutzerzahlen und Finanzierung: Wie steht es um den "Wiarda-Blog"?
Mehr lesen...
Blog: www.jmwiarda.de Blog Feed
Im November will das BMBF endlich sein Konzept zur Deutschen Agentur für Transfer und Innovation vorlegen. Eine interne Arbeitsversion verrät jetzt, wie die Neugründung aussehen könnte.
DIE RESONANZ war atemberaubend. 2.965 Skizzen gingen bis zum Antragsschluss Ende August beim Bundesministerium für Bildung Forschung (BMBF) ein. So viele Projekte hoffen auf Zuschlag bei der
"Innovationssprints" genannten ersten Förderlinie von "DATIpilot", mit der das Ministerium die Gründung der geplanten Deutschen Agentur für Transfer und Innovation vorbereiten will. Über ein
Drittel davon stammten von Hochschulen für angewandte Wissenschaften (HAW), wie BMBF-Chefin Bettina Stark-Watzinger und ihr zuständiger Staatssekretär Mario Brandenburg (beide FDP) Ende September
in einem Brief an alle Ampel-Bundestagsabgeordneten berichteten.
Auch sonst sind es gerade entscheidende Wochen für die DATI. So eilig es Ex-Staatssekretär Thomas Sattelberger mit der Präsentation eines ersten, "Grobkonzept"
genannten Entwurfs zur Gestaltung der Agentur im März 2022 hatte, so viel Zeit hat sich sein Nachfolger Brandenburg mit der Ausarbeitung des endgültigen Konzepts gelassen.
Nun aber mehren sich die Anzeichen, dass es in Kürze so weit sein wird: In einer mir vorliegenden "internen Arbeitsversion" des Konzepts heißt es, die Ressortabstimmung und die anschließend
geplante Kabinettsbefassung seien "für November 2023" geplant, ebenso die Entsperrung von 35,4 DATI-Millionen durch den Haushaltsausschuss des Bundestages. Da dieser dafür zwingend die Vorlage
eines "schlüssigen Konzepts" verlangt hatte (das man in Sattelbergers Vorarbeiten nicht sah), arbeiten sie im BMBF in diesen
Tagen mit Hochdruck an dessen finaler Fassung.
"Agile Strukturen" und
weitgehende "Unabhängigkeit"
Die aktuell kursierende Arbeitsversion, datiert auf den 27. September, gibt bereits wichtige Anhaltspunkte zum vorgesehenen Budget der Agentur, ihrem Aufbau und den
angedachten Freiheitsgraden. Auffällig zurückhaltend sind die 20 Seiten dagegen bei der Beschreibung der geplanten Prozesse für die Fördermittelvergabe.
Innovationsagenturen nach internationalem Vorbild benötigten "agile Strukturen und weitgehende organisatorische und programmatische Unabhängigkeit", beschwört der Konzeptentwurf gleich zu Beginn
mit Verweis auf die Bundesagentur für Sprunginnovation (SPRIND) und die Cyberagentur (wobei das ganz und gar nicht agile politische Gezerre um deren Gestaltung hoffentlich nicht vorbildlich sein
wird für die Aufstellung der DATI).
2023 waren laut Haushaltsansatz insgesamt 50 Millionen Euro für die DATI vorgesehen, von denen, siehe oben, der größte Teil aber bislang gesperrt ist. Und auch wenn der Haushaltsausschuss im
November das Geld freigeben sollte, wird voraussichtlich dieses Jahr nur noch ein Bruchteil davon gebraucht. Denn die Gründung soll laut Konzeptentwurf erst im ersten Quartal 2024 mit einem
"Antragsverfahren zur Beteiligung des Bundes an privatrechtlichen Unternehmen" starten, und auch die Bearbeitung der fast 3.000 "DATIpilot"-Antragskizzen wird dauern.
Der größte Budgetsprung kommt erst
nach der nächsten Bundestagswahl
Im nächsten Jahr sollen laut Ampel-Haushaltsentwurf insgesamt 78,8 Millionen Euro für die DATI fließen, 2025 dann 124,5 Millionen Euro. Der größte Sprung, so steht es im internen BMBF-Papier,
soll 2026 folgen – rauf auf rund 250 Millionen Euro pro Jahr.
Was auch bedeutet: Das meiste Geld für die Agentur würde (wie praktisch für Ampel-Finanzpolitiker!) erst in den Haushalten der nächsten Bundesregierung fällig. Einerseits nachvollziehbar, denn
der Aufbau einer neuen Institution kostet Zeit. Entsprechend lange dauert es, bis die DATI in der Lage sein wird, große Mengen an Fördergeld sinnvoll auszugeben.
Andererseits hätte man von Anfang an schneller sein können: Mehr als anderthalb Jahre von Sattelbergers "Grobkonzept" bis zur geplanten Einreichung des endgültigen Konzepts beim
Haushaltsausschuss ist ein sehr langer Zeitraum, der sich nicht allein mit Verweis auf die umfangreiche – und sehr sinnvolle – Community-Beteiligung etwa in Form sogenannter Stakeholder-Dialoge
rechtfertigen lässt.
Gleichzeitig warben Stark-Watzinger und Brandenburg in ihrem Brief an die Bundestagsabgeordneten aber bereits jetzt – wenig klausuliert – um eine Erhöhung des Haushaltsansatzes für 2024.
Mit Verweis auf das "großartige Feedback", die knapp 3.000 Antragsskizzen, schrieben die beiden FDP-Politiker: "Diese überwältigende Resonanz erfordert eine angemessene Antwort. Wir werden nun
die ursprünglich geplante Förderung substanziell ausweiten, eine gebührende Förderquote anstreben und so ein wichtiges Signal für den Innovationsstandort Deutschland senden." Und weiter: "Mit
Ihnen gemeinsam möchten wir darauf hinwirken, dass aus den vielen Ideen möglichst zahlreiche innovative Lösungen entwickelt werden, die die Menschen schließlich erreichen."
Nicht nur regional verankert: Wie das BMBF sich
die DATI-"Innovationscommunities" vorstellt
Die DATI-Pilotlinien gelten wie schon vor der SPRIND-Gründung einerseits als Strategie des BMBF, um die lange Wartezeit bis zum Arbeitsstart der Agentur zu überbrücken. Andererseits will man so
bereits Erfahrungen sammeln, wie das spätere Fördergeschäft der Agentur laufen könnte: etwa wie man mit einer solchen Antragsflut umgeht, die aktuell ganze Referate im BMBF lahmzulegen droht –
und welche Fehler man dort vermeiden sollte.
Die Erfüllung des BMBF-Wunschs nach mehr DATI-Geld wird wiederum vor allem von der Bewertung dessen abhängen, was in dem DATI-Konzept steht, das der Haushaltsausschuss bekommen soll. Vier
künftige Aufgabenfelder beschreibt die "interne Arbeitsversion" für die künftige DATI: Erstens soll sie die Transfercommunity aktivieren und vernetzen, zweitens zu Förderangeboten beraten, dabei
soll sie mit Coaching und Weiterbildungsangebote in die Szene hineinwirken.
Besonders profitieren von den ersten beiden Aufgabenfeldern könnten laut Entwurf weniger forschungs- und drittmittelaffine HAW.
Die dritte Kernaufgabe der neuen Agentur soll logischerweise das Fördergeschäft sein in Auf- und Ausbau, Begleitung und Entwicklung von "Innovationscommunities". Diese werden, anders als
Sattelbergers "Regionen" im Vorkonzept, jetzt als "Zusammenschlüsse von Partnern aus Wissenschaft, Wirtschaft, Zivilgesellschaft und dem öffentlichen Sektor mit gemeinsamer Zielsetzung"
definiert. Wobei sie sich zwar durch einen "regionalen Nukleus von Akteuren" auszeichnen, aber auch "überregionale und internationale Vernetzungen" Teil der Community sein können, "wenn dies zur
Lösung der jeweilig thematisch adressierten Herausforderung beiträgt". Konsortialführer sollen wissenschaftliche Einrichtungen, "inbesondere" HAW sein.
Viertens und übergreifend soll sich die DATI um die "Weiterentwicklung der Förderung von Transfer und Innovation" kümmern, vor allem im Rahmen der Dokumentation und Weiterverbreitung von "Best
Practices".
Die besondere Rolle der HAW
wird gleich mehrfach betont
Als Organisationsgrundsätze für die DATI werden in der internen Arbeitsversion des Konzepts genannt: eine Themenoffenheit mit einem "breiten Innovationsbegriff, der soziale und technologische
Innovationen gleichermaßen umfasst"; eine Akteursoffenheit, die auf eine "Vielfalt der Transferpartner abhebt", dabei aber das besondere Profil und "die Belange der HAW" addressiert, "um gute
Zugangsmöglichkeiten zu gewährleisten".
Die besondere Rolle der HAW "aufgrund ihrer Anwendungsorientierung" wird in dem Papier gleich mehrfach betont – wohl vor allem um deren Sorgen zu zerstreuen, die Technischen Universitäten könnten
ihnen, Stichwort Akteursoffenheit, die Fördermittel wegschnappen.
Weitere Organisationsgrundsätze, die der Konzeptentwurf aufzählt: eine "konsequente Bedarfs- und Serviceorientierung", "Synergien mit bestehenden Maßnahmen" schaffen, eine lernende,
anpassungsfähige Organisation sein und außerdem "digital von Grund auf", "von der ersten Kontaktaufnahme, Beratung, Antragstellung, Projektbetreuung bis Projektabschluss und Monitoring".
Auch die "organisatorische Exzellenz" kommt als Grundsatz vor, die hohe Qualifikation des Personals wird ebenso beschworen wie "eine Führungskultur und Entscheidungsstruktur, die bestmöglich
Mission, Vision, Impact, Wertversprechen und Organisationsgrundsätze der Agentur befördern".
Was aber, und das ist die wirklich spannende Frage, bedeuten all diese hehren Vorsätze praktisch für die Struktur der Agentur? Verkörpert sie das, was das Papier eingangs bei den
internationalen Vorbildern als "weitgehende organisatorische und programmatische Unabhängigkeit" erkannt hatte?
Zurückhaltender als
bei der SPRIND
Laut Konzeptentwurf soll die DATI als GmbH gegründet werden mit der Bundesrepublik als alleiniger Gesellschafterin. Sie soll einige Freiheitsgrade erhalten, etwa in Form von Gehältern fürs
Führungspersonal, die außerhalb des Tarifvertrags für den öffentlichen Dienst liegen können. Das BMBF werde sich "nach Würdigung des jeweiligen Einzelfalls um die ggf. erforderlichen Ausnahmen
vom Besserstellungsverbot bemühen", heißt es. Der SPRIND sollen übrigen laut ihrem mühsam erkämpften Freiheitsgesetz-Entwurf bald deutlich umfassendere Ausnahmen
möglich werden – wobei beide Agenturen durch ihre unterschiedliche Funktionen im Innovationssystem nur bedingt vergleichbar sind.
Ihr Geld soll die DATI über einen jeweils über mehrere Jahre abgeschlossenen "Geschäftsbesorgungsvertrag" bekommen, in jährlichen Tranchen, allerdings flexibel angepasst nach den Bedürfnissen.
Gleichzeitig soll die DATI "perspektivisch" bis zu zehn Prozent ihrer jährlichen Mittel zur Selbstbewirtschaftung erhalten und damit ins jeweils nächste Haushaltsjahr mitnehmen können (bei der
SPRIND sind es jetzt 20 Prozent und demnächst voraussichtlich 30 Prozent). Außerdem soll, heißt es weiter vorsichtig, geprüft werden, ob das BMBF die Agentur für ihre Aufgabenwahrnehmung
"beleihen" kann (die SPRIND soll auch das künftig dürfen). Das ist Voraussetzung um selbst Zuwendungsbescheide erlassen zu können.
Leiten soll die Agentur eine zweiköpfige Geschäftsführung für den wissenschaftlichen Aufgabenbereich einerseits und den administrativen andererseits. Eine Geschäftsstelle soll das Fördergeschäft
übernehmen. Das geplante Beratungsgeschäft soll entweder eine eigene operative Einheit der DATI bilden oder in Form einer 100-prozentigen Tochtergesellschaft als "Service Center" ausgelagert
werden, wobei über die endgültige Struktur der Agentur die künftige Geschäftsführung ein entscheidendes Wort mitreden soll.
Ein Aufsichtsrat soll die Geschäftsführung "hinsichtlich Rechtmäßigkeit, Ordnungsmäßigkeit sowie Wirtschaftlichkeit ihrer Entscheidungen" überwachen, in die Finanz- und Unternehmensplanung
einbezogen werden und sie zusätzlich beraten. Mitglieder sollen "Vertreterinnen und Vertreter des Bundes, des Deutschen Bundestags sowie weitere Mitglieder aus den Feldern Wissenschaft,
Wirtschaft und Gesellschaft" sein. Außerdem soll es einen "Förderrat" geben mit externen Experten "verschiedener Fachrichtungen", wobei die HAW mit mindestens 25 Prozent der Mitglieder
"angemessen repräsentiert" sein sollen.
Der Förderrat berät die Geschäftsführung laut Konzeptentwurf zur Förderstrategie und soll ihr Vorschläge zu den Förderentscheidungen machen, wofür er nach Bedarf auf externe Gutachter
zurückgreifen kann oder, wo nötig, auf Mitglieder der Beratungsgremien der Bundesregierung – "beispielsweise auf die Missionspatinnen und -paten aus dem Forum #Zukunftsstrategie im Rahmen der
Zukunftsstrategie Forschung und Innovation".
Viel Gestaltungsspielraum
bei der Förderpraxis
Zu viele Gremien? Zu viel Einfluss seitens der Politik? Fest steht: Zwei, fünf und zehn Jahre nach ihrer Gründung soll die Agentur jeweils extern evaluiert werden, wobei es zunächst vor allem um
den Prozess des Aufbaus der Organisation und die Entwicklung ihrer Handlungsfähigkeit in den jeweiligen Aufgabenbereichen gehen soll.
Wer sich nach der Lektüre der 20 Seiten "interner Arbeitsversion" des Konzepts indes fragt, wie genau die Fördermittelvergabe laufen soll von der Ausschreibung über die Antragsverfahren bis hin
zur Auswahl, der findet darüber hinaus wenig Hinweise. Ist das ein Problem? Eher nicht – zeigt es doch den Willen im BMBF, hier wirklich der Community viel Raum zu geben – und der künftigen
Geschäftsführung.
Explizit heißt es im Papier: "Die DATI-Förderung gewährt den Communities große Gestaltungsspielräume und unterstützt durch intensive Projektbegleitung und Coaching, Nutzung von
Experimentierräumen, Flexibilität in der Förderung und Projektförderung, sowie verbindliche Meilensteine mit Abbruchmöglichkeiten, die von den Communities nach fairen und transparenten Kriterien
selbst definiert werden." Und: "Die DATI entwickelt darüber hinaus im Rahmen ihrer Mission proaktiv eigene, bedarfsgerechte Förderformate".
Umgekehrt interessiert natürlich den Haushaltsausschuss besonders, wie die zielgenaue Vergabe der Mittel sichergestellt wird – noch dazu im Sinne der im Konzeptentwurf beschworenen
"Exzellenz". Das Papier beschränkt sich hier auf ein Bekenntnis zu einem "qualitätsgesicherten und den wissenschaftlichen Ansprüchen entsprechenden wettbewerblichen Verfahren eine
Bestenauslese". Die Auswahlkriterien für die Förderung sollen "insbesondere dem Ziel des Transfers wissenschaftlicher Erkenntnisse in marktfähige Innovationen, auch in sozialer und
ökologischer Dimension, Rechnung tragen." Erfahrung und Expertise auf diesem Gebieten seien als zentrale, nicht auf andere Weise kompensierbare Aspekte bei der Mittelvergabe zu etablieren.
Hoffen auf die
Gründungskommission
Und was genau wird aus Sattelbergers "Regionalcoaches", deren Rolle zwischen der Beratung der Communities und einer Beteiligung an den Förderentscheidungen laut Kritik aus dem Haushaltsausschuss
auf Interessenkonflikte zusteuerte? Sie waren seitdem in veränderter Zuständigkeit und mit anderen Namen weiter im Gespräch. Im Entwurf des endgültigen BMBF-Konzepts kommen sie jetzt zwar
explizit nicht vor, aber wohl weniger im Sinne einer Absage, sondern wiederum aus dem Versuch heraus, der Agentur in der Gründungsphase möglichst viel Bewegungsfreiheit zu
erhalten.
Dabei, so die Hoffnung, soll ihr auch die kürzlich eingesetzte Gründungskommission helfen. Zwar wird deren Rolle im Papier vor allem mit der Betreuung der Prozesse zur Standortwahl und zur
Findung der Geschäftsführung definiert. Doch ist über einen Standort-Kriterienkatalog und die geplante Einschaltung einer Personalberatungsagentur bereits derart viel vorstrukturiert, dass sich
ein so hochkarätig besetztes Gremium wohl darauf kaum beschränken wird. Und sie
soll es auch gar nicht, ist zu hören: Viel spannender werden deshalb die inhaltlichen und strategischen Impulse sein, die dort ansetzen, wo das BMBF-Konzeptpapier offenbleibt.
Noch ein Wort zum möglichen Standort. Dazu heißt es im Entwurf wörtlich: "Bevorzugt berücksichtigt werden dabei Gebiete in ostdeutschen Flächenländern" und "strukturschwachen Regionen", weitere
Kriterien seien die ICE-, mindestens aber IC-Bahnanbindung, eine möglichst zentrale Lage in Deutschland und die "räumliche Nähe einer Hochschule, insbesondere einer HAW". Die SPRIND war 2020 in
Leipzig gelandet.
In eigener Sache: Bitte unterstützen Sie meine Arbeit
Nutzerzahlen und Finanzierung: Wie steht es um den "Wiarda-Blog"?
Mehr lesen...
Wie weiter? Bund und Länder wollen diese Woche über Zukunft des HAW-Forschungsprogramms entscheiden
Selten war die Redewendung von der "Qual der Wahl" wohl so passend wie derzeit für die zuständigen BMBF-Beamten beim Durchforsten der fast 3.000 Antragsskizzen für
"DATIpilot". Laut Zeitstrahl auf der Ministeriumswebsite sollten die aussichtsreichsten Bewerber spätestens im Laufe des
Novembers auf regionalen "Pop-up"-Veranstaltungen ihr Projekt vorstellen (pitchen), anschließend soll dann abgestimmt werden. Doch wie reduziert man die Riesenzahl von Skizzen fair (anhand der
bei der Ausschreibung genannten Kriterien) und zugleich zeitsparend auf ein für die Pitches erträgliches Maß? Umso verständlicher, dass das BMBF, siehe oben, bereits um mehr Geld für mehr
Pilot-Bewilligungen wirbt.
Wissenschaftspolitisch interessant wird auch, in welcher Form die für Anfang 2024 anstehende Verlängerung Förderprogramms "Forschung an Fachhochschulen/HAW"
bereits auf die DATI abgestimmt sein wird. Im Bundeshaushalt gehört das Programm seit diesem Jahr offiziell
zur DATI-Titelgruppe. Im Agenturkonzept-Entwurf steht, seine Weiterentwicklung solle "komplementär zur Ausrichtung der DATI erfolgen, um die Rolle der HAW
bei Forschung, Transfer und Innovation auszubauen". Anders formuliert: Das Programm soll die HAW nach BMBF-Vorstellung strukturell konkurrenzfähiger im Wettstreit um die DATI-Förderung
machen.
Ende dieser Woche trifft sich die Gemeinsame Wissenschaftskonferenz (GWK) von Bund und Ländern, dann will man die Einigung besiegeln. Knackpunkt ist nicht nur, dass
die (seit 2019 60 Millionen Euro pro Jahr) weiter allein den HAW zugute kommen sollen. Sondern genau wie bei der letzten Verlängerung Ende 2018 streiten Bund und Länder erneut um die Kostenverteilung.
Damals erklärte sich der Bund noch einmal bereit, 100 Prozent zu übernehmen, dies gilt jetzt als ausgeschlossen. Es könnte auf einen 75-25-Schlüssel herauslaufen.
Droughts are phenomena that occur worldwide, in humid and arid environments as well as in the Global North and the Global South. They are considered as slow onset hazards that affect more people than any other natural process with an estimated economic damage of USD 135 Billion and 12 Million casualties globally between 1900 and 2013 (Masih et al., 2014, p. 3636). Sub-Saharan Africa (SSA) is a major drought hot-spot due to vulnerable livelihoods (e.g. dominance of rain-fed agriculture), limited capacities (e.g. financial, institutional), weak infrastructure (e.g. water, mobility) and political instability (e.g. conflicts, corruption). When droughts occur, as recently triggered by El Niño (2015/2016), vulnerability conditions of the affected societies determine, if drought risk manifests as a disaster. As a critical, recent example, the drought in Somalia resulted in a serious humanitarian disaster primarily as the precarious vulnerability situation was further deteriorated by political and violent conflicts (Maxwell et al., 2016). Overall, SSA faces severe challenges to manage drought risk, primarily due to two reasons: First, despite progress, the living conditions remain difficult with prevailing poverty, limited health services and ongoing political unrest in many regions (UNECA et al., 2015). This is alarming, especially against the projected population growth of about 1.3 Billion people in Africa until 2050 (UN-DESA, 2015, p. 3). Second, achieving good living conditions for all, as envisioned by the Sustainable Development Goals (SDG), is a challenge, as climate projections indicate a likely increase of drought frequency and severity in SSA. Higher rainfall variability paired with a strong increase in average temperatures (Niang et al., 2014) will render today's exceptional droughts as the new normal in the near future. These urgent problems require sustainable solutions to improve short- and long-term adaptation. Transdisciplinary science that conflates the strengths of academic disciplines and stakeholders from politics and society is needed to develop risk reduction strategies. Under the umbrella of the Southern African Science Service Centre for Climate Change and Adaptive Land Management (SASSCAL), this thesis makes a contribution to integrated drought risk management schemes by assessing the drought hazard conditions and the societal vulnerability settings in a case study region: the Cuvelai-Basin. This transnational region across Namibia and Angola regularly experiences droughts as recently during 2012 – 2015 with hundreds of thousands of people being water and food insecure (DDRM, 2013; UN-OCHA, 2012). Environmentally, it covers a gradient from humid in the north to semi-arid conditions in the south with associated vegetation patterns. The population practices subsistence agriculture and livestock herding with tendencies of urbanization and lifestyle changes. The societal pre-conditions in both countries are heterogeneous with Angola having experienced decades of civil war until 2002 while Namibia saw continuous institutional and infrastructural development particularly after independence in 1990. To capture the multi-layered impacts of droughts on people's livelihoods, the thesis follows an interdisciplinary approach in the sense of integrating methodologies from physical and human geography. Key questions to be answered are (i) how droughts impact on local livelihoods, (ii) how the environmental drought hazard manifests, (iii) which societal groups are most vulnerable and (iv) what are risk mitigation strategies. Based on the theory of societal relations to nature, a guideline for a social-ecological drought risk assessment is proposed and exemplarily carried out in this thesis. First, a qualitative research phase was conducted to gain system knowledge, followed by quantitative analyses of environmental parameters on the drought hazard and socio-economic variables for drought vulnerability. Finally, this data was conflated in the Household Drought Risk Index (HDRI) to gain orientation knowledge and quantify risk levels among the households in the basin. This provided transformation knowledge to develop and identify risk mitigation strategies. The initial qualitative survey (n = 26) explored the drought impact on local livelihoods. It revealed structural insights into people's utilization of water resources and the negative impacts of drought on physical and mental health, family/community life and livelihood maintenance. Coping mechanisms were identified on multiple levels from the household level (e.g. selling of agricultural products) via the community (e.g. neighbourly support) to the governmental level (e.g. drought relief). As critical entry point for droughts, the water and food consumption patterns were identified that shape a household either more or less sensitive. The internal capital endowment (human, social, financial, physical and natural) and the infrastructural and institutional endowment of an area determine a household's ability to cope with drought. These qualitative insights culminated in the construction of the HDRI indicator that was populated with data in the subsequent research phases. To capture the drought hazard, three common drought indicators were combined in the Blended Drought Index (BDI). This integrated drought indicator incorporates meteorological and agricultural drought characteristics that impair the population's ability to ensure food and water security. The BDI uses a copula function to combine common standardized drought indicators that describe precipitation, evapotranspiration, soil moisture and vegetation conditions. Remote sensing products were processed to analyse drought frequency, severity and duration. In this regard, the uncertainty among a range of rainfall products was evaluated to identify the product that corresponds best to local rain gauge measurements. The integrated drought hazard map indicates the north of the Etosha pan and the area along the Kunene River to be most threatened by droughts. Temporally, the BDI correlates well with millet/sorghum yield (r = 0.51) and local water consumption (r = -0.45) and outperforms conventional indicators. The vulnerability perspective was captured using primary socio-economic data from a household survey (n = 461). The consumption patterns reveal a statistically significant switch from critical sources (e.g. wells, subsistence products) during the rainy season to more reliable sources (e.g. tap water, markets) during the dry period. Households with a high dependence on critical sources are particularly sensitive to drought. The capital endowment of households is heterogeneous, especially on a rural-urban gradient and between Namibia and Angola. Human and financial capital turned out to be important control variables in addition to the infrastructural and institutional endowment of an area. Overall, the HDRI results show that the Angolan population shows higher levels of risk, particularly caused by less developed infrastructural systems, weaker institutional capabilities and less coping capacities. Urban inhabitants follow less drought-sensitive livelihood strategies, but are still connected to drought conditions in rural areas due to family relations with obligations and benefits. Furthermore, the spatial HDRI estimates point to areas in Angola and Namibia that are both drought-threatened and vulnerable. The thesis results indicate the following recommendations for policy and science: First, the continuous monitoring of drought patterns in the basin should consider drought indicators that go beyond precipitation metrics and incorporate people's vulnerability to develop integrated Drought Information Systems. Second, reducing the sensitivities of the population requires enhanced local water buffers via better water use efficiencies. This is true for both blue and green water flows. Water-saving irrigation schemes in combination with decentral rain- and floodwater harvesting are promising opportunities. Furthermore, centralized backup infrastructures of water supply and market systems need to be expanded. Third, local community solidarity is an important institutional backbone for the population to cope with drought and adapt to future changes. In particular rural development efforts should go beyond technological interventions and support community-building, collective-action and capacity development in water management and agricultural production to decouple livelihoods from local rainfall. ; Dürren sind Phänomene, die weltweit sowohl in humiden als auch ariden Räumen sowie im Globalen Norden und im Globalen Süden auftreten. Sie gelten als langsam einsetzende Gefahren, die mehr Menschen betreffen als jeder andere natürliche Prozess mit einem geschätzten wirtschaftlichen Schaden von 135 Mrd. US-Dollar und 12 Mio. Toten weltweit zwischen 1900 und 2013 (Masih et al., 2014, p. 3636). Sub-Sahara Afrika gilt als Krisenherd aufgrund vulnerabler Lebensgrundlagen (z.B. Dominanz des Regenfeldbaus), begrenzter Kapazitäten (z.B. finanzielle, institutionelle), schwacher Infrastruktur (z.B. Trinkwasser, Mobilität) und politischer Instabilität (z.B. Konflikte, Korruption). Treten Dürren auf, wie kürzlich verstärkt durch El Niño (2015/2016), bestimmt die Vulnerabilität der Gesellschaft, ob sich das Dürrerisiko als Katastrophe manifestiert. Ein kritisches Beispiel ist die Dürre in Somalia, die v.a. zu einer humanitären Katastrophe wurde, da die prekären Vulnerabilitäts-bedingungen durch gewaltsame, politische Konflikte weiter verschlechtert wurden (Maxwell et al., 2016). Insgesamt steht Afrika aus zwei Gründen vor großen Heraus-forderungen bei der Bewältigung des Dürrerisikos: Erstens, sind die Lebensbedingungen u.a. aufgrund anhaltender Armut, begrenzter Gesundheitsversorgung und politischer Unruhen weiterhin schwierig (UNECA et al., 2015). Dies ist alarmierend, v.a. vor dem Hintergrund eines prognostizierten Bevölkerungswachstums von 1,3 Mrd. bis 2050 (UN-DESA, 2015, p. 3). Zweitens, ist die Schaffung guter Lebensbedingungen nach den Zielen für nachhaltige Entwicklung (SDG) eine Herausforderung, da mit dem Klimawandel eine Zunahme von Dürrehäufigkeit und -stärke zu erwarten ist. Höhere Niederschlags-variabilität gepaart mit einem starken Anstieg der Durchschnittstemperatur (Niang et al., 2014) werden die heutigen extremen Dürren in Zukunft zur neuen Normalität machen. Diese Probleme erfordern nachhaltige Lösungen, um kurz- und langfristige Anpassungen zu ermöglichen. Transdisziplinäre Forschung ist gefordert, welche die Stärken wissenschaftlicher Disziplinen und Akteure aus Politik und Gesellschaft bündelt, um geeignete Strategien zur Risikominderung zu erarbeiten. Unter dem Dach des Southern African Science Service Centre for Climate Change and Adaptive Land Management (SASSCAL) leistet diese Dissertation einen Beitrag zu integrierten Managementansätzen von Dürrerisiken, indem sie die naturräumliche Gefährdung kombiniert mit der gesellschaftlichen Vulnerabilität anhand einer Fallstudie untersucht: dem Cuvelai-Becken. Diese transnationale Region in Namibia und Angola ist regelmäßig Dürren ausgesetzt, wie zuletzt in den Jahren 2012 – 2015 mit Wasser- und Ernährungsunsicherheit für Hunderttausende von Menschen (DDRM, 2013; UN-OCHA, 2012). Naturräumlich erstreckt sich die Region von einem humiden Norden in einen semi-ariden Süden mit entsprechenden Vegetationsverhältnissen. Die Bevölkerung betreibt Subsistenzland-wirtschaft und Viehzucht, wobei Urbanisierungstendenzen und Lebensstiländerungen an Dynamik gewinnen. Die gesellschaftlichen Voraussetzungen sind heterogen: Während Angola bis 2002 Jahrzehnte des Bürgerkriegs erlebte, erfuhr Namibia v.a. nach der Unabhängigkeit 1990 eine kontinuierliche institutionelle und infrastrukturelle Entwicklung. Um die vielschichtigen Auswirkungen von Dürren auf die Lebensgrundlagen zu erfassen, verfolgt diese Dissertation einen interdisziplinären Ansatz im Sinne der Integration von Methoden aus der Physischen- und Humangeographie. Kernfragen darin sind (i) wie sich Dürren auf die Lebensgrundlagen auswirken, (ii) wie sich die naturräumliche Dürregefährdung manifestiert, (iii) welche gesellschaftlichen Gruppen vulnerabel sind und (iv) welche Strategien zur Risikominderung geeignet sind. Dabei entwickelt die Dissertation auf Basis der Theorie gesellschaftlicher Naturverhältnisse einen Leitfaden für eine sozial-ökologische Risikoabschätzung und wendet diesen in der vorliegenden Fallstudie an. Zunächst wurde eine qualitative Forschungsphase durchgeführt, um Systemwissen zu gewinnen, gefolgt von einer quantitativen Analyse von Umweltparametern zur Abschätzung der Dürregefahr sowie sozioökonomischer Variablen für die Abschätzung der Vulnerabilität. Schließlich wurden diese Daten im Household Drought Risk Index (HDRI) zusammengeführt, um Orientierungswissen zu generieren und das Dürrerisiko der Haushalte zu bestimmen. Daraus abgeleitetes Transformationswissen ermöglichte dann die Identifizierung geeigneter Risikominderungsstrategien. Die qualitative Erhebung (n = 26) explorierte die Wirkung von Dürren auf die lokalen Lebensbedingungen. Sie eröffnete Einblicke in die Nutzung von Wasserressourcen und die negativen Auswirkungen von Dürren auf die körperliche/geistige Gesundheit, das Familien-/Gemeinschaftslebens sowie den Lebensunterhalts. Bewältigungsmechanismen konnten auf mehreren Ebenen identifiziert werden, vom Haushalt (z.B. Verkauf landwirtschaftlicher Produkte) über die Gemeinde (z.B. Nachbarschaftshilfe) bis hin zur staatlichen Ebene (z.B. Dürrehilfe). Als kritische Wirkpunkte für Dürren wurden Nutzungsmuster von Wasser- und Nahrungsmitteln identifiziert, die einen Haushalt mehr oder weniger anfällig machen. Die interne Kapitalausstattung (Humanes, Soziales, Finanzielles, Physisches und Natürliches) und die infrastrukturelle und institutionelle Ausstattung eines Gebiets bestimmen weiterhin die Fähigkeit eines Haushalts, mit der Dürregefahr umzugehen. Diese Erkenntnisse ermöglichten die Konstruktion des HDRI Indikators, der in den Folgephasen mit entsprechenden Daten bestückt wurde. Zur Erfassung der Dürregefahr wurden drei Dürreindikatoren im Blended Drought Index (BDI) zusammengefasst. Dieser integrierte Dürreindikator berücksichtigt meteorologische und landwirtschaftliche Merkmale, die die Ernährungs- und Wassersicherheit der Bevölkerung beeinträchtigen. Der BDI verwendet eine Copula-Funktion, um gängige Dürreindikatoren zu kombinieren, die auf Niederschlag, Evapotranspiration, Bodenfeuchte und Vegetation zurückgreifen. Fernerkundungsprodukte wurden verarbeitet, um Häufigkeit, Stärke und Dauer der Dürren zu analysieren. Dabei wurden verschiedene Niederschlagsprodukte einer Unsicherheitsanalyse unterzogen, um jenes Produkt zu identifizieren, das am besten mit lokal gemessenen Stationsdaten korrespondiert. Die resultierende, integrierte Dürregefahrenkarte zeigt den Norden der Etosha-Pfanne und das Gebiet entlang des Kunene-Flusses als am stärksten von Dürren bedroht an. Zeitlich korreliert der BDI gut mit den Daten des Hirseertrages (r = 0,51) und dem lokalen Wasserverbrauch (r = -0,45) und übertrifft dabei konventionelle Indikatoren. Die Vulnerabilität wurde anhand von sozioökonomischen Daten aus einer Haushalts-befragung (n = 461) erfasst. Die Nutzungsmuster zeigen einen statistisch signifikanten Schwenk von kritischen Wasser- und Nahrungsquellen (z.B. Brunnen, Subsistenz-produkte) hin zu verlässlichen Quellen (z.B. Leitungswasser, Märkte) während der Trockenzeit. Haushalte mit einer starken Abhängigkeit von kritischen Quellen sind besonders sensitiv gegenüber Dürren. Die Kapitalausstattung der Haushalte variiert v.a. zwischen Land und Stadt sowie zwischen Namibia und Angola. Dabei treten Human- und Finanzkapital gemeinsam mit der infrastrukturellen und institutionellen Raumausstattung als wichtige Kontrollvariablen hervor. Die HDRI Ergebnisse zeigen, dass die angolanische Bevölkerung ein höheres Risiko aufweist, was v.a. durch weniger entwickelte Infrastruktursysteme, schwächere institutionelle- und geringere Bewältigungskapazitäten verursacht wird. Insgesamt gehen Stadtbewohner weniger dürresensitiven Nutzungsmustern nach, sind aber aufgrund familiärer Beziehungen weiterhin mit den ländlichen Gebieten verbunden. Die integrierte, räumliche Risikoabschätzung zeigt Gebiete in Angola und Namibia die sowohl dürregefährdet als auch vulnerabel sind. Die Ergebnisse erlauben zentrale Empfehlungen für Politik und Wissenschaft: Erstens sollte die Dürrebeobachtung im Cuvelai-Becken ein breiteres Spektrum von Indikatoren berücksichtigen und zusätzlich die Verwundbarkeit der Bevölkerung einbeziehen. Dies ermöglicht die Entwicklung von integrierten Dürreinformationssystemen. Zweitens, zur Verringerung der Sensitivität der Bevölkerung müssen lokale Wasserspeicher durch eine verbesserte Wassernutzungseffizienz erhöht werden. Dies gilt sowohl für blaues als auch grünes Wasser. Wassersparende Bewässerungssysteme in Kombination mit dezentralen Regen- und Flutwasserspeichern sind vielversprechende Möglichkeiten. Darüber hinaus müssen zentrale Infrastrukturen der Wasserversorgung und der Marktsysteme ausgebaut werden. Drittens, ist der Zusammenhalt der lokalen Gemeinschaften ein wichtiges institutionelles Rückgrat zur Bewältigung von Dürren und zur Anpassung an künftige Veränderungen. Anstrengungen zur Entwicklung des ländlichen Raums sind erforderlich, die über technische Interventionen hinausgehen und Gemeinschaften durch kollektive Maßnahmen und Ausbildung sowohl in der Wasserwirtschaft als auch der Landwirtschaft unterstützen und so die Lebensgrundlagen von den Niederschlägen entkoppeln.
BASE
In: Dissertation/Doktorarbeit
Inhaltsangabe: Einleitung: Anläufe zu einer Währungsunion (WU) auf der Ebene der Europäischen Gemeinschaften (EG) sind nicht neu. Wiederholt wurden solche unternommen, konnten aber nie wie vorgesehen umgesetzt werden. Das weitreichendste Konzept zu einer Europäischen Währungsunion (EWU) stellt der Maastrichter Vertrag dar. Er ist das Ergebnis der einjährigen Regierungskonferenzen zur Wirtschafts- und Währungsunion (WWU) und zur Politischen Union (PU), die im Dezember 1991 in Maastricht ihren Abschluß fanden. Am 7. Februar 1992 wurde der Vertrag von Maastricht von den Mitgliedstaaten der EG unterzeichnet. Gegenstand der Untersuchung dieser Arbeit ist diese im Maastrichter Vertrag festgelegte EWU bzw. der dort festgelegte organisatorische und politische Rahmen der EWU. Die korrekte Bezeichnung des weithin als 'Maastrichter Vertrag' bekannten Vertragswerkes ist 'Vertrag über die Europäische Union' (EUV). Der EUV vom 7. Februar 1992 stellt die bisher umfassendste Änderung und Ergänzung der Römischen Verträge dar. Wie bereits die Einheitliche Europäische Akte (EEA) von 1986 ist der EUV als Mantelvertrag angelegt, der die einzelnen Elemente zusammenführt und sie auf eine neue Phase des Integrationsprozesses, die Europäische Union (EU), ausrichtet. In diesem Mantelvertrag sind die einzelnen Bestimmungen zur Änderung und Ergänzung der drei Gründungsverträge der EG, des EWG-Vertrages, des EGKS-Vertrages und des EAG-Vertrages, einschließlich der institutionellen Änderungen enthalten. Der geänderte EWG-Vertrag wird künftig EG-Vertrag (EGV) genannt. Strukturell stellt der EUV die EG auf drei Säulen. Neben dem EGV, der die 'Vergemeinschaftung' der Geld- und Währungspolitik vorsieht und zudem um einige weitere Materien erweitert wurde, sind dies die beiden auf intergouvernementaler Zusammenarbeit basierenden Säulen der Gemeinsamen Außen- und Sicherheitspolitik (GASP) sowie der Bereiche Justiz und Inneres. Formal ist die Bezeichnung 'EU' nur dann korrekt, wenn auf die drei genannten Säulen insgesamt Bezug genommen wird. Grundlage und unvermindert der mit Abstand wichtigste Teil der EU, die ihrerseits über keine Rechtspersönlichkeit verfügt, ist hingegen nach wie vor die EG. In Orientierung an dieser formalen Bezeichnung ist der Begriff der 'EU' entsprechend nur in den seltensten Fällen zutreffend. So wird auch in dieser Arbeit in erster Linie von der 'EG' die Rede sein. Um jedoch der 'politischen Vision', die sich aus den wirtschaftspolitischen sowie souveränitäts- und demokratietheoretischen Implikationen der EWU ergibt, gerecht zu werden, wird die formal korrekte Bezeichnung aufgegeben und der Begriff der 'EU' anstelle des Begriffes der 'EG' an den Stellen verwandt, an denen es sich um zukünftige, auf eine PU verweisende Entwicklungen bzw. Entwürfe handelt. Gemäß Art. N EUV soll 1996 eine Revisionskonferenz beginnen, bei der die Vertreter der Regierungen der Mitgliedstaaten diejenigen Vertragsbestimmungen prüfen werden, für die explizit eine Revision vorgesehen ist. Laut Vertrag gehören die Bestimmungen zur WWU nicht zu diesem Bereich. Allerdings ist davon auszugehen, daß es über die für eine Revision vorgesehenen Vertragsbestimmungen hinaus, gerade auch, was die WWU betrifft, zu Änderungen kommen kann. Wie erwähnt, legt der Vertrag das Ziel fest, den Prozeß der europäischen Integration auf eine neue Stufe zu heben und die EG zu einer 'immer engeren Union der Völker Europas' weiterzuentwickeln. Damit ist zwar eine politische Finalität formuliert, diese wird aber nicht näher definiert. Der Vertrag beschränkt sich vielmehr darauf, Ziele dieser Union aufzulisten, ohne eine konkrete Form des Integrationsprozesses festzulegen. Es bleibt offen, ob der Endzustand dieses Integrationsprozesses ein europäischer föderaler Bundesstaat, ein europäischer Zentralstaat, ein europäischer Staatenbund oder eine Form außerhalb dieser Kategorien sein soll. Insgesamt stellt der Vertrag integrationspolitisch keinen qualitativen Sprung dar, sondern beschränkt sich vielmehr auf die Weiterentwicklung bzw. Ergänzung bereits bestehender Grundstrukturen. 'Die Kompetenzen der Gemeinschaft bleiben - jedenfalls im Grundsatz - funktionsgerichtet und funktionsbegrenzt, d.h. bezogen auf Errichtung und Funktionieren des Binnenmarktes und der Europäischen Union.' Die derzeitige Form der Union, wie sie sich im Maastrichter Vertrag darstellt, ist gekennzeichnet durch eine gemischt institutionelle Struktur. Bereiche einheitlicher supranationaler, d.h. gemeinschaftlicher, Politik, wie sie die Agrar- und die Handelspolitik darstellen bzw. für den Geld- und Währungsbereich für die Zukunft vorgesehen sind, stehen neben intergouvernemental beschlossenen Maßnahmen. In anderen Bereichen wiederum gibt es lediglich einen gemeinsamen Rahmen für den Informationsaustausch. Den Kompetenzzuweisungen, die im Rahmen der Regierungskonferenz zur PU zustande gekommen sind, 'liegt erkennbar keine der Kompetenzübertragung eigene Konzeption zugrunde.' Grundsätzlich sind in diesen, die PU berührenden Politikfeldern, die Mitgliedstaaten weiterhin Träger der Zuständigkeit und Verantwortung; auf Gemeinschaftsebene soll lediglich eine gewisse Koordinierung stattfinden. Der Grad der Kompetenzzuweisung in den einzelnen Gebieten ist sehr unterschiedlich. Durch seine Vergemeinschaftung erfährt das Währungswesen eine Sonderbehandlung. Hierdurch hebt es sich von den anderen Bereichen des Vertrages ab, erhält aber keine Einbindung in einen übergeordneten Rahmen. Die Inkonsistenz des Vertrages basiert auf dieser Konstruktion. JOCHIMSEN ist der Ansicht, daß die durch die Trennung in zwei Regierungskonferenzen verursachte Zweigleisigkeit von WWU und PU unglücklich und wenig förderlich für die Realisierung des Projektes der PU war. Die Zuständigkeiten für die WU lagen während der Regierungskonferenz auf deutscher Seite beim Wirtschafts- und Finanzministerium, die Zuständigkeiten für die PU beim Außenministerium. 'Das formale gemeinsame Dach der Initiatoren, nämlich der Staats- und Regierungschefs (...), hat nicht vermocht, die wechselseitige Bedingtheit des Vorhabens zur notwendigen Einheitlichkeit zusammenzufügen. Diese methodisch-institutionelle Weichenstellung hatte allerdings die weitreichendsten Konsequenzen für die Schaffung der erforderlichen politischen Voraussetzungen einer effektiven Stabilitätsausrichtung der EWWU: Der Parallelzug bewirkte, daß einerseits Notenbankfragen materiell und technisch im Brennpunkt standen sowie die Wirtschaftsunion eher negativ denn positiv definiert wurde, wobei die Strukturen der politischen Union außer Blick gerieten, und andererseits die Außen- und Sicherheitspolitik dominierte.' Und ARNOLD urteilt sehr kritisch: 'Der Vertrag von Maastricht ist unter dem Kriterium des Ziels der westeuropäischen Integration hinsichtlich der EG unzureichend, politisch ein Fragment und militärisch ein Nullum. Er hat den Beweis für die Unmöglichkeit geliefert, die 'Finalität' westeuropäischer Integrationspolitik, als einen gemeinsamen Bundesstaat, zu erreichen. Der Grund dafür ist einfach: Es fehlt der gemeinsame politische Wille.' Die dargestellte Grundstruktur der EU nach Maastricht, die durch das Fehlen einer PU in Ergänzung zu der geplanten WU gekennzeichnet ist, bildet den Ausgangspunkt der Untersuchung. Die fehlende Einbindung der WU über eine PU hat insbesondere von deutscher Seite zu erheblicher Kritik geführt. So verwiesen anläßlich der Anhörung des Finanzausschusses des Deutschen Bundestages in Bonn am 18. September 1991 diverse Stimmen auf die politische Dimension der EWU und forderten die Parallelität des Zusammenwachsens der EG zu einer WWU und der institutionellen Weiterentwicklung der EG zur PU. Nach Ansicht des BDI gehört, um den Erfolg einer WU zu sichern, zu den unabdingbaren Kriterien für den Übergang in die dritte Stufe der WU neben einer weitgehenden Konvergenz in der Wirtschafts- und insbesondere in der Finanzpolitik auch eine erhebliche Annäherung an das Endziel der PU. Er befürchtet, daß ohne eine Festigung und föderative Weiterentwicklung der politischen Strukturen das Projekt 'WWU' auf halbem Wege steckenbleibe. Auch die Deutsche Bundesbank kritisiert die fehlende Einigung über die künftige PU. Diese sei im Zusammenhang mit der Entwicklung einer 'Kultur der Stabilität', wie sie in der Bundesrepublik vorhanden sei, von zentraler Bedeutung. Der dauerhafte Erfolg der WU hänge von der Existenz eben dieser Kultur ab. Bundesbankpräsident TIETMEYER sieht die Notwendigkeit, 1996 im Rahmen der Revisionskonferenz des Maastrichter Vertrages die Parallelität von WU und PU noch herzustellen. Nur dann habe die WU Aussicht auf Erfolg. Hinsichtlich der Zusammengehörigkeit von WU und PU äußert sich JOCHIMSEN, Landeszentralbankpräsident in Nordrhein-Westfalen, folgendermaßen: 'Die Maastrichter Regelungen zur Währungsunion (schaffen) für sich genommen keineswegs eine funktionsfähige monetäre Ordnung (...), die (...) ohne den Kontext der politischen Integration Europas auskommen könnte. Es erscheint im Gegenteil verhängnisvoll anzunehmen, das europäische Notenbanksystem funktioniere womöglich um so besser, je weniger auf dem Felde der Wirtschafts- und Finanzunion sowie der Politischen Union geregelt werde, solange nur die Unabhängigkeit des ESZB (Europäischen Systems der Zentralbanken, Anm. d. Verf.) gewahrt sei. In Wirklichkeit handelt es sich hier um komplementäre Politikbereiche.' OHR vertritt die Ansicht, daß der mit einer WU verbundene Wegfall der Flexibilität der Währungsbeziehungen zwischen den Partnerländern ohne die konstitutionellen Bedingungen der PU u.U. desintegrierende Effekte haben könnte, so daß der Bestand einer WU ohne eine PU gefährdet wäre. Nur bei einem Höchstmaß an wirtschaftspolitischer Konvergenz, das auch gemeinschaftliches Handeln in den Bereichen Fiskalpolitik, Sozialpolitik und Lohnpolitik sowie anhaltend gleiche wirtschaftspolitische Zielsetzungen einschließe, sei eine Einheitswährung für die Integration förderlich. 'Dies kann letztlich nur eine politische Union garantieren. Solange es aber noch keine politische Union gibt, birgt die Währungsunion eine Vielzahl ökonomischer Risiken, die auch die schon bestehende Integration wieder beeinträchtigen können. (...) Solange die Bereitschaft zu einer politischen Union noch fehlt, sollten die Marktintegration über den Binnenmarkt und die monetäre Integration über eine Währungsunion nicht miteinander vermischt werden'.Inhaltsverzeichnis:Inhaltsverzeichnis: Abkürzungsverzeichnis Teil A:Einleitung1 I.Zielsetzung der Dissertation1 1.Gegenstand der Untersuchung1 2.Fragestellung und Erkenntnisinteresse6 3.Aufbau und Methodik der Arbeit8 4.Stand der Forschung11 II.Die Konstruktion der EWU im Maastrichter Vertrag16 1.Die Hauptergebnisse des Maastrichter Vertrages hinsichtlich der EWU16 2.Kritische Beurteilung der die EWU betreffenden Regelungen25 2.1Die Konstruktion des ESZB25 2.2Der Übergang in die 3. Stufe27 2.3Die Konvergenzkriterien im einzelnen29 Teil B: Die Interdependenz von EWU und PU36 Kapitel I: Souveränitäts- und demokratietheoretische Aspekte der EWU36 I.Das Souveränitätskonzept37 1.Theoretische Grundlagen und begriffliche Klärung38 1.1Die Entstehung des Begriffes38 1.2Souveränität und Staatsbegriff41 1.3Innere und äußere Souveränität42 2.Auflösungserscheinungen der Souveränität im 20. Jahrhundert45 2.1Auswirkungen wachsender internationaler Verflechtung auf die Souveränität46 2.2Das Verhältnis der EG zur Souveränität der Mitgliedstaaten vor Maastricht52 3.Souveränität - Attribut des modernen Staates? - Versuch der Definition eines veränderten Souveränitätsbegriffes vor dem Hintergrund der europäischen Integration54 4.Exkurs: Souveränität der Mitgliedstaaten nach Maastricht unter verfassungsrechtlichen Gesichtspunkten62 4.1Das Souveränitätsverständnis einiger Mitgliedstaaten unter besonderer Berücksichtigung der verfassungsrechtlichen Situation in der Bundesrepublik Deutschland62 4.2Das Urteil des Bundesverfassungsgerichtes67 II.Souveränitäts- und demokratietheoretische Bewertung der geld- und währungspolitischen Regelungen im Maastrichter Vertrag: Das Verhältnis der EG zur Souveränität der Mitgliedstaaten nach Maastricht75 1.Staatlichkeit und Währung75 1.1Bedeutung und Rolle der Währung sowie der geld- und währungspolitischen Kompetenzen für einen Staat76 1.2Souveränitätstheoretische Bewertung der Vergemeinschaftung der Geld- und Währungspolitik im Maastrichter Vertrag81 2.Staatlichkeit und Notenbank84 2.1Die Stellung von Zentralbanken im Staat85 2.2Die Einbettung einer unabhängigen Zentralbank in den staatlichen Rahmen am Beispiel der Deutschen Bundesbank92 2.2.1Demokratische Legitimation der Deutschen Bundesbank als eigener geld- und währungspolitischer Instanz und sachliche Begründung ihrer Unabhängigkeit92 2.2.2Demokratietheoretische Rechtfertigung der Unabhängigkeit einer Zentralbank am Beispiel der Deutschen Bundesbank97 2.3Bedarf eine Europäische Zentralbank einer ihr übergeordneten 'staatsleitenden Kraft'?107 2.3.1Die Frage der demokratischen Rechtfertigung der EZB als unabhängiger Zentralbank108 2.3.2Das Problem der faktischen Realisierbarkeit der Unabhängigkeit der EZB112 2.3.3Die Interdependenz von EWU und PU über die EZB114 3.Zusammenfassung118 Kapitel II: Ökonomische Funktionsbedingungen der EWU121 I.Theoretische Grundlegung123 1.Chancen und Risiken einer WU123 2.Theorie optimaler Währungsräume126 2.1Darstellung der Theorie126 2.2Die EG als optimaler Währungsraum?133 2.3Wirtschaftspolitische Implikationen in einem nicht-optimalen Währungsraum138 2.4Die EG im Lichte der Theorie optimaler Währungsräume: Zusammenfassung und Bewertung141 3.Alternativer Ansatz zur Theorie optimaler Währungsräume: Konvergenz als zentrale Funktionsbedingung der EWU142 3.1Wirtschaftliche Konvergenz in ihren verschiedenen Ausprägungen: Nominale und reale Konvergenz143 3.2Reale und nominale Konvergenz als Funktionsbedingungen der EWU147 II.Analyse und Implikationen der Funktionsbedingungen der EWU154 1.Geldwertstabilität als Funktionsbedingung der EWU155 1.1Funktionale Zusammenhänge zwischen WU und Finanz- und Budgetpolitik155 1.2Verschiedene Varianten der Disziplinierung der Budgetpolitik unter Berücksichtigung der funktionalen Zusammenhänge162 1.2.1Marktmäßige Disziplinierung163 1.2.2Finanzpolitische Selbstbindung durch ein koordinierendes Regelsystem169 1.2.3'Vergemeinschaftung' finanzpolitischer Kompetenzen173 1.3Institutionalisierung eines budgetpolitischen Regelsystems176 1.4Zusammenfassung: Implikationen der Geldwertstabilität als Funktionsbedingung der EWU186 1.5Exkurs: Die wechselkurspolitische Kompetenz in der EWU188 2.Reale Konvergenz als Funktionsbedingung der EWU191 2.1Funktionale Zusammenhänge zwischen WU und Wirtschaftspolitik über die Funktionsbedingung realer Konvergenz192 2.2Konvergenz der Wirtschaftspolitik zur Verbesserung realer Konvergenz194 2.3Finanzausgleich200 2.3.1Strukturpolitisch motivierter Finanzausgleich mit dem Ziel der Verbesserung realer Konvergenz202 2.3.2Finanzausgleich zu Stabilisierungszwecken: Kompensierende Maßnahmen bei wirtschaftlichen Störungen210 2.3.2.1Diskretionäre gegenseitige Versicherung gegenüber länderspezifischen makroökonomischen Schocks211 2.3.2.2Interregionale Haushaltsströme mit automatischen Stabilisatoren213 2.3.3Auswirkungen eines Finanzausgleichs auf den Gemeinschaftshaushalt und die Einnahmenpolitik der Gemeinschaft216 2.4Zusammenfassung: Implikationen realer Konvergenz als Funktionsbedingung der EWU223 3.Exkurs: Geldwertstabilität und reale Konvergenz: Besondere Rolle der Lohnpolitik in der EWU225 3.1Funktionaler Zusammenhang zwischen WU und Lohnpolitik225 3.2'Gemeinsame' Lohnpolitik bei Lohndifferenzierung228 III.Folgen der Implikationen der ökonomischen Funktionsbedingungen der EWU230 1.Staatliche Strukturen zur Gewährleistung der ökonomischen Funktionsbedingungen der EWU?231 2.Souveränitätstheoretische Bewertung der ökonomischen Funktionsbedingungen der EWU234 Teil C: Implikationen der Interdependenz von EWU und PU im Hinblick auf die Gesamtstruktur der Gemeinschaft240 I.Die PU - funktionales System von Zuständigkeiten oder Staatsverband?240 1.Die PU als funktionales System von Zuständigkeiten?240 2.Umstrukturierung der EU in einen Staatsverband als Ausdruck ökonomischer, souveränitäts- und demokratietheoretischer Implikationen der EWU243 II.Strukturmodell eines Europäischen Bundesstaates245 1.Bestehende Verfassungsentwürfe245 1.1'Entwurf eines Vertrages zur Gründung der Europäischen Union' des EP vom 14. Februar 1984246 1.2'Entwurf einer Verfassung der Europäischen Union' des EP vom Februar 1994251 1.3Reformprogramm für die EU der Europäischen Strukturkommission von 1994254 2.Institutionelle und konstitutionelle Strukturen eines Europäischen Bundesstaates256 2.1Institutionelle Anforderungen an einen Europäischen Bundesstaat257 2.1.1Das Europäische Parlament259 2.1.2Der Ministerrat als Staatenkammer262 2.1.3Weiterentwicklung der Kommission zur Europäischen Regierung265 2.2Die konstitutionelle Ebene eines Europäischen Bundesstaates265 2.2.1Grundstrukturen einer Europäischen Verfassung266 2.2.2Verfassungsmäßig zu verankernde staatliche Elemente268 2.2.3Kernkompetenzen eines Europäischen Bundesstaates271 3.Die Europäische Union: Staat, aber nicht Nation273 Teil D: Integrationstheoretische Voraussetzungen der Verwirklichung einer EPU277 I.Die Bedeutung von Integrationstheorien für den zu untersuchenden Zusammenhang277 II.Die relevanten Theorierichtungen in der Übersicht279 1.Funktionalismus280 1.1Funktionalismus im Sinne Mitranys280 1.2Neofunktionalismus281 1.3Rehabilitierung des Neofunktionalismus284 2.Theorie des Föderalismus289 3.Kommunikationstheorie290 4.Bewertung der Integrationstheorien292 III.Darstellung der Eckpunkte der Integrationspolitik unter Bezugnahme auf den integrationstheoretischen Hintergrund294 1.Die Entwicklung der europäischen Integration bis zur Gründung der EWG294 2.Stagnation und Wiederbelebung der europäischen Integration302 3.Zwischenbilanz310 IV.Analyse des funktionalen Ansatzes hinsichtlich seiner Eignung für eine umfassende politische Integration312 1.Integrationstheoretische Analyse des Integrationsschrittes zur EWU312 1.1Die dem Maastrichter Vertrag vorausgehenden Anläufe hin zu einer WU312 1.2Die der EWU zugrunde liegende politische Finalität314 2.Der Integrationsschritt zur PU: Rehabilitierung und Ergänzung der Theorie des Föderalismus319 2.1Die Theorie des Föderalismus als adäquate Integrationsstrategie für den Schritt zu einer PU319 2.2Handlungs- und interessentheoretische Voraussetzungen322 2.3Nationalstaatliche Interessen hinsichtlich einer PU324 3.Zusammenfassung und Bilanz331 Teil E: Abschließender Exkurs: Historische Währungsunionen des 19. Jahrhunderts im Überblick335 I.Zwei Typen von monetären Unionen im 19. Jahrhundert337 1.Monetäre Unionen zwischen souveränen Staaten338 2.Monetäre Unionen als Ergebnis politischer Integration342 II.Die politische, wirtschaftliche und monetäre Entwicklung in Deutschland im 19. Jahrhundert: Vom Zollverein zum Deutschen Reich und zur Reichsbank344 1.Die politische und wirtschaftliche Entwicklung345 2.Die monetäre Integration349 III.Währungsunionen im 19. Jahrhundert: Bilanz und Lehren352 1.Wirtschaftliche Konvergenz und Interdependenz zwischen WU und PU352 2.Determinanten politischer Integration im deutschen Einigungsprozeß im 19. Jahrhundert355 Teil F: Zusammenfassung und Ausblick: Die EWU als Langfristperspektive357 I.Zusammenfassung der Hauptergebnisse357 II.Die Realisierungschancen der Voraussetzungen der Funktions- und Bestandsfähigkeit der EWU362 III.Ausblick367 Bibliographie372 Anhang: Statistische Übersichten zur Konvergenz419 Tabelle 1: Nominale Konvergenzlage der Mitgliedstaaten der EG419 Tabellen 2-5: Die nominalen Konvergenzkriterien im einzelnen420 Tabellen 6a-10: Kriterien realer Konvergenz der Mitglied-staaten der EG424Textprobe:Textprobe: Kapitel 1.2.3, 'Vergemeinschaftung' finanzpolitischer Kompetenzen: Nach Meinung des Frankfurter Instituts für wirtschaftspolitische Forschung sind die Regelungen des Maastrichter Vertrages unter der Voraussetzung ihrer Einhaltung ausreichend: 'Eine weitergehende Bindung der Finanzpolitik ist nicht notwendig. Die Mitgliedsländer sollten autonom über die Höhe und Struktur der Ausgaben und über ihr Abgabensystem bestimmen. Eine gegenseitige Information über die geplanten Maßnahmen ist sicher nützlich, eine strikte Vormundschaft für die nationale Finanzpolitik hingegen nicht.' Grundsätzlich ist eine Gewährleistung der Disziplinierung der Finanzpolitik und die Schaffung von Konvergenz bzgl. der hier in Frage stehenden Größen als Voraussetzung einer funktionsfähigen WU auf der Grundlage eines strengen Regelsystems von Konvergenzkriterien, deren Einhaltung zwangsläufig zu einer stabilitätsorientierten und konvergenten Finanz- bzw. Budgetpolitik führen würde, denkbar. Wie hoch jedoch die Gefahr ist, daß solche Konvergenzkriterien nicht wörtlich eingehalten bzw. ihrer intendierten Wirkung nicht gerecht werden, ist in der kritischen Würdigung der Vereinbarungen des Maastrichter Vertrages in Teil A, insbesondere in der Beurteilung der für eine auf Dauer tragbare Finanzlage entscheidenen Kriterien der Defizitquote und der Schuldenquote gezeigt worden. Die Gefahr der Ausübung von Druck auf die EZB, ebenso wie gewisse, die Stabilität gefährdende externe Effekte, die als Argumente für ein Regelsystem angeführt wurden, sind auch im Rahmen eines Regelsystems nicht völlig auszuschließen. 'Sie (die Konvergenzkriterien, Anm. d. Verf.) können in der praktisch-politischen Umsetzung erheblich abgeschwächt werden und gegebenenfalls dazu beitragen, den fiskalpolitischen Stabilitätsstandard in der WWU zu verwässern.' Sofern die Einhaltung der Regeln in Frage gestellt werden muß, gewänne die Gefährdung der Geldwertstabilität durch Entwicklungen, auf die die EZB keinen Einfluß nehmen kann, bzw. durch eine direkte Gefährdung der Stabilitätspolitik der EZB durch Ausübung von Druck auf diese, an Relevanz. Im Extremfall wäre die Geldwertstabilität den gleichen Gefahren ausgesetzt, wie bei Nichtexistenz eines Regelsystems. Die dargestellten Aspekte sprechen im Hinblick auf die für den dauerhaften Bestand einer WU notwendige finanzpolitische Disziplinierung für eine gemeinschaftliche Finanzpolitik, die durch einen finanzpolitischen Akteur betrieben wird. Die Gegenkräfte gegen eine finanzpolitische Selbstbindung in Form eines Regelsystems sind nicht gering und werden sich bei Fortbestand nationalstaatlicher Souveränität in der Finanzpolitik und einer entsprechenden Zahl finanzpolitischer Akteure erheblich schwerer beherrschen lassen. Sie sprechen für eine einheitliche Akteursebene von Geld- und Finanzpolitik. Eine vollständig vergemeinschaftete Budgetpolitik würde einen gemeinsamen dominanten Haushalt der EG implizieren; die Zahl finanzpolitischer Akteure, die dem geldpolitischen Akteur in Gestalt der EZB gegenüberstünde, reduzierte sich deutlich. Dem aus Stabilitätsgründen zu präferierenden gleichen Zentralisierungsgrad der Geld- und Finanzpolitik würde durch einen dominanten EG-Haushalt Rechnung getragen, der die Voraussetzung dafür bildete, daß die Abstimmung beider Politikbereiche nicht erschwert und die Verantwortlichkeit des budgetären Bereiches nicht verdeckt wäre. Ein dominanter Haushalt der Gemeinschaft implizierte makroökonomisch wirksam werdende wirtschaftspolitische Maßnahmen der zentralen Gemeinschaftsebene implizieren, da die Finanzkraft für selbige von den Nationalstaaten auf diese überginge. Entscheidene Argumente, die ihren Ursprung im wesentlichen in der Tatsache der mangelnden Konvergenz in der EG haben, sprechen jedoch für die Notwendigkeit eines differenzierten Einsatzes makroökonomischer Politiken und damit gegen eine 'Vergemeinschaftung' der Budgetpolitik. Hierauf wird im einzelnen im Rahmen der Ausführungen zur realen Konvergenz als Funktionsbedingung der WU eingegangen. Solange die wirtschaftliche Konvergenz in der Gemeinschaft in dem Maße unzureichend ist, wie sie sich derzeit darstellt, wäre eine gemeinschaftsweite Budgetpolitik im Hinblick auf die Geldwertstabilität zwar förderlich, vorausgesetzt, ein zentraler finanzpolitischer Akteur würde der stabilitätspolitischen Verantwortung gerecht. Im Hinblick auf die Schaffung realer Konvergenz hingegen wäre sie eher kontraproduktiv. Denn solange die EG kein wirtschaftlich homogenes Gebiet darstellt, spielen asymmetrische Schocks eine nicht unerhebliche Rolle, auf die mit einem national bzw. regional differenzierten Einsatz der Wirtschaftspolitik zu reagieren ist. Letztlich ist der entscheidende Aspekt einer stabilitätsorientierten Budgetpolitik auch nicht die Ausübung auf zentraler Ebene, sondern die Schaffung der Voraussetzung dafür, daß weiterhin auf nationalstaatlicher Ebene verantwortete Budgetpolitiken auf ihre Stabilitätsorientierung hin verpflichtet werden. Darüberhinaus ist darauf hinzuweisen, daß große Unterschiede in den Finanzverfassungen der einzelnen EG-Mitgliedstaaten, vor allem historisch bedingte Unterschiede der politischen Entscheidungsprozesse und -ebenen existieren, die die 'Vergemeinschaftung' der nationalen Budgets erheblich erschwerten. Während in Frankreich und Großbritannien die Verantwortung relativ zentralistisch ist, existiert in der Bundesrepublik eine föderative Regelung. Der Großteil der staatlichen Investitionsentscheidungen wird vergleichsweise autonom auf der Ebene vor allem der Länder, aber auch der Städte und Gemeinden getroffen. Regionale Wirtschaftspolitik hat eine nicht unerhebliche Bedeutung. Schließlich existiert in der Bundesrepublik ein beträchtlicher horizontaler und vertikaler Finanzausgleich.
World Affairs Online
Der Beitrag untersucht die Auswirkungen der Justizreform des Jahres 2001 und der Politik der "womenomics" der Regierung Abe. Aus dieser Perspektive wurde die Ernennung dreier Richterinnen an den Obersten Gerichtshof als ein neuer Schritt auf dem Wege zur Gleichstellung in der Justiz angesehen, die traditionell eine Männerdomäne war. Der erste Teil des Beitrages setzt sich mit dem Umfeld der politischen Initiativen des Premierministers auseinander, Frauen in führende Positionen innerhalb der japanischen Gesellschaft zu bringen, und beleuchtet die verschiedenen Maßnahmen, welche der Obersten Gerichtshof, das Justizministerium und die Anwaltsvereinigungen in Japan ergriffen haben, um diese Initiativen umzusetzen und die zahlreichen kulturellen, psychologischen und finanziellen Hemmnisse abzubauen, die bis heute den Aufstieg von Frauen im Justizsystem behindern. Die anschließenden beiden Teile befassen sich mit den demografischen Daten zur Entwicklung der Justiz in den formativen Jahren zwischen 2005 und 2017, einer Periode der Erneuerung der Juristenausbildung in Japan auf der Grundlage der Reform der Aufnahmeprüfung für die nationale Referendariatsausbildung und der Einrichtung von Law Schools. Die allgemeinen Daten zeigen eine erhebliche Zunahme der im Bereich der Justiz tätigen Personen – Richter, Staats- und Rechtsanwälte –, wobei die männliche Dominanz in diesen Berufen zwar etwas zurückgegangen ist, aber nach wie vor ein wesentliches Charakteristikum ist . Aber eine genauere Analyse der jüngeren Zahlen der Abgänger von der zentralen juristischen Ausbildungsinstitution (LTRI) lassen als Trend erkennen, dass die Rekrutierung von Richterinnen und Staatsanwältinnen insgesamt bereits das von der Regierung vorgegebene Ziel eines 20-prozentigen Frauenanteils erreicht hat. Gleichwohl ist der Anteil von Frauen in Spitzenpositionen mit nur 12 Richterinnen am Obersten Gerichtshof und als in Führungspositionen an den Instanzgerichten nach wie vor gering, was an unterschiedlichen Karrierewegen und einer weniger "erfolgsorientieren" Einstellung liegen dürfte. Der vierte Teil des Berichts diskutiert einige allgemeine Gender-Fragen. Dabei geht es zum einen um den Kampf gegen sexuelle Belästigung am Arbeitsplatz, die in einigen Fällen durch die Berichterstattung in den Medien ins Licht der Öffentlichkeit kamen, und zum anderen um die Vereinbarkeit von Beruf und Familie. Bezüglich letzterer werden einschlägige Initiativen aus den drei Zweigen der Justiz vorgestellt, wobei es insbesondere um die Elternzeit geht, die bislang von Männern zu wenig genutzt wird. Der letzte Teil wendet sich der neu aufgekommenen Problematik zu, wie die Justiz im Lichte jüngster Schwierigkeiten auf dem juristischen Arbeitsmarkt und auf der Ebene der Referendariatsausbildung und der Law Schools ausreichend attraktiv für die jüngere Generation gestaltet werden kann. Es werden verschiedene Initiativen der Rechtsanwaltskammern, des Justizministeriums und des Kabinetts vorgestellt, vermittels welcher das Bild einer vermeintlich von Stereotypen geprägten Justiz zurechtgerückt und junge Menschen, insbesondere Frauen für einen Eintritt in die Justiz gewonnen werden können. Der Beitrag schließt mit der Empfehlung, sich nicht lediglich quantitativ, sondern darüber hinaus auch qualitativ um die Einbindung von Frauen in die Justiz zu bemühen. Das Thema könne nicht von der Beseitigung der generellen Benachteiligung von Frauen im Recht, dem Engagement von Rechtsanwältinnen in neuen Rechtsgebieten, die noch immer von Rechtsanwälten dominiert würden, und einer neuen Rollenverteilung zwischen Männern und Frauen in der japanischen Gesellschaft getrennt werden. (Die Redaktion) Resumé Le but de cet article est d'examiner l'impact de la réforme de la justice mise en place à partir de 2001 en relation avec la politique dite de«womenomics» promue par les Cabinets Abe. La présence de trois femmes juges à la Cour suprême avait été considérée, à cet égard comme une nouvelle étape sur la voie de la féminisation de la justice, bastion traditionnel de la masculinité. La première partie de cette contribution traite du contexte général des politiques avancées par le Premier ministre pour stimuler l'emploi féminin à des postes de responsabilité au Japon, ainsi que des mesures et recommandations diverses adoptées par les principaux acteurs de la justice – la Cour suprême, le ministère des Affaires Juridiques et la Fédération japonaise des associations du barreau, prises à cet effet, dans le but de lever les nombreux obstacles culturels, psychologiques et financiers qui continuent à entraver la promotion des femmes dans l'appareil judiciaire. La seconde partie est centrée sur des données démographiques décrivant l'évolution de la composition des milieux de la justice entre 2005 et 2017, période qui coïncide avec la restructuration du système de formation des professions judiciaires, notamment du régime de leur recrutement national et l'introduction des écoles de droit. Ces données générales font apparaître une augmentation sensible de la population judiciaire, qui, bien qu'inégalement répartie entre ses différentes branches – juges, procureurs et avocats – confirme que la domination masculine, même si elle est entamée, demeure une caractéristique fondamentale de l'organisation de la justice au Japon. Mais une analyse plus détaillée des dernières cohortes de diplômés du Centre national d'études judiciaires (CNEJ) fait apparaître une nouvelle tendance : la proportion de femmes recrutées comme juges et procureurs atteint voire dépasse les 20%, seuil fixé par le gouvernement. Néanmoins, la promotion de femmes à des postes à responsabilité demeure encore faible: seules douze femmes sont présidentes de tribunaux ou juges à la Cour suprême, une situation qui tient sans doute au fait que les femmes ont des parcours différents au sein de la magistrature et qu'elles sont moins «performantes» que leurs homologues masculins. La quatrième partie s'attache à quelques problématiques de genre dans la carrière des femmes, axées autour de deux points: d'une part, la lutte contre le harcèlement sexuel au sein de la magistrature, dont certains cas ont été dénoncés dans les médias, d'autre part la conciliation entre vie de famille et vie professionnelle. L'article décrit ainsi les dispositifs posés par les trois branches du hōsō pour faire en sorte que les contraintes professionnelles soient compatibles avec la vie privée et les liens familiaux avec, en point d'orgue, la question du congé parental, sous utilisé par les hommes. La cinquième partie parle d'une nouvelle problématique qui s'est récemment imposée: comment faire pour que les carrières judiciaires soient attractives pour la jeunesse, dans un environnement marqué à la fois par la réduction du «marché judiciaire» et la crise de recrutement qui affecte à la fois les écoles de droit et le CNEJ. L'article fait ainsi le point sur les divers dispositifs institués par le ministère des Affaires Juridiques, le barreau japonais et l'Office du Cabinet en vue de déconstruire les stéréotypes de la justice et d'inciter les jeunes, en particulier les jeunes filles, à embrasser une carrière judiciaire. En conclusion, il est souligné que la promotion des femmes dans la justice n'est pas simplement qu'une affaire quantitative mais qualitative. Elle est indissociable de la levée des biais sexistes dans le droit positif, de la capacité des femmes à investir des champs juridiques nouveaux qui étaient jusque-là l'apanage des hommes et d'une meilleure répartition des rôles entre hommes et femmes dans la société japonaise. ; The purpose of this article is to examine the impact of the reform of the judicial system in Japan implemented in 2001, in accordance with the "womenomics" policy promoted by the Abe Cabinets. In this respect, the presence of three female judges at the Supreme Court was considered as a new step on the path of the feminization of the judiciary which was traditionally a bastion of masculinity. This first part of this contribution deals with the general context of the policies advocated by the Prime minister in order to foster female employment at leading positions in Japan's society, and the various measures and recommendations taken by the main actors of the judiciary – the Supreme Court, the Ministry of Justice, the Japan Federation of Bar Associations – in order to cope with the situation created by the enactment and the implementation of these policies and to lift the numerous cultural, psychological and financial obstacles which still impede the promotion of women in the judiciary. The second part is centred on demographical data depicting the evolution of the judiciary between 2005 and 2017, a period which coincides with the restructuring of the legal education system hinged on the reform of the national bar examination and the creation of law schools. The general data show a huge increase in the population of the judiciary, but unequally distributed between the three components of the judiciary − judges, public prosecutors and lawyers − which confirm that male dominancy, even slightly affected, remains a fundamental characteristic of the judiciary in Japan. But a more detailed analysis of the last cohorts of graduates from the Legal Training and Research Institute (LTRI) reveals a new trend: the proportion of women recruited as judges and public prosecutors has already reached the objective of 20% fixed by the government. Hence, the proportion of women in management and direction posts is still low with, for example, only twelve women as Supreme Court judges and presidents of tribunals, mainly because women have different paths of career and are less "performant" than male judges. The fourth part addresses some main gender issues in the judicial careers from a twofold perspective: the first is the fight against sexual harassment within the judiciary, some cases of which have been highlighted by the media. The second relates to the problem of conciliation of professional and family life. The article describes the initiatives launched by the three branches of the hōsō for the accommodation of professional constrains with the protection of privacy and family links, with a focus on child care leave which is currently under-utilized by men. The last part evokes an issue which recently emerged: how to make the judiciary more attractive for young people in an environment plagued by the constriction of the legal market and the crisis of recruitment both at the LTRI and the law school level. The article discusses the various proposals made by the bar associations, the Ministry of Justice and the Cabinet Office at the local level, aiming at deconstructing an image of the judiciary somewhat stuffed with stereotypes, with the objective of impelling young people, especially women, to join the judiciary. The article concludes that the promotion of women in the judiciary should be studied not only through a quantitative, but a qualitative approach as well: a topic which cannot be dissociated from the eradication of the gender bias in Japanese positive law, the commitment of female lawyers in new fields of law still dominated by their male counterparts, and a new distribution of roles between males and females in Japanese society. Resumé Le but de cet article est d'examiner l'impact de la réforme de la justice mise en place à partir de 2001 en relation avec la politique dite de«womenomics» promue par les Cabinets Abe. La présence de trois femmes juges à la Cour suprême avait été considérée, à cet égard comme une nouvelle étape sur la voie de la féminisation de la justice, bastion traditionnel de la masculinité. La première partie de cette contribution traite du contexte général des politiques avancées par le Premier ministre pour stimuler l'emploi féminin à des postes de responsabilité au Japon, ainsi que des mesures et recommandations diverses adoptées par les principaux acteurs de la justice – la Cour suprême, le ministère des Affaires Juridiques et la Fédération japonaise des associations du barreau, prises à cet effet, dans le but de lever les nombreux obstacles culturels, psychologiques et financiers qui continuent à entraver la promotion des femmes dans l'appareil judiciaire. La seconde partie est centrée sur des données démographiques décrivant l'évolution de la composition des milieux de la justice entre 2005 et 2017, période qui coïncide avec la restructuration du système de formation des professions judiciaires, notamment du régime de leur recrutement national et l'introduction des écoles de droit. Ces données générales font apparaître une augmentation sensible de la population judiciaire, qui, bien qu'inégalement répartie entre ses différentes branches – juges, procureurs et avocats – confirme que la domination masculine, même si elle est entamée, demeure une caractéristique fondamentale de l'organisation de la justice au Japon. Mais une analyse plus détaillée des dernières cohortes de diplômés du Centre national d'études judiciaires (CNEJ) fait apparaître une nouvelle tendance : la proportion de femmes recrutées comme juges et procureurs atteint voire dépasse les 20%, seuil fixé par le gouvernement. Néanmoins, la promotion de femmes à des postes à responsabilité demeure encore faible: seules douze femmes sont présidentes de tribunaux ou juges à la Cour suprême, une situation qui tient sans doute au fait que les femmes ont des parcours différents au sein de la magistrature et qu'elles sont moins «performantes» que leurs homologues masculins. La quatrième partie s'attache à quelques problématiques de genre dans la carrière des femmes, axées autour de deux points: d'une part, la lutte contre le harcèlement sexuel au sein de la magistrature, dont certains cas ont été dénoncés dans les médias, d'autre part la conciliation entre vie de famille et vie professionnelle. L'article décrit ainsi les dispositifs posés par les trois branches du hōsō pour faire en sorte que les contraintes professionnelles soient compatibles avec la vie privée et les liens familiaux avec, en point d'orgue, la question du congé parental, sous utilisé par les hommes. La cinquième partie parle d'une nouvelle problématique qui s'est récemment imposée: comment faire pour que les carrières judiciaires soient attractives pour la jeunesse, dans un environnement marqué à la fois par la réduction du «marché judiciaire» et la crise de recrutement qui affecte à la fois les écoles de droit et le CNEJ. L'article fait ainsi le point sur les divers dispositifs institués par le ministère des Affaires Juridiques, le barreau japonais et l'Office du Cabinet en vue de déconstruire les stéréotypes de la justice et d'inciter les jeunes, en particulier les jeunes filles, à embrasser une carrière judiciaire. En conclusion, il est souligné que la promotion des femmes dans la justice n'est pas simplement qu'une affaire quantitative mais qualitative. Elle est indissociable de la levée des biais sexistes dans le droit positif, de la capacité des femmes à investir des champs juridiques nouveaux qui étaient jusque-là l'apanage des hommes et d'une meilleure répartition des rôles entre hommes et femmes dans la société japonaise.
BASE
Landwirtschaftliche Märkte sowie die gesamte Ernährungswirtschaft unterliegen in vielen Entwicklungsländern enormen Transformationsprozessen hin zu modernen Wertschöpfungsketten und der Erzeugung hochqualitativer Produkte. Während in den Exportmärkten Produktstandards und Zertifizierung an Bedeutung gewinnen, spielen in Entwicklungsländern nationale und multinationale Super- und Hypermarktketten eine immer größere Rolle. Diese Entwicklungen haben Auswirkungen auf die verschiedenen Akteure der Ernährungswirtschaft, insbesondere auf Kleinbauern. Ein Land, in dem die Expansion von modernen Einzelhandelsstrukturen schon relativ früh begonnen hat, ist Thailand. In den 1980er und 1990er Jahren haben, neben anderen Faktoren, das steigende Pro-Kopf Einkommen, erhöhte Urbanisierungsraten sowie die zunehmende Arbeitstätigkeit von Frauen die Etablierung von modernen Einzelhandelsstrukturen beschleunigt. Während die fünf wichtigsten Super- und Hypermarktketten 1996 insgesamt 36 Filialen in Thailand hatten waren es 2009 bereits 295 Filialen. Zu Beginn der Entwicklung waren moderne Einzelhandelsgeschäfte darauf fokussiert, Konsumenten mit umfassenden Einkaufsmöglichkeiten sowie mit niedrigen Preisen für Grundnahrungsmittel und verarbeitete Produkte zu werben. Je mehr sich die Märkte allerdings etablieren, desto wichtiger werden auch frische Lebensmittel, wie z.B. Obst und Gemüse. Auch wenn die Ausweitung dieses Produktsegments durch bspw. die Notwendigkeit einer durchgängigen Kühlkette erschwert wird, steigt der Verkaufsanteil von frischen Lebensmitteln an den totalen Lebensmittelverkäufen von modernen Einzelhandelsmärkten an. Da diese Produktkategorie eine wesentliche Bedeutung für Kleinbauern hat, liegt der Fokus dieser Studie auf frischen Lebensmitteln, insbesondere auf Gemüse. Das erste Kapitel untersucht am Beispiel von Paprika, wie Kleinbauern in Entwicklungsländern besser von modernen Wertschöpfungsketten profitieren können. Paprika ist ein Gemüse das erst vor etwa 10 Jahren als Produktinnovation in Thailand eingeführt wurde, um auf Exportmärkten und im modernen Lebensmitteleinzelhandel verkauft zu werden. Im Laufe der Zeit hat Paprika bei den lokalen Konsumenten an Popularität gewonnen und er wird heute auch auf traditionelleren Lebensmittelmärkten gehandelt. Die Analyse basiert auf Daten einer Haushaltserhebung im Wassereinzugsgebiet Mae Sa in Nordthailand. Die Erhebung umfasst 246 Paprika produzierende Haushalte sowie 62 landwirtschaftliche Haushalte, die keinen Paprika produzieren. Ergebnisse der Regressionsmodelle zeigen, dass die Kultivierung von Paprika, und insbesondere ein früher Einstieg in die Paprikaproduktion, signifikant zu höherem Haushaltseinkommen beiträgt und damit eine wichtige Strategie für Kleinbauern darstellt, ihre Lebenssituation zu verbessern. Es gilt allerdings zu bedenken, dass fehlende Landrechte, eine schwache infrastrukturelle Anbindung sowie fehlender Zugang zu Informationen Barrieren für eine frühe Übernahme der Kultivierung von Paprika darstellen. Es ist daher eine ernsthafte Herausforderung für die Politik, diese Hindernisse zu überwinden um negative Einkommenseffekte für benachteiligte Landwirte zu verhindern. Die Integration in moderne statt in traditionelle Wertschöpfungsketten trägt bisher allerdings nicht zu einem erhöhten Einkommen bei. Dieses hebt noch einmal hervor, dass externe Effekte, die durch die Etablierung modernen Einzelhandelsmärkten entstehen, bei der Bewertung dieser Märkte nicht unterschätzt werden sollten und in zukünftigen Studien berücksichtigt werden müssen. Der moderne Lebensmitteleinzelhandel führt nicht nur zu neuen Produkten und Produktstandards, sondern auch zu substantiellen Veränderungen im Management von Wertschöpfungsketten, was die Vermarktungsentscheidungen von Landwirten ebenfalls beeinflussen kann. Super- und Hypermärkte modernisieren zunehmend ihr Beschaffungswesen, was unter anderem bedeutet, dass sie vermehrt auf vertragliche Absprachen mit ihren Lieferanten bestehen. Landwirte beliefern Supermärkte häufig nicht mehr direkt, sondern sind über Zwischenhändler mit diesen Märkten verbunden. Basierend auf den Daten der oben genannten Haushaltserhebung werden im zweiten Kapitel die (vertraglichen) Vereinbarungen zwischen Landwirten und Händlern in traditionellen und modernen Wertschöpfungsketten für Paprika verglichen. Darüber hinaus ist es von Interesse zu analysieren, inwiefern bestehende Unterschiede die Entscheidung eines Landwirtes für einen bestimmten Vermarktungsweg beeinflussen. Die Ergebnisse bestätigen die Annahme, dass zwischen den Vermarktungswegen signifikante Unterschiede in Vereinbarungen zwischen Landwirten und Händlern bestehen. Außerdem zeigen die Ergebnisse, dass einige dieser Unterschiede die Vermarktungsentscheidungen von Landwirten beeinflussen. Produktpreise spielen für Landwirte ebenso wie das Bereitstellen von Betriebsmitteln und Krediten und die eigene Unabhängigkeit und Flexibilität eine wichtige Rolle. Die Ergebnisse des Choice Experimentes stellen heraus, dass Landwirte im Allgemeinen eine Präferenz für Vermarktungswege haben, die keine vertraglichen Vereinbarungen beinhalten. Außerdem bestätigt das Experiment, dass einige der oben genannten Aspekte (z.B. die Bereitstellung von Krediten) die Attraktivität von Verträgen erhöhen. Der wichtigste Aspekt für Landwirte ist allerdings eine gute persönliche Beziehung zum Händler, was darauf schließen lässt, dass Landwirte ein gewisses Maß an Vertrauen wertschätzen. Zusammenfassend zeigen diese Ergebnisse, dass für die bessere Einbindung von Kleinbauern in moderne Einzelhandels struktur en nicht nur die Mängel landwirtschaftlicher Märkte überwunden werden müssen, sondern auch berücksichtigt werden sollte, wie Absprachen zwischen Landwirten und Händlern gestaltet werden. Die Einbindung von Kleinbauern in den modernen Einzelhandel hat das Potential, die Lebensumstände von Kleinbauern zu verbessern. Die vorherigen Ergebnisse verdeutlichen allerdings, dass verschiedenste Barrieren bestehen, die eine weitreichende Integration von Kleinbauern nach wie vor erschweren. Darüber hinaus zeigen die Ergebnisse, dass auch traditionelle Märkte finanzielle Anreize für Landwirte bieten können und dass traditionelle Vermarktungsstrukturen den Präferenzen von Landwirten teilweise besser entsprechen. Daher ist es ebenfalls wichtig abzuschätzen, inwiefern traditionelle Einzelhandelsstrukturen, insbesondere die Märkte für Frischwaren, von der Transformation der Ernährungswirtschaft betroffen sind. Dieser Aspekt wird im dritten Kapitel aufgegriffen, in dem die Wettbewerbsstrategie von Super- und Hypermärkten in bezug auf Preise und erkennbare Qualitätsattribute zweier Gemüsesorten, Morning Glory und Paprika, verglichen wurde. Dafür wurden Daten über bestimmte Qualitätsattribute und Preise auf 43 Märkten in 17 Distrikten von Bangkok erhoben. Die Stichprobe besteht aus insgesamt 14 Filialen der drei wichtigsten Supermarktketten und insgesamt 12 Filialen der drei wichtigsten Hypermarktketten sowie 17 traditionellen Märkten für Frischwaren. Der Vergleich der Preise und der Qualitätsattribute auf den verschiedenen Märkten zeigt, dass weder Super- noch Hypermärkte in Bezug auf die Preise wettbewerbsfähig mit traditionellen Märkten für Frischwaren sind. Im Gegensatz dazu bieten diese Märkte Produkte höherer Qualität an. Die Ergebnisse des hedonischen Preismodells legen dar, dass auf allen Märkten bestimmte Qualitätsattribute die Produktpreise signifikant beeinflussen. Darüber hinaus haben Super- und Hypermärkten einen signifikanten und positiven Einfluss auf die Produktpreise. Dieses Ergebnis lässt darauf schließen, dass moderne Lebensmittelmärkte als solches für Konsumenten einen gewissen Wert darstellen, da sie bereit sind unabhängig von Qualitätsunterschieden, höhere Produktpreise zu bezahlen. Allerdings sind die Konsumenten der mittleren und höheren Einkommensklassen eher Kunden moderner Einzelhandelsmärkte, so dass das allgemeine Wirtschaftswachstum vor allem dem modernen Lebensmittelsektor zugute kommt. Traditionelle Märkte für Frischwaren und damit der Großteil an Landwirten bleiben weitgehend außen vor. Aus den Ergebnissen dieser Studie lassen sich wichtige Politikempfehlungen für die Unterstützung von Kleinbauern in Entwicklungsländern ableiten. Einerseits sollte die Integration von Kleinbauern in moderne Einzelhandelsstrukturen weiter gefördert werden. Dafür müssen Regierungen sich aktiv engagieren, um das Funktionieren der landwirtschaftlichen Märkte zu verbessern, bspw. durch Investitionen in die Infrastruktur oder die Verbesserung des Zugangs von Kleinbauern zu Marktinformationen. Darüber hinaus müssen die Beziehungen zwischen Kleinbauern und den nicht lokalen Händlern verbessert werden. Ein Ansatz in diese Richtung ist eine bessere Einbindung von lokalen Händlern, die häufig schon lang andauernde Beziehungen mit Landwirten haben. Wo dieses logistisch nicht möglich ist, sollten Unternehmen in Vertrauensbildende Maßnahmen investieren, z.B. in häufigere persönliche Kontakte zu den Landwirten oder in transparente Preisbildung. Andererseits sollte die Bedeutung von traditionellen Märkten für Frischwaren nicht aus den Augen verloren werden. Um Kunden der mittleren und höheren Einkommensklassen zu gewinnen und dadurch auch vom allgemeinen Wirtschaftswachstum zu profitieren müssen sich diese Märkte an die sich verändernden Einkaufsgewohnheiten von Konsumenten anpassen. Dazu muss die allgemeine Attraktivität der Märkte, z.B. durch die Verbesserung der hygienischen Standards oder durch die Ausweitung des Angebots an Parkplätzen, verbessert werden. Darüber hinaus muss auch das Produktangebot angepasst werden. Diese Veränderungen können jedoch nur zum Teil von den Händlern selbst getragen werden. Vor allem bedarf es der Unterstützung der Regierung und/oder privater Investoren, die finanzielle Mittel und Know-how zur Verfügung stellen. ; In many developing countries, agricultural and food systems are undergoing a major transformation towards high-value, modern supply chains. In export markets, stan-dards and certification systems are gaining in importance, while within developing countries, the role of national and multinational super- and hypermarket chains is growing. These developments have important implications for various stakeholders in the agro-food system, including, in particular, smallholder farmers. One country where the expansion of modern retail structures started relatively early is Thailand. In the 1980s and 90s increasing per capita incomes, urbanization trends and female labor force participation spurred, among other things, the development of modern retail structures. In 1996, the five most important super- and hypermarket chains had a total of 36 branches, and by 2009, this number of branches had already increased to 295. While modern retail markets first focus on attracting consumers with an all-in-one shopping strategy and particularly low prices for processed foods and staples, their stores start to mimic wet market situations in an advanced development stage. Although some barriers exist, e.g. a continuous cool chain, the share of fresh produce sales (as a percentage of total food sales) is also increasing at modern retail markets. Taking into account the importance of fruit and vegetable production for smallholder farmers, our study focuses on the fresh fruit and vegetable sector. In the first chapter, we analyze how smallholder farmers in developing countries can benefit from modern supply chains. We take the example of sweet pepper, which was introduced as a product innovation in Thailand some 10 years ago, mainly for ex-ports and upscale domestic supermarkets. Over time, sweet pepper gained wide pop-ularity among domestic consumers, so that nowadays it is also traded at more tradi-tional wholesale and retail markets. Our analysis is based on original farm survey data from 246 sweet pepper producers and 62 non-sweet pepper farmers in the Mae Sa Watershed in northern Thailand. Results from our regression models show that sweet pepper cultivation, and in par-ticular an early adoption, contributes significantly to higher household incomes and is therefore an important potential avenue for smallholder farmers to improve their livelihood. However, the duration analysis indicates that missing land titles, weak infrastructure conditions and limited access to information constituted serious con-straints during the early phases of sweet pepper adoption. There must be a change in policy in order to overcome these initial adoption constraints for disadvantaged farmers, and to thus avoid negative income distribution effects. Strikingly, at this stage, participation in modern supply chains does not lead to higher incomes than when supplying sweet pepper to traditional markets. This finding underlies that spill-overs from modern retail markets should not be underestimated; they must be ac-counted for in future studies of the wider implications of modern supply chains. Modern retail markets not only bring new products and product standards - they also implement profound changes in supply chain management, thereby affecting farm-ers marketing decisions. Super- and hypermarkets increasingly modernize their pro-curement systems and switch from buying through spot-market transactions to con-tractual agreements with farmers, often through specialized intermediaries. In the second chapter, we used the data from the above-mentioned farm survey to compare institutional arrangements, including contracts, between farmers and traders in tradi-tional and modern supply chains of sweet pepper. Moreover, we assess the impact of those differences on the farmers market channel choice. Our descriptive comparison of institutional arrangements confirms that significant differences exist among mar-keting channels. Furthermore, we show that some of those differences influence the farmers market-ing behavior. While output prices matter, the farmers also value other aspects such as access to inputs, credit and information, as well as independence and flexibility. Re-sults from the choice experiment additionally point out the farmers general prefer-ence for marketing options that do not involve a contract, and confirm that the as-pects mentioned above can increase the attractiveness of contracts. Yet, the most important factor for the farmers is a personal relationship with the buyer, which seems to reflect their desire for mutual trust. These findings show that beyond ad-dressing market imperfections, designing institutional arrangements according to the farmers needs can also contribute to more widespread smallholder participation in modern retail markets. The integration of smallholder farmers in modern retail markets is one way to im-prove their livelihood. However, our previous analyses show that various barriers exist that continue to limit integration possibilities. We showed that traditional mar-kets can also offer financial incentives to smallholder farmers and, in many ways, traditional marketing structures correspond to the marketing preferences of small-holder farmers. It is therefore also important to know how much traditional retail structures, and in particular, wet markets, are affected by food system transforma-tions. We consider this issue in the third chapter when we analyze the competition strategy of modern retail outlets with regard to product prices and observable product quality attributes. We again focus on the fresh fruits and vegetables segment, and in particular, on two products: morning glory and sweet pepper. We collected data about these products quality attributes and prices on 43 market outlets in 17 districts of Bangkok. The sample comprises 14 branches of the three most important super-market chains and 12 branches of the three most important hypermarket chains, as well as 17 wet markets. Descriptive comparisons of product prices and quality among the three types of markets show that neither super- nor hypermarkets are price competitive with wet markets. However, super- and hypermarkets offer higher prod-uct quality. Results from hedonic price models show that certain quality attributes significantly increase product prices. Moreover, we find a price effect of modern retail outlets, which demonstrates that despite any potential differences in quality, prices in super- and hypermarkets are higher than in wet markets. This shows that consumers not only value specific qual-ity attributes, but also modern retail formats. The overall picture resulting from this analysis is that traditional and modern markets have been acting more as comple-ments to one another than as competitors. However, since modern retail formats pri-marily serve the middle and upper income classes, these markets are reaping the most benefits from overall economic growth. Wet markets - and the majority of smallholder farmers - are being left behind. All in all, the results of this study have important policy implications for the support of smallholder farmers in emerging economies. On the one hand, the integration of smallholder farmers should continue to be promoted. This would require government involvement with regard to overcoming widespread market imperfections, like weak infrastructure conditions and limited access to market information. Furthermore, the relationship between the farmers and buyers needs to be improved. This is especially important regarding company representatives and intermediaries, who are often non-locals. One possible approach could be to more explicitly involve local traders who have established long-term relationships with the farmers. In areas where this is not logistically possible, companies and intermediaries could try to improve their ties with the farmers through other trust-building mechanisms, such as increasing the number of personal interactions and making pricing and grading procedures more transparent. On the other hand, the importance of wet markets as a major market outlet for smallholder farmers should not be forgotten. In order to attract middle and high income classes, and thereby benefit from overall economic growth, wet markets need to adapt to changing consumer demands. This can only be achieved by increasing the overall attractiveness of wet markets, e.g. by improving the hygienic conditions and offering more parking lots, as well as by expanding the product assortment. However, traders have a limited capacity to influence market modernization; such measures need to be supported with financial means and know-how by the government and/or private investors.
BASE
Global land-use change is a main driver of two of the biggest environmental alterations threatening human well-being: climate change and the decline in biodiversity. Over recent decades, a growing and wealthier population has requested more agricultural products, and this demand has been satisfied by expanding agricultural areas and intensifying production. However, this has posed consequences. As new fields and pastures replaced tropical forests, some of the most biodiverse habitats have been destroyed, and as tropical forests are among the ecosystems with the highest carbon content, their loss has also significantly contributed to global climate change. The pathway of global land use towards the future remains unclear, but with the projected rise in the global population and the consequent greater demand for food in addition to newly emerging requests for agricultural energy production and land-based climate change mitigation, the pressure on land will likely increase. This thesis conceptualises scenarios of future land use, identifies probable future developments and analyses policies that might help to steer land use in a more environmentally friendly direction. Forests and how their future extent influences climate and biodiversity are central to this thesis. It assesses policies of a price on greenhouse gas emissions from land-use change and an expansion of protected areas, as well as the effects of agricultural trade liberalisation and intensification. This paper seeks to more concretely determine the expected amount of tropical deforestation until the middle of the century and measures to reduce it. It additionally focuses specifically on tropical biodiversity hotspots and methods to conserve them through the designation of protected areas and agricultural intensification. Furthermore, it considers the carbon sequestration potential of large-scale afforestation and its potential effect on food prices. The study employs a global economic land-use model to assess potential future developments. The Model of Agricultural Production and its Impact on the Environment (MAgPIE) produces patterns of global land use for a given demand for agricultural products by minimising costs of agricultural production. To analyse the research questions at hand, the model was modified and amended in several aspects. This thesis shows that the assumed increase in demand for agricultural products will lead to an expansion of croplands, at least until the middle of the century. More than 400 million hectares (Mha) of cropland may be newly established between 2015 and 2050. Continuous loss of forests and other natural vegetation is likely to accompany this if no adequate policies come into force. In a study focusing on the tropical deforestation, deforestation amounts to 140 Mha in Latin America, 64 Mha in Sub-Saharan Africa and 24 Mha in Pacific Asia between 2010 and 2050 in the reference case. Without pasture intensification and further trade liberalisation, land-use change could cause cumulative emissions of more than 100 Gt CO2 until the middle of the century, and it will also affect areas that are globally most important for the conservation of biodiversity. Protected areas and emission pricing are promising strategies to abate the loss of forests and land-use change emissions. The results indicate that even a relatively low CO2 price could render deforestation economically unattractive and could transform the land-use sector from a net source of greenhouse gas emissions into a net sink. Analysis of the potential of afforestation shows that a CO2 price that starts at 30 USD and increases by 5% per year could lead to a forest area expansion of almost 2,600 Mha by the end of the century and a sequestration of about 860 Gt of CO2. The findings of this thesis also underpin the importance of expanding protected areas to reduce the overall amount of deforestation, especially in tropical biodiversity hotspots. Fulfilling the growing demand for food while maintaining or even expanding forests as a climate mitigation strategy requires substantial agricultural intensification. In MAgPIE, investments into yield-increasing research and development (R&D) are modelled endogenously, and all simulation relied on this option. Especially when afforestation competed with agricultural production for the same areas, high yield increases were necessary in tropical developing countries. These findings highlight the importance of the intensification of pasture areas, which has often been neglected. African pasture intensification seems particularly key to limit the conversion of forests and other natural vegetation. This thesis also shows that besides offering a large CO2 removal potential, afforestation can limit the regional self-sufficiency in food production and could have severe consequences for food prices. Global afforestation efforts following the introduction of a price on carbon emissions, as assessed in one of the studies, could result in a four-fold global food price level. The results also highlight the importance of agricultural trade, which is a main determinant of the future of land use and of the effectiveness of land-use policies. This thesis demonstrates that further trade liberalisation may boost deforestation, especially in Latin America. In this region, it also lowers the land-saving effect of agricultural intensification since higher productivity results in higher exports. On the positive side, trade liberalisation may be essential to curb food price hikes that are associated with regional afforestation. Altogether, this thesis shows that the future of land use is open. Failure to implement strict policies bears the risk of continued agricultural expansion and tropical deforestation with severe consequences for biodiversity and climate. However, the results also suggests that effective political instruments are available that could reduce certain adverse environmental and social impacts of agricultural production. ; Globaler Landnutzungswandel ist ein Haupttreiber von zwei der größten Umweltveränderungen die das menschliche Wohlergehen bedrohen: Klimawandel und der Verlust der Biodiversität. Während den letzten Jahrzehnten hat eine wachsende und wohlhabendere Bevölkerung nach mehr landwirtschaftlichen Produkten verlangt, und diese Nachfrage wurde durch Expansion landwirtschaftlicher Flächen und Intensivierung der Produktion bedient. Das hatte jedoch Konsequenzen. Indem Felder und Weiden tropische Wälder ersetzten, wurden einige der artenreichsten Habitate zerstört, und da tropische Wälder zu den Ökosystemen mit der höchsten Kohlenstoffdichte gehören, trug ihr Verlust auch erheblich zum globalen Klimawandel bei. Der Pfad den die Landnutzung in Zukunft einschlagen wird bleibt ungewiss, aber mit dem vorhergesagten Anstieg der globalen Bevölkerung und der damit einhergehenden verstärkten Nachfrage nach Lebensmitteln, zusätzlich zu neu auftauchenden Ansprüchen nach landwirtschaftlicher Energieproduktion und landbasierter Eindämmung des Klimawandels, wird der Druck auf nutzbares Land wahrscheinlich steigen. Diese Doktorarbeit entwirft Szenarien zukünftiger Landnutzung, identifiziert wahrscheinliche zukünftige Entwicklungen, und analysiert politische Strategien die helfen könnten Landnutzung in eine umweltfreundlichere Richtung zu lenken. Wälder und die Frage wie ihre zukünftige Ausdehnung Klima und Biodiversität beeinflussen sind zentral in dieser Doktorarbeit. Sie evaluiert die politischen Maßnahmen eines Preises auf Treibhausgasemissionen aus Landnutzungsänderungen und eine Ausweitung von Naturschutzgebieten, sowie die Auswirkungen von Agrarhandelsliberalisierung und landwirtschaftlicher Intensivierung. Die vorliegende Arbeit versucht das voraussichtliche Ausmaß tropischer Entwaldung bis zu Mitte des Jahrhunderts konkreter zu bestimmen, und untersucht Maßnahmen diese zu verringern. Zudem konzentriert sie sich insbesondere auf tropische Biodiversitätshotspots und Methoden diese durch die Ausweisung von Schutzgebieten und landwirtschaftliche Intensivierung zu erhalten. Darüber hinaus berücksichtigt sie das Kohlenstoff-Abscheidungspotential von großräumiger Aufforstung und deren potentiellen Einfluss auf Lebensmittelpreise. Die Studie nutzt ein globales ökonomisches Landnutzungsmodell um mögliche zukünftige Entwicklungen zu untersuchen. MAgPIE (Model of Agricultural Production and its Impact on the Environment) erzeugt globale Landnutzungsmuster für eine gegebene Nachfrage nach Agrarprodukten durch die Minimierung landwirtschaftlicher Produktionskosten. Um die vorliegenden Forschungsfragen zu untersuchen, wurde das Modell hinsichtlich verschiedener Aspekte modifiziert und erweitert. Diese Doktorarbeit zeigt, dass die angenommene Steigerung der Nachfrage nach Agrarprodukten mindestens bis zur Mitte des Jahrhunderts zu einer Expansion der Ackerflächen führen wird. Mehr als 400 Mha Ackerfläche könnten zwischen 2015 und 2050 neu entstehen. Dies geht mit großer Wahrscheinlichkeit mit dem fortlaufenden Verlust von Wäldern und anderer natürlicher Vegetation einher, sollten dem keine geeigneten politischen Maßnahmen entgegen gesetzt werden. In einer Studie die sich auf die tropische Entwaldung fokussiert, beläuft sich die Entwaldung zwischen 2010 und 2050 im Referenzfall auf 140 Mha in Lateinamerika, 64 Mha in Subsahara-Afrika und 24 Mha in Asien-Pazifik. Ohne Intensivierung der Weide und ohne Handelsliberalisierung, könnte Landnutzungswandel bis zur Mitte des Jahrhunderts mehr als 100 Gt CO2 verursachen, und wird dabei auch jene Gegenden beeinträchtigen die weltweit am wichtigsten für den Erhalt der Biodiversität sind. Naturschutzgebiete und die Bepreisung von Emissionen sind erfolgversprechende Strategien um den Verlust von Wäldern und Landnutzungsemissionen zu verringern. Die Ergebnisse deuten an, dass bereits ein relativ geringer CO2-Preis Entwaldungen ökonomisch unattraktiv machen könnte, und den Landnutzungssektor von einer Netto-Quelle zu einer Senke von Treibhausgasemissionen wandeln könnte. Eine Analyse des Aufforstungspotentials zeigt, dass ein CO2-Preis der bei 30 USD startet und um 5% pro Jahr steigt bis zum Ende des Jahrhunderts zu einer Ausdehnung der Waldfläche um fast 2600 Mha und einer Sequestrierung von etwa 860 Gt CO2 führen könnte. Die Ergebnisse dieser Dissertation untermauern auch die Bedeutung der Ausweitung von Schutzgebieten um das Ausmaß der Entwaldung, insbesondere in tropischen Biodiversitätshotspots, zu verringern. Um die steigende Nachfrage nach Lebensmitteln zu bedienen, während Wälder erhalten oder als Klimaschutzmaßnahme sogar ausgeweitet werden, bedarf es erheblicher landwirtschaftlicher Intensivierung. In MAgPIE werden Investitionen in Forschung und Entwicklung endogen modelliert, und alle Simulationen beruhten auf dieser Option. Insbesondere wenn Aufforstung mit landwirtschaftlicher Produktion um die gleichen Flächen konkurrierte waren starke Ertragssteigerungen in tropischen Entwicklungsländern nötig. Diese Ergebnisse unterstreichen die Wichtigkeit einer Intensivierung des Weidelands, welche bisher oft vernachlässigt wurde. Eine Intensivierung afrikanischer Weideflächen erscheint besonders zentral zu sein um die Umwandlung von Wäldern und anderer natürlicher Vegetation einzuschränken. Diese Arbeit zeigt auch, dass Aufforstungen neben dem zur Verfügung stellen eines großen Kohlendioxid-Abscheidungspotentials, die regionale Selbstversorgung mit Lebensmitteln einschränken und erheblichen Einfluss auf Lebensmittelpreise haben können. Weltweite Aufforstungsbestrebungen die der Einführung eines Preises auf Kohlenstoffemissionen folgen, wie es in einer der Studien untersucht wurde, könnten zu einem viermal so hohen globalen Lebensmittelpreisniveau führen. Die Ergebnisse verdeutlichen auch die Bedeutung des Agrarhandels, der eine bestimmende Größe für die Zukunft der Landnutzung und die Effektivität von Landnutzungspolitik ist. Diese Arbeit zeigt, dass weitere Handelsliberalisierung insbesondere in Lateinamerika die Entwaldung beschleunigen könnte. In dieser Region verringert sie zudem den flächensparenden Effekt von landwirtschaftlicher Intensivierung, da höhere Produktivität zu höheren Exporten führt. Positiv zu bewerten ist, dass Handelsliberalisierung wesentlich zur Begrenzung von Lebensmittelpreissteigerungen im Zusammenhang mit regionalen Aufforstungen beitragen könnte. Insgesamt zeigt die vorliegende Arbeit, dass die Zukunft der Landnutzung offen ist. Ein Versäumnis konsequente Politik umzusetzen birgt das Risiko fortschreitender landwirtschaftlicher Expansion und tropischer Entwaldung mit einschneidenden Konsequenzen für Biodiversität und Klima. Die Ergebnisse zeigen jedoch auch, dass effektive politische Instrumente zur Verfügung stehen, die bestimmte negative soziale und ökologische Auswirkungen der landwirtschaftlichen Produktion verringern könnten.
BASE
Die Zielsetzung der Arbeit ist eine Bewertung der Demokratien in vier Ländern: Deutschland, Frankreich, Spanien und Portugal. Innerhalb der Demokratieforschung gab es in den letzten Jahren eine Entwicklung weg von der Einstufung der politischen Systeme in Demokratie-Autokratie zu unterschiedlichen Abstufungen von Demokratie bzw. der Qualität von Demokratie (Pickel/Pickel 2006:152; Fuchs/Roller 2008:77; Schmidt 2000, 2002, Lauth 2004; Berg-Schlosser 1999). Anhand von Indikatoren und Messindizes wird versucht, die Demokratiegrade von vier unterschiedlichen Ländern in vergleichender Weise herauszufinden. Der Vergleich zwischen bereits etablierten Demokratien stellt dabei eine besondere Herausforderung dar. Anhand der Darstellung der verschiedenen theoretischen Konzepte innerhalb des Forschungsstandes der Demokratieforschung, wie z. B. von R. A. Dahl (1989, 1998), David Beetham (1993, 1994, 2003), Merkel et al. (2003) und Leonardo Morlino (2004) wird gezeigt, dass alle Konzepte von einem Mindeststandard ausgehen, um von Demokratie sprechen zu können. Der Ansatz von Merkel et al. (2003) der "Defekten Demokratie" liegt unterhalb des Schwellenwertes. Die Ansätze von Beetham (1993, 1994, 2004), der "Democratic Audit" sowie der von Morlino (2004), ",Good' and ,Bad' Democracies: How to Conduct Research into the Quality of Democracy", erfassen die Qualität von Demokratien, womit sie oberhalb des genannten Schwellenwertes liegen. In der vorliegenden Forschungsarbeit wird das Konzept der "Defekten Demokratie" von Merkel et al. (2003) herangezogen, da nicht ausgeschlossen werden kann, dass in den ausgewählten Ländern Defekte vorliegen. Morlinos Konzept (2004) wurde aus zwei Gründen ausgewählt: Erstens zielt es im Unterschied zu dem Ansatz der "Defekten Demokratie" auf die Ermittlung der Qualität von Demokratien ab, d. h. also von politischen Systemen, die zweifelsfrei eine Demokratie sind, und zweitens handelt es sich um ein sehr systematisch entwickeltes Konzept. Anhand der Ansätze von Merkel et al. (2003), Morlino (2004) und deren Fallstudien, die im Rahmen dieser Forschungsarbeit analysiert werden, müssen geeignete Indikatoren gefunden werden, um die Defekte und die Qualität der Demokratien der Länder Deutschland, Frankreich, Spanien und Portugal messen zu können. Hinsichtlich der Indikatoren ergab sich ein etwas überraschendes Problem: Obwohl Merkels Ansatz (2003) Defekte und Morlinos Ansatz (2004) die Qualität von Demokratien bestimmt, gibt es viele inhaltliche Überschneidungen zwischen den Ansätzen, d. h. dass zum Teil gleiche Indikatoren innerhalb der beiden Konzepte verwendet werden. Dieser Sachverhalt nötigte zu einer genauen Festlegung, welcher Indikator welches theoretische Konstrukt messen soll. Bei einigen dieser Indikatoren mussten Ergänzungen als auch inhaltliche Modifikationen, sowie bei einigen wenigen ein Ausschluss vorgenommen werden. Bezüglich der Messung der Demokratien haben beide Konzepte Vorschläge unterbreitet, die in vorliegender Forschungsarbeit zuerst aufgeführt und anschließend diskutiert werden. Da aber beide Konzepte zu keiner vollkommen zufriedenstellenden Lösung führen, wurde ein kombiniertes Messinstrument entwickelt. Dieses beruht auf einer dichotomen Bewertung bezüglich jedes Indikators beider Konzepte, d. h. die Indikatoren bei Merkel et al. (2003) werden als "defekt" oder als "nicht defekt" sowie die Indikatoren bei Morlino (2004) als "Qualitätsmerkmal" oder als "kein Qualitätsmerkmal" bewertet. Dabei werden alle Indikatoren als gleichwertig behandelt, um mögliche Probleme bezüglich der Gewichtung zwischen den Teilregimen bzw. den Dimensionen, die z. B. bei Morlino (2004) auftraten, auszuschließen. Anhand der Summe der Defekte und der Qualitätsmerkmale der jeweiligen Länder kann hinsichtlich deren Qualität der Demokratie eine Abstufung erfolgen. Die empirischen Ergebnisse zeigen, dass in allen vier Ländern sowohl Defekte vorliegen, aber auch Merkmale, die für die Qualität der Demokratien der jeweiligen Länder sprechen. Unter Verwendung des kombinierten Messinstruments ergab sich, dass Deutschland am besten abschnitt. Danach kann mit einem signifikanten Abstand Portugal, anschließend Frankreich und zuletzt Spanien positioniert werden. Positiv bewertet werden kann in allen vier Ländern das Wahlregime, die Assoziationsfreiheit, der politische Pluralismus sowie die effektive Regierungsgewalt bezüglich des Verhältnisses Politik und Militär. Weitere besondere Stärken liegen bei der Bundesrepublik Deutschland hinsichtlich der Unabhängigkeit der Justiz und des Bundesverfassungsgerichts, der Souveränität des Rechtstaates sowie der Souveränität der Verfassung vor. Positiv konnte für Spanien und Portugal die Einhaltung internationaler und europäischer Vorgaben bewertet werden sowie die Durchsetzung von Antikorruptionsmaßnahmen. Frankreich fiel insbesondere durch einige demokratische Qualitätsverluste auf, die sich vor allem in der Verletzung von Bürger- und Menschenrechten mit einhergehenden Defiziten innerhalb des Justizapparates und bei den Polizei- und Sicherheitskräften ausdrückt. Trotz dieser Ergebnisse muss festgehalten werden, dass alle vier Länder Defekte vorweisen, zum Teil mit steigender Tendenz. Besonders hervorzuheben ist, dass in allen vier Ländern sowohl Einschränkungen der Meinungs-, Presse- und Informationsfreiheit, der Menschenrechtsverletzungen, Einschränkungen in den Justizrechten und Korruption vorzufinden sind. Die Unterschiedlichkeit der Eingriffe und Intensität spiegelt sich in den Endergebnissen der Bewertungen der Demokratien wider. Nicht zuletzt erleiden insbesondere Portugal und Spanien aufgrund der aktuellen Wirtschaftskrise tiefgreifende Einschränkungen in ihrer Souveränität. ; The aim of this dissertation is to assess the democracies of four countries: Germany, France, Spain and Portugal. In recent years there has been a development in democracy research away from categorizing political systems along the lines of the democracy-autocracy model towards classifying them according to their different degrees of democracy or rather their quality of democracy (see Pickel/Pickel 2006:152; Fuchs/Roller 2008:77; Schmidt 2000, 2002, Lauth 2004; Berg-Schlosser 1999). Basing itself on specific indicators and measuring indices this study paper aims at identifying the degrees of democracy of four different countries by way of comparison. In this process, comparing democracies which are well-established has proved to be particularly challenging. This paper introduces the different theoretical conceptions currently prevailing in democracy research, such as the conceptions of R. A. Dahl (1989, 1998), David Beetham (1993, 1994, 2003), Merkel et al. (2003) as well as of Leonardo Morlino (2004), and shows that all conceptions base themselves on a minimum standard in order to classify a political system as a democracy. The approach of "defective democracy" put forward by Merkel et al. (2003) refers to a level below the minimum democratic threshold. The "democratic audit" approach of Beetham (1993, 1994, 2004) and the approach of Morlino (2004), elaborated in his article ",Good' and ,Bad' Democracies: How to Conduct Research into the Quality of Democracy", both deal with the quality of democracies, therefore referring to a level above the minimum democratic threshold. The conception of "defective democracy" developed by Merkel et al. (2003) has been included in this research paper as it cannot be precluded that defects in the selected countries do in fact exist. Morlino's conception (2004) has been chosen for the following two reasons: Firstly, and in contrast to the "defective democracy" approach, it aims at identifying the quality of democracies, i.e. of political systems which are democracies beyond doubt. Secondly, it represents a conception which has been developed very systematically. Based on the approaches of Merkel et al. (2003) and Morlino (2004) it was necessary to find appropriate indicators for measuring the defects and the quality of the democracies in Germany, France, Spain and Portugal. In this process, a somewhat unexpected problem arouse with regard to the use of indicators: Although Merkel's approach (2003) is geared towards determining the defects and Morlino's approach (2004) towards determining the quality of democracies, there turned out to be many content overlaps between both approaches. It meant that to some extent both conceptions make use of identical indicators. It therefore became necessary to exactly define the specific theoretical construct that would be assessed by each of the indicators. Some indicators had to be either complemented or modified with regard to their content, and a few of them had even to be excluded. This research paper takes into account the proposals on how to assess democracies put forward by both conceptions. These proposals are first introduced and then discussed. However, as no completely satisfying result can be reached using either of these two conceptions, a combined measuring instrument has been developed. This instrument is based on a dichotomous assessment with regard to every indicator of both conceptions, i.e. the indicators of Merkel et al. (2003) are assessed as "defective" or "non-defective" and the indicators of Morlino (2004) are assessed as "with quality feature" or "without quality feature". All indicators are thereby considered equal so as to avoid problems which could arise in the weighting process between the regime elements or the dimensions which were e.g. introduced by Morlino (2004). Based on the number of defects and quality features of the respective countries a scale can be worked out with regard to their quality of democracy. According to the empirical findings, all the four countries show both defects and, at the same time, features which stand for the quality of the democracies in the respective countries. Using this combined measuring instrument Germany showed the highest performance. Significantly lower were the results for Portugal, then France and finally Spain. In all four countries the electoral regime, right to association, political pluralism and effective governance with regard to the relationship between political bodies and military can be given a positive rating. Apart from this, the Federal Republic of Germany shows further special strengths with regard to the independence of the judiciary and Federal Constitutional Court, the sovereignty of the constitutional state as well as the sovereignty of the constitution. Spain and Portugal proved eligible to be given a positive rating for complying with international and European requirements as well as for implementing anti-corruption measures. France notably stood out for quality deterioration in several democratic aspects, which manifested themselves above all in the violation of civil and human rights and included deficits within the judicial apparatus and among the police and security forces. Notwithstanding these results it must be noted that defects have been identified in all four countries, partly indicating a growing tendency. Especially to be emphasized is the fact that in all four countries restrictions of the freedom of opinion, press and information, violation of human rights, restrictions of judicial rights and corruption have been identified. Differences in the type of interventions and intensity are reflected in the final results of the assessments on democracy. Last but not least, as a result of the current economic crisis it is especially Portugal and Spain which are subject to drastic restrictions of sovereignty.
BASE
Eine global wachsende Bevölkerung, die steigende Nachfrage nach Nahrungsmitteln sowie die Veränderungen der Ernährungsgewohnheiten bei begrenzten Ressourcen stellt die Agrarproduktion vor wachsende Herausforderungen. Ungeachtet der steigenden Erträge durch technologische Fortschritte in der Europäischen Landwirtschaft (z.B. Gentechnologie) ist die Agrarproduktion und -produktivität direkt von den klimatischen Bedingungen und der Wettervariabilität abhängig. Klimatische Veränderungen beeinflussen die Anbau- und Produktionsbedingungen und somit die künftige Produktion von Nahrungsmitteln wobei der Einfluss von Klima- und Wetteränderungen auf die Agrarproduktion stark von der Vulnerabilität der Technologien abhängt. Um die Anfälligkeit von Agrartechnologien gegenüber Umweltveränderungen zu reduzieren, muss die Produktion an die Veränderungen angepasst werden. Hierfür werden Prognosen benötigt, die zeigen, wie sich die Bedingungen für die landwirtschaftliche Produktion bei unterschiedlichen klimatischen Bedingungen unter Berücksichtigung von technologischem Fortschritt und Anpassungsverhalten kurz- bis langfristig verändern. Das Ziel dieser Arbeit ist es, eine erste Einschätzung der potentiellen Auswirkungen von Wetter- und Klimaveränderungen auf die europäische Landwirtschaft zu geben. Grundlage bildet die Zusammensetzung eines neuen Paneldatensatzes von etwa 80.000 landwirtschaftlichen Betrieben in 27 EU-Mitgliedsstaaten mit monatlichen Niederschlags- und Temperaturdaten sowie qualitativen und quantitativen Bodendaten auf NUTS-Ebene. Im ersten Teil der Arbeit werden kurz- bis mittelfristige Auswirkungen künftiger Wetter- und Klimavariabilität durch retrospektive empirische Analysen der Produktion, finanziellen und operationellen Leistung landwirtschaftlicher Betriebe geschätzt, um so Betriebe in klimasensitiven Regionen zu identifizieren und effiziente Anpassungsstrategien aufzuzeigen. Um die Auswirkungen des Klimawandels unter Berücksichtigung langfristiger Anpassungsstrategien (z.B. Ausweitung der Agrarfläche) und Veränderungen am Weltmarkt zu simulieren, werden im zweiten Teil der Arbeit die Regressionsergebnisse in ein partielles Gleichgewichtsmodell integriert. Die Simulationen ermöglichen es, einen effektiveren politischen Rahmen zur Reduktion der Vulnerabilität zu bilden. Im 2. Kapitel werden regionale Produktionsfunktionen empirisch geschätzt, um kurzfristige Auswirkungen von Wettervariabilität auf etwa 50,000 bewässerte und nicht bewässerte Getreidebetriebe zu quantifizieren. Mit Hilfe von dynamischen Panelmethoden kann erstmals auch die Anpassung landwirtschaftlicher Produktionsfaktoren an Produktivitätsschocks berücksichtigt werden. Anschließend werden die abgeschätzten Produktionsfunktionen mit Klimaszenarien des regionalen Klimamodells REMO verknüpft, um die Sensitivität der Getreideerträge für künftige Temperatur- und Niederschlagsänderungen zu bestimmen. Die Analysen zeigen, dass insbesondere süd- und osteuropäische Regionen anfällig für Temperatur- und Niederschlagsänderungen sind und ohne entsprechende Anpassung der Produktionstechnologien die Getreideerträge in den Mediterranen Regionen bis 2100 um bis zu 55% zurückgehen könnten, während die nordeuropäischen Regionen im gleichen Zeitraum von den klimatischen Änderungen profitieren könnten. Netto könnten im A2-Szenario die Erträge in der EU bis 2100 um 19% zurückgehen. Ohne klimatische Anpassung der Produktionstechnologien könnte dies erhebliche Konsequenzen für die Getreideproduktion in Europa haben und langfristig zu einer Verlagerung der Produktion in den Norden und zu entsprechenden Landnutzungsänderungen in Südeuropa führen. Im 3. Kapitel wird ein neuer Ricardianischer Ansatz (long-differences) angewendet, der implizit Anpassungsstrategien berücksichtigt (z.B. Landnutzungsänderung) und so die mittelfristigen Auswirkungen des Klimawandels für 1000 NUTS-Regionen in 12 EU-Mitgliedsstaaten prognostizieren kann. Der long-differences Ansatz nutzt langfristige Temperatur- und Niederschlagstrends um Einflüsse wetterbedingter Schwankungen auf die Landpreise zu reduzieren und so Klimaeinflüsse besser von Wettereinflüssen unterscheiden zu können. Der Vergleich mit konventionellen räumlichen und nicht räumlichen Querschnittsanalysen zeigt, dass die Gewinne von Farmern, bei einem 0.76°C höherem Temperaturanstieg maximiert werden. Im A2-Klimaszenario könnte dies einen Rückgang der Landwerte bis 2100 um 17% mit dem long-differences Ansatz bzw. bis zu 64% mit Querschnittsmethoden zur Folge haben. Obwohl der long-differences Ansatz hier andeutet, dass Schäden, die durch klimatische Veränderungen verursacht werden, geringer sein könnten als bisher angenommen, beleuchtet er auch das Schadenspotential von Wettervariabilität. Dessen ungeachtet zeigen beide Ansätze, dass die Schäden vor allem in den südeuropäischen Regionen konzentriert sind (84% bis 92%ige Reduktion der Landwerte). Im 4. Kapitel werden mögliche indirekte Klimaeinflüsse auf die operationelle Leistung der landwirtschaftlichen Betriebe untersucht sowie mittelfristige Möglichkeiten zur Reduktion der Anfälligkeit aufgezeigt, indem empirisch die (i) Einflüsse von Klimavariabilität auf die Effizienz und (ii) Anpassungsstrategien abgeschätzt werden. Mit Hilfe einer output-orientierten Distanzfunktion wird die Ineffizienz von mehr als 100.000 Betrieben in 12 EU-Mitgliedsstaaten abgeschätzt, wobei die Ineffizienz von den Eigenschaften des Betriebes und der Klimaerfahrung des Farmers abhängt. Die Ergebnisse zeigen, dass fehlende oder geringe Klimaerfahrung die Effizienz signifikant reduzieren kann und deshalb Temperaturveränderungen auch indirekt die Produktion beeinflussen könnten. Verschiedene Adaptionsmaßnahmen, wie die Anpassung der landwirtschaftlichen Produktionsfaktoren (z.B. Erhöhung des Düngemitteleinsatzes) oder der Produktionsstrukturen (z.B. Mix der Feldfrüchte), könnten zwar die Anfälligkeit gegenüber Temperatur- und Niederschlagsänderungen zu einem gewissen Grad reduzieren, aber fehlende Erfahrung im Umgang mit klimatischen Änderungen könnten die Effizienz und somit die Produktivität signifikant mindern. Eine exemplarische Sensitivitätsanalyse zeigt auch hier, dass primär die südeuropäischen Regionen von einer Effizienzminderung betroffen wären. Bis 2100, könnte die Effizienz ohne Erfahrungszuwachs (z.B. klimabezogene Bildung, Training) netto um bis zu 50% sinken. Im 5. Kapitel werden die empirischen Modelle in ein partielles Gleichgewichtsmodell integriert, um den Wert und die Wirksamkeit unterschiedlicher Anpassungsstrategien für die landwirtschaftliche Produktion auf Betriebsebene (z.B. Bewässerung, Anbauportfolio, Ausbau der landwirtschaftlichen Nutzflächen) und Politikebene (z.B. Handelsliberalisierung) beurteilen zu können. Die Ergebnisse zeigen, dass einerseits landwirtschaftliche Flächen für die Nahrungsmittelproduktion signifikant durch umfangreiche Bioenergieproduktion zurückgehen, da Ressourcen für die Nahrungsmittelproduktion zur Bioenergieproduktion verwendet werden sodass Anpassungsstrategien stark an Bedeutung gewinnen. Andererseits kann Handel den Anpassungsdruck und die Landnutzungskonkurrenz zwischen Nahrungsmittel und Energiepflanzen reduzieren, da durch eine Handelsliberalisierung mehr Land virtuell importiert werden kann. Die Ergebnisse weisen besonders auf die Bedeutung der Verkettung von Handel, Anpassung und Bioenergie in Modellen zur Klimafolgenabschätzung hin, da die Interdependenzen von Entscheidungen in der Landwirtschaft und der Politik die landwirtschaftliche Produktion und Wirksamkeit von Anpassungsmaßnahmen maßgeblich beeinflussen können. ; Future changes in the weather, climate and climate variability could alter growing and production conditions in the agricultural sector and consequently affect food production negatively if technologies and farming practices are not adapted in anticipation of regional climate change impacts. The severity of climate and weather impacts on agriculture, however, highly depends on the vulnerability of farming activities and technologies as well as on the adaptation capacities of regions and farms. Although climate change impacts have been studied extensively, the net impact of climate change on northern latitudes is yet unclear. The objective of this thesis is to evaluate the potential impacts of climate change on European agriculture. For this purpose, a novel and unique 20-year panel of 80,000 agricultural holdings represented in all the 27 EU member states is constructed, by pairing the farm data with a gridded weather and soil dataset. In a first step (Chapter 2-4), the impacts of climate and weather variability on production, as well as the financial and the operational performance of farms are assessed and efficient adaptation strategies are derived at a farm-level. These chapters are based on a set of econometric analyses and identify the most vulnerable regions in the European Union by investigating short-term to medium-term impacts of climate change - a time frame in which adaptation is limited. In a second step (Chapter 5), long-term climate change impacts on adapted production technologies are projected using a partial equilibrium model considering world market and policy adjustments. These simulations can assist in building more effective and efficient policy frameworks to support efficient adaptation of European farms in the long-run. Following a brief literature review, the second chapter quantifies regional weather impacts on 45,000 irrigated and rainfed cereal farms using a production function approach and dynamic panel methods, which makes the consideration of agricultural input adjustments feasible. Subsequently, the sensitivity of yields is evaluated using temperature and precipitation averages for 2021-2050 and 2071-2100 obtained from the regional climate model REMO. The analyses reveal that southern and central European cereal farms are highly vulnerable to temperature and rainfall changes (e.g. a yield decrease by up to 55%), whereas Northern Europe is more likely to benefit from a long-term warming. Overall, net cereal yields could decrease by 19% without efficient adaptation in the A2 scenario by 2100. This could have serious long-term consequences for the cereal production (e.g. shift of the production to Northern Europe). The third chapter introduces a novel Ricardian approach to project potential climate change impacts on the welfare of European farmers. Using a 20-year panel of 1000 NUTS regions in the EU-12, three Ricardian models are estimated applying spatial and aspatial cross-sectional methods and a novel long differences approach, which exploits long-run temperature and precipitation trends and reduces inter-annual fluctuations in land values. The long differences approach suggests that maximum gains occur at a temperature of 0.76°C higher than in the cross-sectional models. In the A2 scenario, this would result in a net reduction of land value of 17% for the long-differences approach but up to 64% for the cross-sectional models. Even though the novel approach suggests that climate damages could be significantly lower than expected, it also indicates a considerable influence of short-term variability on welfare. Both methods show that most losses are concentrated in southern Europe (-84% to -92%) despite the significant differences between the approaches. The fourth chapter investigates the impact of climate change on the operational performance of farms and potential response strategies by empirically assessing (i) the impacts of climate variability on efficiency and (ii) options for adaptation. For this purpose, an output-oriented distance function for more than 100,000 farms in 12 EU member states is estimated. The inefficiency term is explicitly modelled as a function of farm characteristics and climate variability as a proxy for climate-related experience of farmers. The results suggest that a lack of climate-related experience reduces the efficiency significantly, confirming the hypothesis that temperature variability can also affect the production indirectly. A sensitivity analysis suggests that by 2100, the average efficiency level in the EU-12 could be reduced by 28% in the A2 scenario, whereas the efficiency level could drop by up to 50% in the Mediterranean regions. The results also indicate that adaptation through input adjustments (e.g. increased fertiliser) or crop choice (e.g. higher share of fruits) is possible to a certain degree, but a drop in the efficiency could additionally reduce productivity. The last chapter integrates the statistical results into a partial equilibrium model to assess the value and effectiveness of farm-level (e.g. irrigation, crop portfolio, cropland expansion) and macro-economic adaptation strategies (e.g. trade liberalisation) on crop production in Europe. The results suggest that farm-level adaptation, especially cropland expansion and crop portfolio adjustments, can largely mitigate negative impacts of climate change on regional crop production. The results further demonstrate that on the one hand crop production is significantly reduced by large-scale bioenergy policies because of resources shifting from crop production to bioenergy production, which can make large-scale adaptation necessary (i.e. cropland expansion), and on the other hand, that trade can play a moderating role by allowing for virtual land import which reduces domestic land use competition and pressure for extensive adaptation. Overall, the results stress the importance of linking trade, adaptation and bioenergy in climate impact assessments because of the interdependencies between farm and policy decisions and agricultural production and their influence on the value of adaptation.
BASE
Schon aufgrund des Volumens kommt der Sammelband Mediengeographie. Theorie – Analyse – Diskussionen, herausgegeben von Jörg Döring und Tristan Thielmann, gewichtig daher: Auf über 600 Seiten wurden 24 Beiträge deutschsprachiger und internationaler AutorInnen – darunter Theorie- und Diskursstars wie Bruno Latour, Paul Virilio, Lev Manovich und Saskia Sassen – versammelt, die sich der "Remedialisierung der Geographie in Form von Mediengeographie" (Einleitung, S. 10) widmen möchten. Eine Schlüsselstellung sprechen die Herausgeber dabei Latours "Die Logistik der 'immutable mobiles' " zu, eine aus dessen Science in Action (1987) entnommene Passage, die eigens und erstmals für den vorliegenden Band übersetzt wurde. Latours Konzept der unveränderlich mobilen Elemente soll "die Identifizierung von Elementen/Strukturen" ermöglichen, die "sowohl für Medien als auch für den Raum, für Menschen als auch für Nicht-Menschen unveränderlich sind, um anhand derer – einfach dem Akteur folgend – die Transformationskette der Inskriptionen zu skizzieren" (S. 19). Damit hoffen die Herausgeber eine für die Mediengeographie geeignete Methode gefunden zu haben, die die Nachteile der Medienwissenschaft bzw. der Geographie, entweder den Raum oder die Medien konstant halten zu müssen, um das je andere zu beobachten, überwindet. Erfrischend ist die editoriale Entscheidung, diesem als zentral verstandenen Text Latours eine Kritik von Erhard Schüttpelz voraus zu schicken, die sich auf Fernand Braudels Globalisierungsgeschichte beruft und auf deren "Skepsis gegenüber einer Geschichte, die sich an einer Chronologie von Technikinnovationen orientiert" (S. 90), rekurriert. Schüttpelz meldet damit Zweifel an, ob Latours Terminus der unveränderlich mobilen Elemente auch bereits auf den Zeitraum von 1500 bis 1800 angewandt werden kann, in dem weder der Buchdruck eine identische Textgestalt garantierte (S. 72-77), noch die Inkorporation geometrischer Formen (z.B. in der Gestaltung von Tänzen oder Festungsgrundrissen) bereits klar dem Zweck der optischen Konsistenz unterstellt war (S. 77-85). Einen solchen Diskutanten, wie ihn Schüttpelz für die Annahme einer frühzeitigen medientechnischen Überlegenheit des Westens gibt, wünscht man sich auch für Paul Virilios Beitrag "Die morphologische Irruption", um diesen z.B. nach dem Verhältnis von direkter ("sinnlicher") Beobachtung und Geometrie zu befragen, das bei dem Entwurf einer optoelektronischen ("intelligiblen") Beobachtung vergleichweise unterbelichtet bleibt, etwa wenn Virilio schreibt: "Das Raum-Zeit-Gefüge der optoelektronischen Welt-Darstellung entspricht also nicht mehr dem der physikalischen Dimensionen der Geometrie, die Tiefe ist nicht mehr der sichtbare Horizont und auch nicht der ''Fluchtpunkt' der Perspektive, sonder einzig die "Urgröße der Geschwindigkeit [.]" (S. 155). Weiters stellt im ersten, "Mediengeographie global: Geomedientheorie" getitelten Abschnitt Jens Schröter sein Konzept des "transplanen Bildes" dar, unter welches er solche Bildtechnologien fasst, "die mehr Rauminformation liefern, als es die perspektivische Projektion auf die Bildfläche vermag" (S. 170; vgl. Schröter 2009). Als Beispiele nennt er die Stereoskopie, die Fotoskulptur, die integrale Fotografie, die Volumetrie (bzw. Tomografie) sowie die Holografie – meist als Randerscheinungen behandelte Verfahren, von deren Theorie Schröter die Stärkung einer Bildtheorie als Kontinuum zwischen Fläche und Raum erhofft. Unter dem Begriff "Visuelle Geographien" diskutiert Judith Miggelbrink "bildliche Formen von Objektivierung durch Verräumlichung und Verortung" (S. 192) und unterscheidet zwischen einer erdräumlich-landschaftlichen Bildsprache und räumlichen Ordnungen, die durch visuelle Metaphern ausgedrückt werden. Marc Ries entwickelt für das Porträt eine Topologie von "Hier" und "Da-Draußen", welche er auch auf die perspektivisch navigierbare Online-Umgebung Second Life anwendet, und so zu dem Schluss kommt, dass deren zentraler Antrieb "das Begegnen anderer 'Porträts', das Austauschen mit ihnen, das 'Existieren' in Szenarien" sei (S. 214). Der zweite Abschnitt, "Mediengeographie analog", versammelt Beiträge zur Geomediengeschichte, beginnend mit einem weiteren sich auf Latour berufenden Beitrag, in dem Sven Werkmeister die Ursprünge der vergleichenden Musikwissenschaft im Kontext medientechnischer, v.a. phonographischer Aufzeichnungen diskutiert. Verblüffend sein Bericht über die Forschung Erich von Hornbostels: "An die Stelle subjektiv-kulturgebundener Exegese sollten physikalische Verfahren des Messens und Zählens treten" (S. 230) – es wurde versucht Kulturaustausch anhand von Schwingungszahlen nachzuweisen. Jörg Dörings "Geschichte der Literaturkarte" nimmt nicht Karten 'in', sondern Karten 'zur' Literatur in den Blick, wie z.B. Barbara Piattis Kartierungen literarischer Schauplätze (2008), deren analytische Erträge im Verhältnis zum Aufwand mit jeder Karte zur Literatur neu verhandelt würden. Stefan Zimmermann rekapituliert in "Filmgeographie – Die Welt in 24 Frames" frühere und laufende Annäherungen der Geographie an die visuellen Medien: u.a. als Mittel zur Dokumentation, Gegenstand der Kulturgeographie und in Form von Untersuchungen filmischer Landschaften. Paul Reuber und Anke Strüvers Untersuchungen der "Diskursive[n] Verräumlichungen in den deutschen Printmedien" bestätigen den Verdacht, "dass die Anschläge vom 11. September zur Polarisierung geopolitischer Leitbilder und Diskurse" (S. 328) und zur Schaffung einer globalen Topographie des Eigenen und des Fremden beigetragen haben. James Schwoch widmet sich der verquickten Geschichte des mehrfach verschobenen Atomexperiments Starfish Prime am 9. Juli 1962, dem Start des ersten zivilen Kommunikationssatelliten Telstar-1 am folgenden Tag und dem Moskauer Atomteststoppabkommen von 1963, welche die Entwicklung von Satellitenüberwachungsprogrammen erst ermöglicht habe. Den zweiten Abschnitt schließt Wolfgang Hagens "Zellular – Parasozial – Ordal" mit "Skizzen zu einer Medienarchäologie des Handys", dessen Nutzung er vorschlägt als ordale Herausforderung des Schicksals zu betrachten: "Wer glaubt, dass das 'Was', 'Mit wem', 'Wie lange' und 'Wo' am Zellphon Gesprochene [.] verschlossen blieben vor seinem privatesten Akt der Interaktion, den er am Handy begeht, befindet sich schon mitten in seiner Wasserprobe. Kann sein, dass er oben schwimmt, kann auch sein, dass er untergeht." (S. 377). Der im Titel mitangekündigte, aber erst kurz vor Artikelschluss unternommene Versuch, 'Zellphon'-Nutzung auch der parasozialen Interaktion zuzuordnen, bleibt unterdefiniert. Wie bei allen Sammelbänden stellt auch hier die Tektonik der Beiträge eine Herausforderung für sich dar: Die Unterordnung der vier Hauptabschnitte unter die Leitdifferenzen global/lokal und analog/digital bietet nur eine begrenzte Navigationshilfe, was jedoch zuallererst die Schwierigkeit aufzeigt, das hybride Feld der Mediengeographie entlang dieser Differenzlinien einzuteilen. Den dritten Abschnitt – "Mediengeographie digital: Geobrowsing" – eröffnet ein Interview mit Lev Manovich, in dem er u.a. den Erfolg von Google Earth gegenüber wissenschaftlichen geographischen Informationssystemen (GIS) darauf zurückführt, dass dort verschiedene "kulturelle DNAs" – im Fall von z.B. Satellitenbildern, 3D-Modellen, Layer-Konzepten und Partizipation der UserInnen (S. 387) – erfolgreich zusammenspielen würden. Im Sinne der eingangs geschilderten dritten Option der Mediengeographie wäre dieses Erklärungsmodell freilich unbrauchbar: Mit der Identifikation von 'kultureller DNA' oder von 'Genen' werden sowohl Medien als auch Raum zugunsten der Beobachtung eines vermeintlichen Kampfes sich artikulierender Gene stillgestellt – die Evolutionsanalogien sind jedoch gerade in der Auseinandersetzung mit digitalen Medien eher auf dem Vormarsch, denn in der Stagnation begriffen (vgl. die Thesen von Thomas W. Malone, Susan Blackmore oder Kevin Kelly). Eric Gordon untersucht, wie sich die "Metageography of the Internet" in den letzten 30 Jahren, insbesondere aber mit dem Übergang vom (nachträglich konstruierten) Web 1.0 zu Web 2.0 verändert hat: Vom Gitternetz aus Fiktionen wie Tron (1982), Neuromancer (1984) oder The Matrix (1999), d.h. von Repräsentationen eines externen digitalen Netzwerks hin zu Tools, die Navigation innerhalb dieses Netzwerks erlauben, z.B. Google Maps aber auch soziale Geo-Mashups wie z.B. Plazes. Als "phantastische Zeitreise" charakterisiert Anne Vowinckel in ihrem Beitrag den Gebrauch eines Flugsimulators, die damit zwar das Raum-Zeit-Kontinuum aufhebt, aber nicht im Sinne eines baudrillardschen Hyperrealen das Reale verdrängt, sondern als "Raum für die Realisierung des Imaginären" (S. 428). Ob der Google Earth 'Global Awareness Layer' namens 'Crisis in Darfur' wirklich das beabsichtigte Potenzial hat, die Ereignisse "am Boden" (so Google-Pressevertreter) zu beeinflussen, untersucht Lisa Parks und kommt zum Ergebnis, dass Satellitenbilder dort nur eine "Durchgangsstation" (S. 441) vor dem Aufrufen von Nahaufnahmen z.B. von Verwundeten darstellen und – im Unterschied zur Verwendung in Fernsehnachrichten – Konflikte eher der Vergangenheit als der Dringlichkeit aktueller Ereignisse zuweisen. Parks identifiziert weiters Strategien, die sie als "Konflikt-Branding" bezeichnet und charakterisiert das Projekt als Googles "Instrumentalisierung seine Handelns als Werbung für die eigene Marke" und als "mustergültiges Beispiel für neoliberales Handeln" (S. 446), gegenüber dem unsere visuelle Erfahrung historisch wachsam bleiben müsse (S. 448). Die Untersuchung der "Produktion einer Politik der Angst" (S. 455) nimmt sich Jeremy Crampton vor und spannt dabei den Bogen von geographischen Imaginationen nach dem 11. September bis zur statistischen Kartographie des 19. Jahrhunderts, welche z.B. in Frankreich einen Skandal produzierte, "als dort eine Landkarte publiziert wurde, die keinen Zusammenhang zwischen Kriminalitätsraten und Bildung erkennen ließ" (S. 465) – Kriminalität konnte von nun an überall vorkommen, eine Situation, die Crampton als analog zur gegenwärtigen sieht, in der Regierungen die Bedrohung mit Mitteln der Geosurveillance zu bewältigen suchen: "Technologie ist Teil des politischen Entscheidungsprozesses und keine neutrale Aktivität" (S. 473). Der Macht bewegter räumlicher Bilder, das emotionale Erleben zu intensivieren, zeigen sich auch Stuart Aitken und James Craine durchaus bewusst – das Ziel der beiden Geographen ist nicht weniger, als durch "Affektive Geovisualisierung" Daten so aufzubereiten, dass sie uns wie das Kino staunen lassen und "dadurch unser Leben" erhellen (S. 483). Aus medien- und literaturwissenschaftlicher Perspektive zeichnet Albert Kümmel-Schnur nach, wie Modelle nicht-linearer Erzählweisen zunächst von Hypertexttheorien und schließlich von solchen abgelöst wurden, die Narration als Navigation durch ein Netzwerk konzipieren, wobei wiederum "das navigierende Tun in den Modus einer linearen Erzählstrategie" gebracht wird (S. 503). Dicht am Material wendet Kümmel-Schnur dies auf zwei Webseiten an – auf das österreichische Hypermedienprojekt Past Perfect und die von Bruno Latour mitentwickelte Flashanimation Paris: Invisible City. Beide Beispiele können im Übrigen mithilfe einer einfachen Suchanfrage gefunden werden - was unmittelbar die Frage aufwirft, wie das seitenunabhängige, schlagwortbasierte Navigieren durch Suchen, das rezente UserInnenpraktiken kennzeichnet (vgl. Mager 2010), in diesem linienbasierten Ansatz der "Arachnefäden" (so der Titel) eingeordnet werden kann. Den "Global Cities, Knowledge Villages, Media Homes" wendet sich schließlich der vierte und letzte Abschnitt, "Mediengeographie lokal" zu. Saskia Sassen plädiert in "Reading the City in a Global Digital Age" für die Berücksichtigung der Verräumlichung globaler und digitaler Komponenten, denn eine rein physikalische Topographie "would fail to capture the electronic connectivity possibly marking even poor areas as locations on global circuits" (S. 513). Als Analysebeispiel zieht sie New Yorks "geographies of talk" (vgl. http://senseable.mit.edu/nyte/visuals.html), d.h. Auswertungen von globalen, in New York City getätigten Telefonanrufen heran: "Global talk happens largely among those at the top of the economy and at its lower end. [.] The vast middle layers of our society are far less global" (S. 516). Das als lokal Repräsentierte erweise sich letztlich häufig als "microenvironment with global span" (S. 531). Mike Crang wendet sich der Imagination mediatisierter globaler Räume zu, typischerweise durch die Kontrastierung von physischem "place" und virtuellem "space", "through notions of substitution, derealisation, transcendence and thence to consequence of dispersal, distanciation and social disintegration" (S. 539). Dem stellt Crang die Raumvision Singapurs als "Intelligent Island", als "switching centre for goods, services, capital and information and people" (S. 553) gegenüber, als Beispiel der Produktion neuer Zentralitäten, welche selbst Dinge hervorbringen, statt bloß Bestehendes zu enkodieren. Auch Scott McQuire ("Public Screens, Civic Architecture and the Transnational Public Sphere") wendet sich gegen die These der Obsolenz von Raum und Zeit durch elektronische Echtzeitkommunikation und schlägt stattdessen vor, von einer fortlaufenden dynamischen Rekonfigurierung von Raumdimensionen und zeitlichen Rhythmen zu sprechen, die er seinerseits anhand von urbanen elektronischen Plakat- und Werbeflächen untersucht. Rolf Nohr argumentiert auf der Grundlage von Harold Innis für die Verflechtung von Waren- und Bedeutungsformen bzw. von symbolischer Kommunikation und deren räumlichen Erstreckung und gelangt so zur Frage nach dem Verhältnis von medienimmanenter zu symbolisch vermittelter Topographie bzw. – konkret am Fall TV beobachtet – zum Verhältnis von Wohnzimmer oder 'Public Viewing Area' und televisuell produzierten Orten und Ereignissen. In diesen vier Beiträgen werden die Fragestellungen im letzten Abschnitt von allen insgesamt am dichtesten geführt; der letzte Beitrag von Tom Holert zur "Geographie der Exzellenz" wendet sich schließlich den "gern – und oft beschönigend – 'Campus' genannten postindustriellen Wissensfabriken" (S. 630) und der Inszenierung von Humankapital zu, wie sie in IT-Forschungs- und Entwicklungszentren wie dem Dubai Knowledge Village, dem Infosys-Campus Bangalore oder dem Cyber Gateway Hyderabad stattfindet. In Summe bleibt die Fülle der Perspektiven und Ansätzen, die in Mediengeographie. Theorie – Analyse – Diskussionen vorgestellt und angerissen werden, beeindruckend. Typisch für ein Vorhaben dieser Größe wird die Zusammenführung dieser Linien mitunter zu einer Herausforderung; insbesondere der angestrebte Dialog zwischen Medienwissenschaft und Geographie in Richtung der Begründung einer Geomedienwissenschaft bleibt bei einem bloßen Nebeneinander stecken, auch der Latour'sche Faden verliert sich im Band alsbald. Der Wunsch, die vielfältigen Beiträge auf drei schmalere Bände mit stärkerer, editorialer Begleitung aufzuteilen, erscheint legitim, muss jedoch auf das nächste Projekt der Herausgeber projiziert werden. Immerhin ist Mediengeographie selbst bereits ein Nachfolger auf einen 460-Seiter, den 2008 ebenfalls von Döring und Thielemann herausgegebenen Band Spatial Turn. Das Raumparadigma in den Kultur- und Sozialwissenschaften. --- Zitierte Literatur Jörg Döring/Tristan Thielmann (Hg.), Spatial Turn. Das Raumparadigma in den Kultur- und Sozialwissenschaften, Bielefeld: transcript 2008. Barbara Piatti, Die Geographie der Literatur. Schauplätze, Handlungsräume, Raumphantasien, Göttingen: Wallstein 2008. Astrid Mager, Mediated Knowledge. Sociotechnical practices of communicating medical knowledge via the web and their epistemic implications, Wien: Universität Wien, Dissertation 2010. Jens Schröter, 3D. Zur Geschichte, Theorie, Funktion und Ästhetik des technisch-transplanen Bildes im 19. und 20. Jahrhundert, München: Fink 2009.
BASE
Computer- und Videospiele sind heute ein selbstverständlicher Bestandteil der Lebenswelt vieler Kinder und Jugendlicher, aber auch von (jüngeren) Erwachsenen, die mit diesen neuen Medien aufgewachsen sind. Lange Zeit haben elektronische Bildschirmspiele allenfalls sporadische Beachtung gefunden. Weder in der Medienforschung oder Medienpädagogik noch in der breiteren Öffentlichkeit waren sie ein Gegenstand von breiterem Interesse.* In den letzten knapp zehn Jahren sind Video- und Computerspiele allerdings zunehmend in den Fokus der Aufmerksamkeit gerückt. Dabei sind in der massenmedial vermittelten Öffentlichkeit vor allem Amokläufe in Schulen in einen direkten Zusammenhang mit den Vorlieben (der Täter) für bestimmte Computerspiele gebracht worden. Die auch von prominenten Politikern aufgegriffene These lautete, dass gewalthaltige Spiele wie der First Person Shooter «Counterstrike» ein virtuelles Trainingsprogramm für das Töten und daher als wesentliche Ursache solcher Schulmassaker anzusehen seien. Auf der Basis dieser kausalen Wirkungsannahmen bzw. der unterstellten negativen Lern- und Trainingseffekte werden seither immer wieder Forderungen nach einem Verbot solcher «Killerspiele» oder gar nach der Verbannung aller Bildschirmmedien aus den Kinderzimmern abgeleitet. Neben solcher skandalisierter Thematisierung ist aber zunehmend auch eine nüchterne wissenschaftliche Auseinandersetzung zu konstatieren. So haben sich seit Beginn des neuen Jahrtausends die «digital game studies» als interdisziplinäres Forschungsfeld etabliert. Im Jahr 2000 wurde innerhalb der Gesellschaft für Medienwissenschaft z.B. die AG Games gebildet, die sich zu einem wichtigen deutschsprachigen Forum für die wissenschaftliche Beschäftigung mit Computerspielen entwickelt hat, und im Jahr 2002 entstand die internationale Digital Games Research Association (DiGRA), die im September 2009 ihre vierte grosse Konferenz nach 2003, 2005 und 2007 durchgeführt hat (vgl. www.digra.org). Seit 2001 gibt es mit der «Game Studies» eine primär kulturwissenschaftlich ausgerichtete Online-Zeitschrift (vgl. gamestudies.org), und daneben sind zahlreiche Publikationen zu verzeichnen, die zur Strukturierung und Systematisierung des Forschungsfeldes beigetragen haben, etwa die transdisziplinär angelegten Sammel- und Tagungsbände von Wolf & Perron (2003); Fritz & Fehr (2003), Copier & Raessens (2003), Neitzel, Bopp & Nohr (2004), Raessens & Goldstein (2005), Kaminski & Lorber (2006), Vorderer & Bryant (2006), de Castell & Jenson (2007), Kafai et al. (2008), Quandt, Wimmer & Wolling (2008). Ausserdem liegen Monografien vor, die sich um Orientierung sowie empirische oder theoretische Klärungen bemühen (etwa Fromme, Meder & Vollmer 2000, Newman 2004, Juul 2005, Klimmt 2005, Mäyrä 2008, Pearce & Artemesia 2009). Diese wissenschaftlichen Entwicklungen und Arbeiten zeigen, dass die Phase der blossen Skandalisierung oder akademischen Ignorierung der Computerspiele zu Ende geht. Stattdessen kann von einer zunehmenden Normalisierung und Ausdifferenzierung der akademischen Auseinandersetzung mit diesen neuen Medien und ihren Verwendungsweisen ausgegangen werden, wie sie bei anderen, etablierteren Gegenstandsbereichen (etwa der Film- oder Fernsehforschung) schon länger selbstverständlich ist. Zur Normalisierung und Differenzierung der Debatte soll auch dieses Themenheft der Online-Zeitschrift «MedienPädagogik» auf www.medienpaed.com beitragen, das sich mit den digitalen Spielen und Spielkulturen aus einer primär medienpädagogischen Perspektive befasst und nach den Chancen und Potentialen für informelle wie auch formelle Lern- und Bildungsprozesse fragt. Die Beiträge fokussieren in diesem Spannungsfeld von Spielen und Lernen, von Unterhaltung und Bildung unterschiedliche Aspekte. Die Mehrzahl greift dabei aktuelle Diskussionen über Einsatzmöglichkeiten digitaler Spiele im Bereich des Lernens und der Ausbildung auf, die unter dem Label «Serious Games» oder auch «Game-based Learning» geführt werden (Petko; Bopp; Berger/Marbach; Lampert/Schwinge/Tolks; Malo/Neudorf/Wist; Pfannstiel/Sänger/Schmidt). Daneben widmen sich Beiträge der Frage, wie die Lern- und Bildungsrelevanz der medial-kulturellen Praxen, die sich weitgehend unabhängig von pädagogischer Intervention entfalten, untersucht und verstanden, aber auch pädagogisch unterstützt werden können (Fromme/Jörissen/Unger; Schrammel/Mitgutsch). In einem Beitrag geht es schliesslich darum, Computerspiele selbst zum Gegenstand der pädagogischen Reflexion machen (Biermann). Diese Verteilung spiegelt das Gewicht der Schwerpunkte innerhalb des aktuellen Diskurses über den Zusammenhang von Computerspielen und Lernen/Bildung durchaus angemessen wider. Dominik Petko fokussiert auf formelle Lern- und Bildungskontexte und behandelt die Frage, welche didaktischen Potenziale Computerspiele für den gezielten Einsatz in Schule und Ausbildung aufweisen. Ausgangspunkt ist die Überlegung, dass es für den schulischen Bereich nicht ausreicht, die allgemeinen Lernpotenziale der Spiele auszuweisen und die Muster des spielimmanenten Lernens nachzuzeichnen, wie dies in einigen Publikationen der letzten Jahre geschehe. Um einen Schritt weiterzukommen und zu erreichen, dass digitale Spiele tatsächlich vermehrt in den Unterricht integriert werden, komme es darauf an, den Lehrpersonen zu zeigen, dass der Einsatz solcher Spiele einerseits mit einem vertretbaren Aufwand möglich ist und andererseits zu einem erkenn- und begründbaren Mehrwert führt. Dazu sei im ersten Schritt eine genauere Analyse und Typisierung der Spiele und anschliessend eine Konkretisierung der didaktischen Strategien und Arrangements für die sinnvolle Einbettung in den Unterricht erforderlich. Der Beitrag vermittelt einen ersten systematischen Überblick über entsprechende mediendidaktische Ziele und Ansätze für den Einsatz von Computerspielen in Schule und Unterricht. Matthias Bopp geht aus von der Überlegung, dass Computerspiele die Spielenden generell mit Aufgaben und Herausforderungen konfrontieren, die nur im Rahmen von spielbezogenen Lernprozessen bewältigt werden können. Zudem unterstützen aktuelle Spiele die Spielenden in der Regel systematisch beim Erwerb der erforderlichen Kenntnisse und Fähigkeiten, weisen also ein (zumindest implizites) didaktisches Design auf. Wenn man in Rechnung stellt, dass Video- und Computerspiele für Kinder, Jugendliche und zunehmend auch Erwachsene trotz – oder gerade wegen – der hohen Anforderungen, die sie stellen, höchst faszinierend und motivierend sind, dann bietet es sich an, die Lehr-Lern-Designs digitaler Spiele genauer zu untersuchen, um ihre erfolgreichen Prinzipien auf Lernspiele zu übertragen. Der Beitrag konzentriert sich in diesem Kontext auf die Frage, welche Bedeutung zum einen Rahmengeschichten (Storytelling) und zum anderen parasoziale Interaktionen zwischen Spielenden und virtuellen Spielfiguren für die Spielmotivation haben und welche Rolle ihre gezielte Verwendung beim Design von Lernspielen zur Steigerung oder Aufrechterhaltung der Lernmotivation spielen kann. Daraus werden Empfehlungen für die Gestaltung motivierender Lernspiele abgeleitet und abschliessend an Hand zweier Beispiele veranschaulicht. Johannes Fromme, Benjamin Jörissen und Alexander Unger plädieren dafür, die Bildungspotenziale von Computerspielen – und der neuen, computerbasierten Medien überhaupt – nicht nur in ihrer Verwendung bzw. Verwendbarkeit als didaktische und motivationssteigernde Hilfsmittel für die Vermittlung dieser oder jener Lehrinhalte zu sehen, sondern die Perspektive in verschiedenen Hinsichten zu erweitern. Eine prinzipielle Erweiterung bestehe darin, bei der Frage nach Bildungspotenzialen in der Tradition der humanistischen Bildungstheorie nicht primär den Wissenserwerb, sondern die Steigerung von Reflexivität im Selbst- und Weltverhältnis in den Blick zu nehmen und somit zu fragen, in welcher Weise der Umgang mit Medien hierzu beitragen kann. Und weil Bildung in dieser Tradition grundsätzlich als Selbstbildung verstanden werde, liege es nahe, neben der formellen, institutionalisierten Bildung dem Bereich der informellen Bildung eine entsprechende Beachtung zu schenken. Der Artikel fragt daher nach dem Beitrag, den Computerspiele – und vor allem community-basierte Praxen – für eine Flexibilisierung von Selbst- und Weltsichten sowie für den Aufbau von Orientierungswissen leisten können, und diskutiert abschliessend, inwiefern solche informellen Bildungspotenziale pädagogisch aufgegriffen und unterstützt werden können. Florian Berger und Alexander Marbach gehen davon aus, dass es angesichts der Popularität und hohen Motivationskraft der Computerspiele zwar nahe liege, ihre pädagogische Verwertbarkeit zu prüfen, dass für den pädagogischen Einsatz der digitalen Spiele aber bisher weder theoretisch fundierte Konzepte noch eine hinreichende Forschung existiere. Insbesondere würden Fragen der technischen Machbarkeit zu wenig beachtet, wobei die Schwierigkeit darin bestehe, dass der jeweilige «State of the Art» für Lernspiele als Massstab schon wegen der begrenzten (finanziellen) Ressourcen ausscheide, andererseits aber ein Mindeststandard erreicht werden müsse, um die notwendige Akzeptanz beim Anwender zu finden. Vor diesem Hintergrund geht der Beitrag zunächst der Frage nach, was die technische, die kulturelle und die pädagogische Qualität eines digitalen Spiels ausmacht, um dann – aus einer primär ingenieurwissenschaftlichen Perspektive – zu diskutieren, wie bei der Gestaltung von Lernspielen eine gute Balance erreicht werden kann. Ralf Biermann betrachtet Computerspiele in seinem Beitrag nicht aus mediendidaktischer, sondern aus medienpädagogischer Perspektive und stellt ein Konzept vor, mit dem die digitalen Spiele selbst zum Gegenstand einer lernorientierten Auseinandersetzung werden. Die leitende Idee ist es, Wege aufzuzeigen und zu erproben, wie Computerspiele in den Bereich der aktiven, projektorientierten Medienarbeit eingebunden werden können, die sich dieser neuen Medien – im Unterschied zu Radio, Presse oder Film – bisher kaum angenommen hat. Das Konzept des Video Game Essays knüpft an der Film- und Videoarbeit an, erweitert es aber um einige neue Elemente, die mit den technischen Besonderheiten der Spiele zu tun haben. Der Ansatz kann als innovative Form der Medienanalyse angesehen werden, bleibt aber bei der Analyse nicht stehen, sondern eröffnet auch weitergehende Handlungs- und Lernpotenziale. Als Einsatzgebiete des Video Game Essays werden die ausserschulische Medienarbeit, die Schul- und die Hochschulausbildung genauer betrachtet. Claudia Lampert, Christiane Schwinge und Daniel Tolks zeichnen in ihrem Beitrag die bisherigen Entwicklungen im Bereich der Serious Games nach, die von anderen Ansätzen des mediengestützten Lernens wie E-Learning, Edutainment und Game-Based Learning abgegrenzt werden, und arbeiten den aktuellen Diskussions- und Forschungsstand auf. Die Potenziale und Grenzen werden am Beispiel zweier Spiele aus dem Gesundheitsbereich (Games for Health) detaillierter diskutiert, für die auch erste empirische Befunde vorliegen. Serious Games gewinnen zwar – nach Ansicht der Autoren/innen vor allem aus Marketinggründen – zunehmend an Bedeutung, allerdings bestehe noch ein erheblicher Forschungs- und Evaluationsbedarf. Sabrina Schrammel und Konstantin Mitgutsch kritisieren, dass im medienpädagogischen Diskurs über Computerspiele der Umstand vernachlässigt werde, dass Spielen eine kulturell geprägte, aktive Auseinandersetzung mit einem Spielgegenstand sei. Ihnen geht es im vorliegenden Beitrag daher darum, die spezifische medial- kulturelle Praktik des Computerspielens zu erfassen bzw. dafür einen geeigneten methodischen und theoretischen Zugang zu entwickeln und vorzustellen. Das Spielen von Computerspielen wird in Anlehnung an den internationalen Diskurs als Transformation und Produktion kultureller Erfahrungen interpretiert, auch um aus den Engführungen der im deutschsprachigen Raum noch dominierenden Mediennutzungs- und Medienwirkungsforschung herauszugelangen. Für die pädagogische Auseinandersetzung wird daraus abgeleitet, dass nicht die didaktische Nützlichkeit, sondern die bildungstheoretische Bedeutung von Computerspielen zu fokussieren sei. Den bisher vorherrschenden teleologischen Lernkonzepten wird hier ein genealogischer Ansatz gegenübergestellt, bei dem die Erfahrungen und Lernprozesse im Zuge der Spielhandlungen selbst thematisiert werden. An einem Beispiel wird abschliessend verdeutlicht, wie das theoretisch-methodische Vorgehen einer hierauf ausgerichteten Analyse ausgestaltet und wie bei einer solchen Analyse die medial-kulturelle Praktik des Computerspielens pädagogisch rekonstruiert werden kann. Steffen Malo, Maik Neudorf und Thorben Wist ordnen ihren Beitrag in den Kontext des Game-based Training (GBT) ein und berichten über das Projekt Alphabit, bei dem es darum geht, computerbasierte Lern- bzw. Trainingsspiele als ergänzendes methodisches Mittel für Alphabetisierungs- bzw. Grundbildungsprogramme einzusetzen. Vorgestellt werden die im Projekt entwickelten konzeptionellen Überlegungen zu den Rahmenbedingungen, zur Auswahl der Inhalte, zu unterstützenden instruktionalen Hilfen, zu den Entwicklungsprozessen und zu methodischen Aspekten des spielerischen Lernens in virtuellen Umgebungen. Ausserdem werden erste Ansätze für die Umsetzung präsentiert und offene Forschungsfragen aufgezeigt. Auch Jochen Pfannstiel, Volker Sänger und Claudia Schmitz berichten über ein Projekt, das für die Bildungspraxis konzipiert wurde und auch bereits erprobt wird. Hier geht es um Game- based Learning im Hochschulbereich, genauer: um ein Lernspiel, das ergänzend zu einer Pflichtvorlesung in der Informatik eingesetzt wird, um Studierende dazu zu motivieren, sich während des Studiums intensiver und vertiefend mit der Vorlesungsthematik zu befassen. Ziel ist also ein verbessertes und vor allem nachhaltigeres Verständnis der Vorlesungsinhalte durch spielerische Mittel zu erreichen. Der Beitrag beschreibt das dazu entwickelte Lernspiel und berichtet über die bisherigen Erfahrungen und erste Evaluationsergebnisse. * Eine Ausnahme erscheint allerdings erwähnenswert: In der ersten Hälfte der 1980er Jahre gab es in der Bundesrepublik Deutschland eine Debatte (und einige Forschungsarbeiten) zum Videospiel in Spielhallen mit dem Ergebnis, dass 1985 ein geändertes Jugendschutzgesetz in Kraft trat, das den Zugang zu Glücks- und Videospielautomaten in der Öffentlichkeit neu regulierte und unter 18-Jährigen nicht mehr gestattete. Diese Regelung ist – anders als die 2003 obligatorisch gewordenen Altersfreigaben der USK für Computerspiele auf Datenträgern – unabhängig vom Inhalt der Spiele, und sie ist bis heute in Kraft. Literatur Copier, Marinka/Raessens, Joost (Eds.) (2003): Level Up. Digital Games Research Conference, 4–6 November 2003, Utrecht University, Conference Proceedings. De Castell, Suzanne/Jenson, Jennifer (Eds.) (2007): Worlds in Play. International Perspectives on Digital Games Research. New York et al.: Peter Lang. Fritz, Jürgen/Fehr, Wolfgang (Hrsg.) (2003): Computerspiele. Virtuelle Spiel- und Lernwelten. Bonn: Bundeszentrale für politische Bildung. Fromme, Johannes, Meder, Norbert; Vollmer, Nikolaus (2000). Computerspiele in der Kinderkultur. Opladen: Leske + Budrich. Juul, Jesper (2005). Half-real. Video games between real rules and fictional worlds. Cambridge, Mass.: MIT Press. Kafai, Yasmin B./Heeter, Carrie/Denner, Jill/Sun, Jennifer Y. (Eds.) (2008): Beyond Barbie and Mortal Kombat. New Perspectives on Gender and Gaming. Cambridge, Mass./London: MIT Press. Kaminski, Winfred/Lorber, Martin (Hrsg.) (2006): Clash of Realities. Computerspiele und soziale Wirklichkeit. München: Kopäd. Klimmt, Christoph (2005): Computerspielen als Handlung. Dimensionen und Determinanten des Erlebens interaktiver Unterhaltungssoftware. Köln: Herbert von Halem. Mäyrä, Frans (2008): An Introduction to Game Studies. Games in Culture. Los Angeleos u.a.: SAGE. Neitzel, Britta/Bopp, Matthias/Nohr, Rolf F. (Hrsg.) (2004): «See? I'm real …» Multidisziplinäre Zugänge zum Computerspiel am Beispiel von ‹Silent Hill›. Münster: Lit. Newman, James (2003): Videogames. London/New York: Routledge. Pearce, Celia/Artemesia (2009): Communities of Play. Emergent Cultures in Multiplayer Games and Virtual Worlds. Cambridge, Mass./London: MIT Press. Quandt, Thorsten/Wimmer, Jeffrey/Wolling, Jens (Hrsg.) (2008): Die Computerspieler. Studien zur Nutzung von Computergames. Wiesbaden: VS Verlag. Raessens, Joost; Goldstein, Jeffrey (2005) (Ed). Handbook of Computer Game Studies. Cambridge, Mass.: MIT Press. Vorderer, Peter; Bryant, Jennings (2006) (Ed). Playing Video Games. Motives, Responses, and Consequences. Mahwah, NJ: Lawrence Erlbaum. Wolf, Mark J./Perron, Bernard (Eds.) (2003): The Video Game Theory Reader. New York/London: Routledge.
BASE