Die Inhalte der verlinkten Blogs und Blog Beiträge unterliegen in vielen Fällen keiner redaktionellen Kontrolle.
Warnung zur Verfügbarkeit
Eine dauerhafte Verfügbarkeit ist nicht garantiert und liegt vollumfänglich in den Händen der Blogbetreiber:innen. Bitte erstellen Sie sich selbständig eine Kopie falls Sie einen Blog Beitrag zitieren möchten.
Anfang Februar soll die Novelle ins Bundeskabinett, ohne Erhöhung der Bedarfssätze. Diese seien langfristig gesehen stärker gestiegen als die Inflation, argumentiert das Ministerium. Mehr Geld auszugeben, wäre "unseriös". Was Studierendenwerk, Studierende und Parlamentarier dazu sagen.
Wird das BAföG den stark gestiegenen Lebenshaltungskosten der Studierenden gerecht? Foto: pxhere.
NÄCHSTE WOCHE, am 7. Februar, steht die geplante BAföG-Reform zum Beschluss im Bundeskabinett an, wenn bis dahin die Ressortabstimmung klappt. Zuvor verteidigt BMBF-Staatssekretär Jens Brandenburg (FDP) das Vorhaben noch einmal gegen Kritiker. Hochschulen, Verbände und die Bundestagsopposition hatten dem Bundesbildungsministerium Halbherzigkeit vorgeworfen, weil es von den 150 Millionen Euro, die der Haushaltsausschuss eigens für die Reform bereitgestellt hatte, nur rund 62 Millionen Euro nutzen will. Sogar Ampel-Haushaltspolitiker hatten von Bundesbildungsministerin Bettina Stark-Watzinger (ebenfalls FDP) mehr Ehrgeiz gefordert – vor allem in Form weiterer Erhöhungen der Bedarfssätze und der Wohnkostenpauschale, um die hohen Preissteigerungen auszugleichen. Diese sieht der BMBF-Referentenentwurf nicht vor.
"Es stimmt nicht, dass die Inflation die letzte Erhöhung der Freibeträge bereits aufgefressen hat", sagte Brandenburg auf Anfrage. Die Elternfreibeträge seien zum August 2022 um knapp 21 Prozent angehoben worden, während die Nettoeinkommen seit der letzten Reform der Vorgängerregierung 2019 nur um 16 Prozent gestiegen seien. Und Brandenburg fügte hinzu: "Im langfristigen Mittel sind die BAföG-Bedarfssätze stärker gestiegen als die Verbraucherpreise."
"Die Trendwende bei der Gefördetenzahl fortsetzen"
Dass das BMBF die Freibeträge jetzt um weitere fünf Prozent erhöhen, die Bedarfssätze aber unverändert lassen will, begründet der parlamentarische Staatssekretär so: "Höhere Freibeträge führen zu mehr BAföG-Berechtigten, womit wir die Trendwende bei der Gefördertenzahl fortsetzen wollen."
Im vergangenen August hatte das Statistische Bundesamt berichtet, dass die Zahl der geförderten Studierenden 2022 um knapp fünf Prozent geklettert war, der zweite Anstieg in Folge, nachdem es zwischen 2013 und 2020 Jahr für Jahr teilweise kräftige Rückgänge gegeben hatte.
Neben neuen Berechtigten, sagt Jens Brandenburg, profitierten von einer Erhöhung der Freibeträge auch alle Studierenden in Teilförderung, weil dadurch ihr BAföG-Anspruch steige. "Diese beiden Gruppen haben zumeist die größeren finanziellen Herausforderungen, da das Kindergeld von monatlich 250 Euro auf den Unterhaltsanspruch – anders als auf die reine BAföG-Förderung – angerechnet wird."
Geht es den Vollgeförderten im Vergleich dazu tatsächlich besser, weshalb bei ihnen weniger Anpassungsbedarf besteht? Schon Mitte Januar, als der BMBF-Referentenentwurf bekannt wurde, hatte eine Sprecherin des Ministeriums erklärt, ein großer Teil der Studierenden befinde sich im Erststudium, in Vollzeit und Präsenz, sei ledig und wohnt auswärts. Für diese Gruppe habe eine eigens in Auftrag gegebene Inflations-Wirkungsanalyse Mitte 2023 monatliche Ausgaben von 986 Euro für das Jahr 2024 prognostiziert – im Vergleich zu einem aktuellen BAföG-Höchstsatz von 934 Euro. "Insgesamt können voll geförderte Studierende mit Kindergeldanspruch also monatlich bis zu 1.184 Euro an staatlicher Unterstützung beziehen, während die Vergleichsgruppe im Schnitt lediglich 986 Euro monatlich ausgibt." Eben weil, siehe oben, das Kindergeld bei ihnen nicht angerechnet wird. Dabei seien Stipendien und Bildungskredit noch gar nicht berücksichtigt und auch nicht Nebentätigkeiten, die bis zur Minijobgrenze ebenfalls nicht auf das BAföG angerechnet würden.
BMBF: 150 Millionen Euro mehr fürs BAföG bedeuten später 600 Millionen Euro mehr pro Jahr
Die Argumentation des BMBF ist also klar: Weil der Bundeshaushalt nun einmal so knapp sei, könne man nicht alles machen, müsse priorisieren und das tun, was am meisten helfe. Bei Jens Brandenburg klingt das so: "Mit dem nächsten Schritt der BAföG-Reform sorgen wir für weitere strukturelle und finanzielle Verbesserungen beim BAföG noch in diesem Jahr. Mit strukturellen Änderungen und dem Abbau von bürokratischen Hürden werden wir nachhaltige Verbesserungen erreichen, die das BAföG noch stärker an die Lebensrealitäten anpasst. Darüber hinaus erhöhen wir noch einmal die Elternfreibeträge."
Warum aber gibt das BMBF überhaupt weniger als die Hälfte des Geldes aus, das es dieses Jahr für die Novelle bekommen hat? Hierauf antwortet nicht Brandenburg, sondern ein Sprecher des Ministeriums. Er verweist darauf, dass BAföG-Änderungen in der Regel zu mehrjährigen Kosten führten. Der aktuelle Referentenentwurf sei deshalb so konzipiert worden, dass die Kosten im BAföG in allen kommenden Jahren in der bestehenden Finanzplanung gedeckt seien. "Alles andere wäre unseriös." Da die geplanten Veränderungen erst zum Wintersemester 2024/25 in Kraft treten sollten, fielen die Ausgaben im ersten Jahr der Reform noch geringer aus als in den folgenden Vollwirkungsjahren. Die Schlussfolgerung laut BMBF: "Würden die 150 Millionen Euro 2024 komplett für dauerhafte Änderungen des BAföG eingesetzt, würden in den Folgejahren Kosten von rund 600 Millionen Euro pro Jahr entstehen, die zusätzlich finanziert werden müssten."
Womit das BMBF den Ball recht eindeutig ins Feld der Ampel-Haushaltspolitiker zurückspielt. Motto: Wer mehr will, muss eben auch genug zahlen – und zwar 2025 und in den Folgejahren.
Tatsächlich bestätigt SPD-Haushaltspolitikerin Wiebke Esdar, dass eine BAföG-Änderung, die zum Wintersemesters 2024/25 greift, im Jahr 2025 über das ganze Jahr "natürlich deutlich mehr" kosten würde, "allerdings nicht ganz das Vierfache". Weil erstens die geplante Studienstarthilfe für Studienanfänger aus einkommensschwachen Familien 2024 und jedes Jahr danach in gleicher Höhe anfalle. Weil zweitens das Semester an Hochschulen für Angewandte Wissenschaften schon früher anfange und die Reform für HAW-Studierende entsprechend für ein Drittel des Jahres gelte. Und weil drittens jedes Jahr ohne BAföG-Erhöhung der kumulierte BAföG-Anspruch der Studierenden allein dadurch sinke, dass die Gehälter und Löhne der Eltern stiegen. "Das BMBF selbst hat diesen jährlichen Rückgang der Kosten im Referentenentwurf mit jährlich etwas über zwölf Prozent angesetzt."
SPD-Haushälterin Esdar: Haben als Haushaltsausschuss deutlich gemacht, wofür wir das Geld bereitstellen
Esdar betont, allein in den vergangenen drei Jahren seien die Verbraucherpreise laut Statistischen Bundesamt um mehr als 17 Prozent geklettert. "Nahrungsmittel – ein Ausgabenbereich, der für Geringverdienende wie Studierende besonders stark ins Gewicht fällt – sind in dem Zeitraum um mehr als 30 Prozent teurer geworden. Das können wir nicht außer Acht lassen." Daher sei beides erforderlich: "Die Hebung der Freibeträge, damit mehr Studierende gefördert werden und damit auch diejenigen mit einer Teilförderung mehr bekommen. Wir brauchen aber auch einen Anstieg der Höchstförderung." Denn: "Mit dem Maßgabebeschluss haben wir als Haushaltsauschuss auch deutlich gemacht, wofür genau wir das zusätzliche Geld bereitstellen, nämlich auch dafür, dass das BAföG den stark gewachsenen Lebenshaltungskosten der Studierenden gerecht wird – natürlich betrifft das auch die Studierenden, die heute schon den Höchstsatz bekommen."
Die 150 Millionen Euro extra für die BAföG-Reform hatte der Haushaltsausschuss in seiner Bereinigungssitzung Mitte November nicht nur mit der Forderung verbunden, dass die Novelle zum Wintersemester 2024/25 startet, sondern die Förderung solle außerdem "den stark gewachsenen Lebenshaltungskosten der Studierenden sowie ihrer veränderten Lebens- und Studienrealität gerecht" werden. Gleichzeitig solle mit dem Geld die Anpassung des BAföG-Bedarfssatzes an das Existenzminimum und "der Sätze für Unterhaltszahlung infolge der zu erwartenden Rechtsprechung des Bundesverfassungsgerichts" finanziert werden.
Mit einem Sperrvermerk sorgten die Haushaltspolitiker dafür, dass das Extra-Geld erst bei Vorliegen der Novelle fließen soll – was auch verhindern würde, dass sie vorher im Rahmen einer sogenannten Globalen Minderausgabe verschwinden. In Teil 2 der Bereinigungssitzung am 18. Januar bekräftigte der Haushaltsausschuss dann per Maßgabebeschluss, dass alle von ihm dem 2024er BMBF-Haushalt hinzugefügten Einzelmaßnahmen "im vollen finanziellen sowie inhaltlichen Umfang umgesetzt werden" müssten – also auch die BAföG-Reform.
Müsste der Haushaltsausschuss dann aber nicht auch selbst B sagen und dem BMBF mehr Geld für die Folgejahre in Aussicht stellen? Haushaltspolitikerin Esdar dreht in ihrer Antwort den Spieß um: Dass das Parlament für eine schnelle Umsetzung der im Ampel-Koalitionsvertrags vereinbarten BAföG-Reform 150 Millionen Euro zur Verfügung gestellt habe, "heißt nicht, dass wir nicht für die folgenden Jahre entsprechende Umschichtungen im BMBF-Haushalt erwarten. Der Beschluss bringt somit auch eine klare Erwartungshaltung zum Ausdruck, das BAföG zu priorisieren." Auch in der Vergangenheit seien BAföG-Reformen durch Umschichtungen innerhalb des BMBF finanziert worden, etwa zu Zeiten der SPD-Ministerin Edelgard Bulmahn.
Studierendenwerk: Das BMBF-Inflationsargument hat schon das Bundesverwaltungsgericht nicht überzeugt
Druck kommt auch vom Deutschen Studierendenwerk (DSW). Dessen Vorstandsvorsitzender Matthias Anbuhl hatte den BMBF-Referentenentwurf in einer ersten Reaktion vor drei Wochen bereits als "herbe Enttäuschung" und eine "blutleere Klein-Novelle" bezeichnet. Jetzt sagt Anbuhl: Der Haushaltsausschuss gebe dem BMBF explizit vor, "dass es die 150 Millionen Euro zweckgebunden nutzt für eine große BAföG-Reform und für eine Anhebung der Bedarfssätze angesichts des bevorstehenden Urteils des Bundesverfassungsgerichts."
2021 war das Bundesverwaltungsgericht zum Ergebnis gekommen, dass die Berechnung der BAföG-Sätze zumindest im Zeitraum Oktober 2014 bis Februar 2015 nicht vereinbar mit dem Grundgesetz gewesen sei. Geklagt hatte eine Osnabrücker Studentin und war durch mehrere Instanzen gegangen. Weil das Bundesverwaltungsgericht aber nicht berechtigt ist, die Verfassungswidrigkeit eines Parlamentsgesetzes festzustellen, legte es die Sache dem Bundesverfassungsgericht zur Entscheidung vor.
Das jetzt vom Bildungsministerium angeführte Argument mit den stärker als die Inflation gestiegenen Bedarfssätzen habe schon das Bundesverwaltungsgericht nicht überzeugt, sagt Anbuhl. Stattdessen habe das Gericht in seinem Beschluss völlig zurecht darauf hingewiesen: "Die relative Entwicklung der Indizes zueinander besagt nichts darüber, ob der Bedarfssatz auskömmlich ist, weil dies in erster Linie von der Höhe des Ausgangsbetrages abhängt. Referenzjahr ist insoweit das Jahr 2000, für das der 20. Bericht die Auskömmlichkeit des Bedarfssatzes nicht ansatzweise darstellt." Es sei darüber hinaus bezeichnend, dass staatliche Leistungen wie das Bürgergeld, die an die an aktuellen Entwicklungen gekoppelt seien, in diesem Jahr deutlich angehoben würden, während die BAföG-Beziehenden leer ausgingen.
Ähnlich argumentiert der Studierendenverband fzs. "Es muss ein Ende dieser schönrechnenden und verwaltenden Politik geben, es braucht endlich eine bedarfsgerechte Förderung", sagte fzs-Vorstandsmitglied Niklas Röpke. Das BAföG sei immer noch eine "sehr starre, pauschalisierende Transferleistung". Auf von dem Durchschnitt abweichende Lebensrealitäten, etwa den deutlich höheren Mieten in München und anderswo, werde durch das Ausbleiben der Anpassung der Wohnkostenpauschale gar nicht eingegangen." Und was das BMBF-Beispiel für Vollgeförderte angehe: "Kindergeld gibt es allerdings nur bis zum 25. Lebensjahr. Es wird also so getan, als gäbe es keine Studierenden, die älter 25 Jahre alt sind." Die angebliche Lücke zwischen den Ausgaben und staatlichen Bezügen sei in der Realität nicht auffindbar. "Sozialgerechte Bildung muss als wichtige Zukunftsinvestition anerkannt werden, statt dass sie unter selbst auferlegten Sparzwängen leidet."
CDU: Bei Anpassungen von Bürgergeld und BAföG braucht es Gleichbehandlung
Der CDU-Bildungspolitiker Thomas Jarzombek wirft dem Ministerium von Bettina Stark-Watzinger eine hinkende Argumentation vor. " Ich finde es zynisch, den Studierenden zu unterstellen, sie hätten am Monatsende ein erhebliches Plus gehabt. Das deckt sich nicht mit der Lebensrealität, insbesondere angesichts der Mieten in den großen Städten." Die Regierungskoalition müsse an dem gemessen werden, was im Koalitionsvertrag versprochen wurde. "Von einem 'grundlegend reformierten BAföG' sehe ich nichts." Der vorliegende Referentenentwurf, der innerhalb der Regierungskoalition nicht geeint sei, gebe keine Antwort auf die steigenden Lebenshaltungskosten.
Im Gegensatz zu den sozialgesetzlichen Regelungen anderer Ressorts, etwa beim Bürgergeld im Geschäftsbereich des Bundesministerium für Arbeit und Soziales (BMAS), argumentiere das BMBF im Sinne einer Verteilung von sozialen Mitteln "nach Kassenlage", kritisierte Jarzombek weiter. "Es erschließt sich mir nicht, nach welchem Maßstab die Bundesregierung ihre sozialgesetzlichen Regelungen austariert." Bei Anpassungen von Bedarfssätzen im Bürgergeld und BAföG brauche es eine Gleichbehandlung. "Auch sollte geprüft werden, ob das BAföG nicht sinnvoller im BMAS bewirtschaftet werden könnte."
SPD-Haushälterin Esdar sagt, sie hoffe, dass der Gesetzentwurf wie geplant nächste Woche das Kabinett passiere, damit anschließend die parlamentarischen Beratungen beginnen könnten. "Dann werden unsere FachpolitikerInnen – eng abgestimmt mit denen im Haushaltsausschuss – in die Verhandlungen gehen. Die SPD wird für weitere Verbesserungen für die Studierenden kämpfen." Der Haushaltsausschuss erwarte, dass das Ministerium genau prüfe, was nötig sei, um seine Beschlüsse in vollem Umfang umzusetzen. Esdar verwies auf den Maßgabebeschluss vom 18. Januar. "Ob und wann wir gänzlich oder auch partiell Mittel freigeben, hängt dann an der Einschätzung des Haushaltsauschusses in der Sache."
Am Dienstagabend debattiert der Bundestag über den BMBF-Etat für 2024 inklusive der darin vorgesehenen Einsparungen, aber auch der Extras, die der Haushaltsausschuss beschlossen hat. Am Freitag soll der Bundeshaushalt dann innerhalb weniger Stunden Bundestag und Bundesrat passieren.
Hinweis: In der ursprünglichen Version stand, dass der Referentenentwurf am 31. Januar ins Kabinett solle. Tatsächlich ist die Kabinettsbefassung erst eine Woche später, am 07. Februar, vorgesehen. Ich bitte, den Fehler zu entschuldigen.
Kostenfreien Newsletter abonnieren
In eigener Sache: Blog-Finanzierung
Welche guten Nachrichten ich in Sachen Blogfinanzierung habe, warum ich weiter dringend Ihre Unterstützung brauche – und welche Artikel im Dezember am meisten gelesen wurden.
Die Inhalte der verlinkten Blogs und Blog Beiträge unterliegen in vielen Fällen keiner redaktionellen Kontrolle.
Warnung zur Verfügbarkeit
Eine dauerhafte Verfügbarkeit ist nicht garantiert und liegt vollumfänglich in den Händen der Blogbetreiber:innen. Bitte erstellen Sie sich selbständig eine Kopie falls Sie einen Blog Beitrag zitieren möchten.
Die "Professorenmehrheit" gehört zu den vermeintlich unverrückbaren Grundgesetzen deutscher Hochschulgovernance. Das Urteil, das sie begründete, ist jetzt genau ein halbes Jahrhundert alt. Was bedeutet das für Hochschulreformen heute und in Zukunft? Ein Gastbeitrag von Hans-Gerhard Husung.
Hans-Gerhard Husung (SPD) war Staatssekretär für Wissenschaft und Forschung in Berlin und von 2011 bis 2016 Generalsekretär der Gemeinsamen Wissenschaftskonferenz (GWK). Foto: privat.
AM 29. MAI 1973 fällte das Bundesverfassungsgericht sein "Hochschulurteil" (BVerfGE 35, 79) über die Klage von 398 Professorinnen und Professoren. Sie hatten sich gegen einzelne Bestimmungen des "Niedersächsischen Vorschaltgesetzes" von 1971 gewehrt, das zu einem späteren Gesamthochschulgesetz hinführen sollte. 600 Beigeladene aus anderen Bundesländern und 70 Prozessvertreter unterstrichen die Bedeutung des Verfahrens als Kulminationspunkt des historischen Ringens um die Gestaltung der Machtverhältnisse in den Hochschulen. Wie war es dazu gekommen? Und warum ist das Urteil heute immer noch so wichtig?
Die zu Beginn der 1960er Jahre einsetzende Bildungsexpansion erreichte bald auch die Universitäten. Die überkommene "Ordinarienuniversität" geriet durch das rapide Wachstum der Studierendenzahlen und damit einhergehend der Professuren und anderer akademischer Personalkategorien zunehmend unter Druck. Die "Integrierte Gesamthochschule", eine Verbindung von Universität, Pädagogischer Hochschule und Fachhochschule, wurde je nach politischer Couleur als Königs- oder Holzweg propagiert. Willy Brandts Losung 1969 "Mehr Demokratie wagen" beschrieb eine breite Grundstimmung an den Hochschulen nur zu gut.
Wie die Professoren sich gegen Forderungen nach einer "Drittelparität" organisierten
"Drittelparität" zwischen den Gruppen der Professoren, Wissenschaftlichen Mitarbeiter und Studierenden war als Forderung ebenso populär wie umstritten, also eine Stimmengleichheit in allen wichtigen Hochschulgremien und vor allem im Senat. Der "Bund Freiheit der Wissenschaften" entstand in der Professorenschaft zunächst aus der Sorge um die Funktionsfähigkeit der Universitäten, radikalisierte sich aber zunehmend. Konservative Professoren fanden auch im damaligen Deutschen Hochschullehrerverband ein hochschulpolitisches Sprachrohr.
Als bundesweiter Gegenspieler profilierte sich die "Bundesassistentenkonferenz". Die Studierenden organisierten sich in durchweg linken Gruppen. Auch die großen Parteien positionierten sich in dieser Frage konträr, SPD und FDP einerseits und CDU/CSU andererseits.
Beginnend 1966 mit Hessen betraten die Länder in diesem hochschulpolitisch aufgeheizten Klima mit ihren ersten Hochschulgesetzen juristisches Neuland. Zugleich versuchten sie, Reformdruck auf die Bundesebene abzuleiten, und eröffneten noch zu Zeiten der Großen Koalition aus CDU und SPD mit ihrer Zustimmung zur Grundgesetzreforn von 1969 dem Bund die neue Möglichkeit der Rahmengesetzgebung für den Hochschulbereich.
Nach der Bundestagswahl 1969 lag diese Kompetenz nun in den Händen der sozialliberalen Koalition aus SPD und FDP, die grundsätzlich in der Frage der Gruppenuniversität mit paritätischer Mitbestimmung ebenso aufgeschlossen waren wie bei der Reformzielsetzung "Gesamthochschule". Die CDU/CSU hingegen sorgte sich vor allem um die Funktionsfähigkeit der Universitäten, die sie insbesondere durch die politisierten Studierenden in Gefahr sah, und trat dafür ein, in allen Gremien den Hochschullehrern unbedingt die Mehrheit zu sichern.
In diesen Kontext gehörte das Niedersächsische Vorschaltgesetz von 1971 aus der Feder des sozialdemokratischen Kultusministers Professor Peter von Oertzen, der für viele seiner Standeskollegen ein "rotes Tuch" war. Er hatte an einer empfindlichen Stelle den Hebel angesetzt: Zur Gruppe der Professoren sollten nun auch Nichthabilitierte bis hin zu Studienräten im Hochschuldienst sowie Lektoren und Studienleiter gehören. Zudem führte das Gesetz in den Selbstverwaltungsgremien die Viertelparität aus Hochschullehrern, "Wissenschaftlichen Assistenten", Studierenden und sonstigen Mitarbeitern ein – faktisch also eine doppelte Entmachtung der "Ordinarien".
Richterkritik an der Ordinarienuniversität, Unterstützung von Reformen – und ein großes Aber
Der Erste Senat des Bundesverfassungsgerichts unter seinem Vorsitzenden Professor Ernst Benda, zuvor kurze Zeit CDU-Innenminister in der Großen Koalition, kam nach einer prägnanten Analyse der historischen, funktionalen und sozialen Entwicklungen der Universitäten in Deutschland seit Humboldt zu seiner Lagebeurteilung, dass in mehrfacher Hinsicht Reformbedarf bestehe: "Die bisherige Ordinarienuniversität, in der die Selbstverwaltung im Wesentlichen den Lehrstuhlinhabern vorbehalten blieb, war organisatorisch weder auf den sprunghaften Anstieg der Studentenzahl noch auf die vermehrte Übernahme von Aufgaben und Funktionen durch Nichtordinarien, insbesondere durch wissenschaftliche Assistenten vorbereitet. Die Vergrößerung des akademischen 'Mittelbaus' und seine zunehmende Bedeutung für den Gesamtprozeß der Wissenschaft standen in einem Mißverhältnis zu seinen geringen Kompetenzen in der Selbstverwaltung. Bei den Studenten verstärkte das Ausbleiben einer der wissenschaftlichen und gesellschaftlichen Entwicklung Rechnung tragenden Studienreform das Begehren, Einfluß auf die Wissenschaftsverwaltung zu nehmen."
Durchgreifende Reformen seien seit langem verzögert worden, woran "auch die Ordinarienuniversität Mitverantwortung trägt". Die Interessengegensätze zwischen der Gruppe der Hochschullehrer und den anderen oft als "unterprivilegiert" bezeichneten Gruppen in der Realität des Hochschullebens seien sehr stark hervorgetreten. Die "Gruppenuniversität" mache diese Interessengegensätze durch ihre "Gruppentypik" noch deutlicher und könne sie unter Umständen sogar verfestigen. Dieses Modell sei gleichwohl "mit der Wertentscheidung des Art. 5 Abs. 3 GG vereinbar".
Da die Garantie der Wissenschaftsfreiheit nicht an eine bestimmte Organisationsform des Wissenschaftsbetriebs gebunden sei und der Gesetzgeber dabei erhebliche Ermessensspielräume habe, sei es vertretbar, die Gruppenuniversität als ein Instrument zur Lösung der Gruppenkonflikte in der Universität und ein Mittel zur Mobilisierung des Sachverstandes der einzelnen Gruppen zu nutzen, um auf diese Weise eine bessere Entscheidungsfindung bei der Verwaltung der Universität zu fördern – also bis hierher 1:0 für die Reformer.
In der weiteren verfassungsrechtlichen Rechtfertigung wurde dieser Grundsatz jedoch schrittweise ausgehöhlt, da das Gericht mehrheitlich von einem unmittelbaren kausalen Zusammenhang zwischen organisatorischen Normen und möglichen Beeinträchtigungen der freien Ausübung von Forschung und Lehre ausging. Es seien nicht die Beschlüsse kollegialer Organe, die die Wissenschaftsfreiheit faktisch beschränken könnten – also die Praxis der Organe, die im Einzelfall verfassungswidrig sein könnte –, sondern die Organisationsformen der Hochschule selbst, die die Möglichkeiten des Einzelnen zur Verwirklichung des Grundrechts bestimmten. "Ein effektiver Grundrechtsschutz erfordert daher adäquate organisationsrechtliche Vorkehrungen."
Die Prozentrechnung des Bundesverfassungsgerichts
Solche Vorkehrungen wollte die Kammer allerdings nicht dem Gesetzgeber überlassen, sondern sie waren Gegenstand ausführlicher Erörterungen des Gerichts, ausgehend von dem einmütig im Ersten Senat geteilten Grundsatz, "daß zwischen den einzelnen Gruppen der Hochschulangehörigen gewichtige rechtserhebliche Unterschiede bestehen, deren Nivellierung nach dem Schema 'one man one vote' zu Recht von niemand befürwortet wird." Ins Zentrum rückte die Frage nach der besonderen Stellung der "Hochschullehrer": Aufgrund ihrer herausgehobenen Qualifikation, Funktion und Verantwortung sowie der Dauer ihrer Zugehörigkeit zur Universität und ihrer Betroffenheit habe der Gesetzgeber zu gewährleisten, dass dieser Gruppe "ein über ihr zahlenmäßiges Gewicht wesentlich hinausgehender Einfluß auf die Willensbildung in den Organen" eingeräumt werde.
Damit noch nicht genug: Das "Wie" wurde keineswegs dem Gesetzgeber überlassen, sondern präventiv vom Bundesverfassungsgericht weiter konkretisiert. Bei allen Entscheidungen, die unmittelbar die Lehre betreffen, müssen die Hochschullehrer seitdem über 50 Prozent der Stimmen verfügen. "Bei Entscheidungen, die unmittelbar Fragen der Forschung oder die Berufung der Hochschullehrer betreffen, muß der Gruppe der Hochschullehrer ein weitergehender, ausschlaggebender Einfluß vorbehalten bleiben", bestimmten die Richter zudem – also mindestens 51 Prozent.
Außerdem wurde das Postulat der "homogenen" Zusammensetzung der Gruppe der "Hochschullehrer" entwickelt. Die Position der Hochschullehrer sollte nicht durch Aufnahme anderer Wissenschaftlicher Hochschulmitglieder verwässert werden, die die Qualifikation nicht erfüllten: Habilitation oder ein sonstiger Qualifikationsbeweis und selbständige Vertretung eines wissenschaftlichen Faches in Forschung und Lehre .
Damit habe das Gericht seine Funktion überschritten und sich an die Stelle des Gesetzgebers gesetzt, kritisierten zwei Mitglieder des Ersten Senats in ihrem abweichenden Votum. Solange die Grenze des "Unabstimmbaren" als Kern der Wissenschaftsfreiheit beachtet werde, argumentierten sie, unterliege die weitere Konkretisierung der nur bedingt nachprüfbaren Eigenverantwortung des Gesetzgebers. Ob der Gesetzgeber dabei sachwidrig oder willkürlich verfahren sei, könne das Bundesverfassungsgericht nachprüfen. Zudem: Ein "ständisches Gruppenprivileg" der "Hochschullehrer" sei keineswegs unmittelbar aus der Wertentscheidung des Grundgesetz-Artikels 5, Absatz 3 ableitbar. Vielmehr sei eine solche "verfassungskräftige Institutionalisierung" charakteristisch für "oligarchische Strukturen".
Als an den Beratungen Beteiligte verwiesen die beiden Abweichler darauf, dass sowohl bei den Klägern als auch bei der Mehrheit des Senats die aufgewühlte hochschulpolitische Situation eine bedeutende Rolle gespielt habe. "Bei einer grundlegenden Änderung dieser Situation – etwa bei der Auflösung des derzeitigen Gruppenkonflikts, einer stärkeren Annäherung des Mittelbaus an die Hochschullehrer oder anderen wesentlichen Veränderungen in der Grundeinstellung der Hochschulangehörigen zueinander" –, bestehe die Gefahr, dass die Vorgaben des Urteils ein "unerwünschtes Eigenleben" entwickelten.
Österreich: Gleiche Ausgangslage,
andere Schlussfolgerungen
Wäre ein anderes Urteil mit guten Gründen möglichgewesen? Ein Blick ins Nachbarland Österreich zeigt, dass ein Verfassungsgericht nur wenige Jahre später bei vergleichbarer historischer Ausgangs- und Verfassungslage in der entscheidenden Frage zu einer anderen Beurteilung kommen konnte. Nachdem die Vorinstanz zunächst ähnlich wie das deutsche Bundesverfassungsgericht argumentiert und geurteilt hatte, entwickelte der Österreichische Verfassungsgerichtshof 1977 eine deutliche Gegenposition, die bisweilen auch als verklausulierte Kritik am Hochschulurteil des Bundesverfassungsgerichts verstanden wurde.
Mit Blick auf Artikel 17, Absatz 1 der Österreichischen Verfassung ("Die Wissenschaft und ihre Lehre ist frei") kam das Gericht zu der grundsätzlichen Einschätzung, dass auch unter Einbeziehung der historischen Universitätsentwicklung aus dem "Jedermannsrecht" der Wissenschaftsfreiheit keine Verpflichtung für den Gesetzgeber erwachse, besondere organisatorische Vorkehrungen zugunsten der Gruppe der Hochschullehrer zu treffen. Denn: "Eine Unterscheidung zwischen einer durch positive Vorkehrungen besonders zu schützenden Wissenschaftsfreiheit der Hochschullehrer und einer solche zusätzliche Vorkehrungen nicht erfordernden Wissenschaftsfreiheit aller anderen Träger dieses Rechtes aber findet im Wortlaut des Art. 17 Abs. 1 StGG ganz offensichtlich keine Grundlage." (VfGH 3.10.1977, G 13/76, G 7/77)
Das "Hochschulurteil" des Bundesverfassungsgerichts entfaltete indes in Deutschland unmittelbar Wirkung. Im sozialdemokratisch geführten Bundesministerium für Bildung und Wissenschaft unter Minister Klaus von Dohnanyi, der die Reformanliegen beim Thema "Gruppenuniversität und Drittelparität" durchaus berücksichtigen wollte, musste der für Herbst 1973 vorgesehene Entwurf umgeschrieben werden. Die parlamentarischen Beratungen waren kontrovers und langwierig; die Länder im Bundesrat waren gespalten. Erst nach einem ungewöhnlich lange (neun Monate) dauernden Verfahren im Vermittlungsausschuss zwischen Bundestag und Bundesrat konnte das Hochschulrahmengesetz 1976 verabschiedet werden.
Während im Entwurf 1973 lediglich bei Berufungen eine zusätzliche Mehrheit in der Professorengruppe vorgesehen war, ist schließlich nach dem Vermittlungsverfahren die doppelte Mehrheit der Professoren bei allen Grundsatzfragen von Forschung und bei Berufung von Professoren verankert: Solche Entscheidungen "bedürfen außer der Mehrheit des Gremiums auch der Mehrheit der dem Gremium angehörenden Professoren.(" HRG 1976, § 38,5 )
Damit hatte sich die CDU/CSU mit ihrem Fraktionsantrag von 1974 durchgesetzt, und das Hochschulrahmengesetz ging über die einschlägigen Vorgaben des Bundesverfassungsgerichts deutlich hinaus. Erst in der HRG-Novelle von 1998, mit der die Grundsätze des New Public Management ins Gesetz eingeführt wurden, fand ein Einschwenken auf das "Hochschulurteil" statt.
Obwohl die Länder seit der Grundgesetznovellierung von 2006 ihre eigenen Regelungen treffen können, zeigt ein Blick in die 16 aktuellen Hochschulgesetze, dass in einigen Ländern immer noch auf die Ur-Fassung des Hochschulrahmengesetzes von 1976 rekurriert wird mit der doppelten Mehrheit der Professoren bei grundsätzlichen Angelegenheiten von Forschung und Lehre. In den meisten Ländergesetzen finden sich zwei Varianten:Eentweder sind bei Forschung und Berufungen sowie Lehre differenzierte Mehrheiten vorgesehen, oder die Zusammensetzung des Entscheidungsorgans gewährleistet die absolute Mehrheit der Professoren. Ebenso sorgfältig wird das Homogenitätsgebot beachtet; lediglich die Juniorprofessur hat die Integration in die Professorengruppe geschafft, obwohl diese Stellen ausdrücklich der Qualifizierung für eine spätere Professur gewidmet sind und zudem das Kriterium der dauerhaften Zugehörigkeit (noch) nicht erfüllt ist.
Es bräuchte schon einen mutigen Landesgesetzgeber
Aufhorchen ließ Thüringen, das mit der viertelparitätischen Zusammensetzung des Senats ein Ausrufezeichen gesetzt hat. Doch die "Revolution" wird im selben Paragraphen wieder Bundesverfassungsgerichtkonform eingefangen: Bei Entscheidungen zu Forschung, Lehre und Berufungen wird die Professorengruppe zahlenmäßig so aufgestockt, dass ihre absolute Mehrheit gesichert ist. In Nordrhein-Westfalen wird die zahlenmäßige Zusammensetzung des Senats der jeweiligen Grundordnung überlassen; unabhängig von der Anzahl der Sitze der Professorinnen und Professoren in diesem Gremium verfügen sie über die Mehrheit der Stimmen, die beispielsweise bei viertelparitätischer Sitzverteilung durch entsprechende Gewichtung der Stimmen gewährleistet wird.
In der aktuellen Verfassungsrechtsprechung wird die klassische Paritätenfrage durch neuartige Herausforderungen in Zusammenhang mit dem Neuen Steuerungsmodell überlagert, das den Weg von der staatlichen Detailsteuerung in die Welt der autonomen, eigenverantwortlichen Hochschule beinhaltet. Mit der Übertragung vormals staatlicher Befugnisse und damit Veränderungen in der hochschulischen Organisationsstruktur sind Konstellationen entstanden, die zu Klagen führten. Vom sogenannten Brandenburg-Urteil von 2004 über die Urteile zum Hamburgischen Hochschulgesetz 2010 und die Entscheidung zur Zuweisung von wissenschaftsrelevanten Entscheidungsbefugnissen an Leitungsorgane der Medizinischen Hochschule Hannover 2014 bis hin zum Urteil des Verfassungsgerichtshofs Baden-Württemberg von 2016 hat sich der Akzent der Rechtsprechung in diese Richtung verschoben.
Gestützt auf das "Hochschulurteil" von 1973 wurde vier Jahrzehnte später offensiv der "wissenschaftsrelevante" Bereich jenseits der unmittelbaren Wirkungen auf Forschung und Lehre kritisch ausgeleuchtet: "Je mehr, je grundlegender und je substantieller wissenschaftsrelevante personelle und sachliche Entscheidungsbefugnisse dem Vertretungsorgan der akademischen Selbstverwaltung entzogen und einem Leitungsorgan zugewiesen werden, desto stärker muss die Mitwirkung des Vertretungsorgans an der Bestellung und Abberufung und an den Entscheidungen des Leitungsorgans ausgestaltet sein", heißt es 2014 im Urteil zur Medizinischen Hochschule Hannover (BVerfGE 136,338-385). In der Folge wurden in Hochschulgesetzen in unterschiedlicher Weise die Initiativmöglichkeiten der Hochschullehrer zur Abwahl von Hochschulleitungen deutlich gestärkt, die seither im Schatten der professoralen Abwahl agieren.
Gibt es Aussicht oder gar erkennbare Ansätze auf eine grundsätzliche Überprüfung des "Hochschulurteils" und eine Anpassung an veränderte Umstände? Eher nicht – es sei denn, ein mutiger Landesgesetzgeber, begleitet von breiter bundesweiter hochschulpolitischer Aufbruchstimmung, traut sich, das Risiko, erneut schmerzlich an das Urteil von 1973 erinnert zu werden, einzugehen und einen überzeugenden Aufschlag zu machen. Und zu zeigen, dass die Wissenschaftsfreiheit in Hochschulen auf anderen Wegen als durch Mehrheit der Gruppe der Professoren in Organen gesichert werden könnte.
In den letzten elf Jahren hat sich der Anteil der Internet-Benutzer, gemessen an der österreichischen Gesamtbevölkerung, mehr als verdreifacht. Während die Anzahl der Personen, die das World-Wide-Web vom Arbeits- oder Ausbildungsplatz nutzen, stetig stieg, hat sich auch die Personengruppe, die Internet von zu Hause benutzen um 60% gesteigert. Für den Nutzer wurde das Internet fixer Bestandteil seines Lebens. Vor allem bei 'Onlinebanking, bei Behördenwegen, bei der gezielten Informationssuche und der Pflege sozialer Kontakte ist das Internet unverzichtbar geworden', so Maria Kostner, Online Expertin bei der GFK Austria dazu in der Presseaussendung zum Online Monitor 2009. Das liegt zum Einen an der technologischen und preislichen Entwicklung (Breitband Ausbau, Wlan), zum Anderen auch an einem gesellschaftlichen Wandel der Wahrnehmung und somit Nutzung des Internet. Galt es vor 15 Jahren noch als Zeitvertreib für junge Techniker, ist es heute ein akzeptiertes Medium, dessen Potential in vielen Bereichen erkannt wird. Da Medien unverzichtbare Funktionen für die politische Willensbildung ausüben, haben natürlich auch politische Kampagnenplaner das Potential erkannt und nutzen das Internet verstärkt im Wahlkampf. Trotz der oben genannten Steigerungsraten und einer überdurchschnittlichen Bedeutung unter Meinungsführern versteht nur ein geringer Teil der Internet-Nutzer das Netz als politische Informationsquelle. Doch das Internet hat 'unmittelbaren Einfluss auf die Praxis der Politikvermittlung'. Auf der Online-Plattform der österreichischen Tageszeitung Der Standard findet sich mittlerweile ein eigenes Ressort, das sich ausschließlich mit dem Thema Politik und Internet beschäftigt. Der Trend das WorldWideWeb in politischen Kampagnen einzusetzen, ist über die Jahre mit der Internetnutzung immer stärker gewachsen, und hat seinen Höhepunkt im Jahr 2008 mit dem Wahlkampf des derzeitigen amerikanischen Präsidenten Barack Obama gefunden. Der Präsidentschaftswahlkampf von Obama, gilt nach derzeitigem Stand, als das Vorzeigebeispiel für den aktiven, kreativen und vor allem effizienten Umgang der politischen Kampagnenplanern mit neuen Medien und insbesonders dem Web 2.0. Millionen von Amerikaner waren für einige Wochen Teil eines Obama Netzwerkes. Dabei waren weniger die Inhalte von Bedeutung (diese gab es auch schon bei klassischen Kampagnen), sondern ihre Individualisierung. Jeder konnte mitmachen und Obama unterstützen. Sehr viele nahmen das Angebot an und spendeten an die Demokratische Partei. Freiwillige Helfer erhielten über das Internet, Telefonnummern unentschlossener Wähler, inklusive Leitfaden für das Gespräch, um mit den Leuten über Obama zu sprechen. Markus Beckedahl, Betreiber des in Deutschland einflussreichen Politik-Blogs netzpolitik.org, dazu: 'Obama hat seinen Wahlkampf systematisch ausgelagert und in die Hände von Anhängern gelegt, die wiederum neue Sympathisanten angeworben haben'. Der Erfolg der Kampagne hat auch damit zu tun, dass zu diesem Zeitpunkt, bereits sehr viele Amerikaner in den sozialen Netzwerken vertreten waren. Weltweit gesehen, haben bereits 62% aller Internetnutzer ein Profil in einem der sozialen Netzwerke. Wie in Abbildung 1.2 zu sehen, ist also mehr als jeder zweite Internetnutzer weltweit bereits Mitglied in einem sozialen Netzwerk wie Facebook oder MySpace. Das bedeutet eine Steigerung von 130% innerhalb von drei Jahren. Auch in den letzten österreichischen Wahlkämpfen wurde von den Parteien immer mehr Geld in das Internet investiert. Vieles wurde erreicht, aber noch mehr wurde nur halbherzig umgesetzt. Vor allem das aktuelle Aushängeschild des Web 2.0, der Mirco-Blogging-Dienst Twitter wurde eher getestet als richtig eingesetzt. So war beispielsweise Willhelm Molterer im Wahlkampf 2008 laut seinem Twitter-Account auf zwei Veranstaltungen gleichzeitig. 'Jemand hat für Molterer eingetippt. Wir hatten einen eigenen Mitarbeiter, der fast durchgehend bei ihm war' gibt Gerhard Lob, Leiter der Webredaktion der ÖVP, zu. Zumindest wird von Parteien bzw. von den Kampagnenleitern der Schritt ins Internet gewagt. Vor allem während Wahlkämpfen wird auch auf die dialogorientierten sozialen Netzwerke gesetzt. Wie sieht es mit den Politikern selbst aus? Die Partei ist im Internet präsent, aber hat der einzelne Politiker Interesse am Medium Internet? Und nutzen Politiker überhaupt soziale Netzwerke? Was denken Österreichs Politiker über die Kommunikation im WorldWideWeb? In der vorliegenden Arbeit wird der Frage nachgegangen wie Politiker das Internet und insbesondere das Web 2.0 nutzen. Forschungsstand: Die beiden größten Themenbereiche, die in diese Arbeit Eingang finden, sind das Thema der Schaffung von Öffentlichkeit durch politische Öffentlichkeitsarbeit und das Forschungsfeld der politischen Kommunikation. Wobei besonders auf die Rolle der Massenmedien in der politischen Kommunikation eingegangen wird. Es gibt verschiedene Forschungstraditionen im Bereich der politischen Kommunikation, trotzdem (oder eher deswegen) keine Einigung auf eine einheitliche Einordnung in welchem Bereich der Forschungsschwerpunkt liegt. In der vorliegenden Arbeit wird vor allem auf die publizistischen und kommunikationswissenschaftlichen Forschungstheorien eingegangen. Man kann davon ausgehen, dass diese Forschungstheorien im ersten Drittel des 19. Jahrhunderts in Europa und den USA entstand. Dabei ging es meistens um zwei unterschiedliche Blickwinkel: 'einmal Medienpolitik und die Versuche von Politikern und Parteien, Massenmedien zu instrumentalisieren, und viel mehr noch um die Auswirkungen von Presse und Rundfunk auf den politischen Prozess sowie die Frage, wie diese zustande kommen'. Am Anfang standen die in den 20er Jahren entwickelten Modelle der Propaganda, als das Radio zum Schlüsselmedium wurde und später von totalitären Systemen verwendet wurde. Nach dem zweiten Weltkrieg ging der Glaube an das große Potential einer direkten Beeinflussung von Bürgern zurück. Stattdessen wurden Modelle der begrenzten Effekte massenmedialer Kampagnen entworfen. Ihr Ziel war die Verstärkung und Mobilisierung bestehender Präferenzen. Ab den 50er und 60er Jahren galt die Herbeiführung eines Einstellungswechsels, durch Massenmedien, zunehmend als unrealistisch. Ab den 80er Jahren dominierten Agenda-Setting-Modelle5, die in der Gegenwart zu verschiedenen Modellen einer prime-time-politics, als Konvergenz medialer Arbeit und politischer Kampagnen wurden. (Pseudo)Ereignisse mediengerecht vorzubereiten, ist das Credo dieser Modelle. Mitte der 90er Jahre, begann die Kommunikationswissenschaft, sich mit dem Internet wissenschaftlich auseinanderzusetzen. Auch die politische Kommunikation wurde unter Berücksichtigung des neuen Mediums erforscht. Dabei ging es vordergründig darum, ob das Internet der Demokratie zu neuer Qualität verhelfen kann, bzw. wie sich die Demokratie verändert. So fragt Winfried Gellner in Demokratie und Internet, ob sich durch die technischen Eigenschaften des Internet, der Traum von der Wiederbelebung der antiken Agora verwirklicht oder ob die Bürger in einer 'Internetrepublik' einer neuen Variante von Totalitarismus entgegensehen. Die Forschung zum Thema Politiker im Web 2.0, ist noch nicht sehr weit fortgeschritten in Österreich. In Deutschland gibt es regelmäßige Studien die alle Aktivitäten der Parteien und Politiker in monatlichen Abständen vergleichen, oder Webseiten, welche die Twitter Accounts der großen Parteien übersichtlich darstellen und miteinander vergleichen. In Österreich gibt es eine Reihe von Diplomarbeiten, deren Autoren sich mit dem Thema beschäftigten. So schrieb Tina Brunauer 2007 ihre Diplomarbeit zum Thema 'Social Software in politischen Kampagnen'. Der zweite theoretische Schwerpunkt ist Öffentlichkeit. Trotz der zentralen Bedeutung von Öffentlichkeit in der politischen Kommunikation erfuhr der Begriff in den Sozialwissenschaften lange keine Ausarbeitung. Der Begriff Öffentlichkeit entstand im 18. Jahrhundert als Folge der politischen Forderung nach mehr Öffentlichkeit, zur vermehrten Durchsetzung von Bürgerfreiheiten. 'Öffentlichkeit leitet sich etymologisch aus der Eigenschaft, 'Offenheit' im Sinne von 'für jedermann zugänglich' ab. Als zentrale Stellung in der Theorie der Demokratie verleiht Öffentlichkeit den politischen Entscheidungen die demokratische Legitimation'. In den Klassikern der Soziolgie (Karl Marx, Max Weber, Georg Simmel) spielt Öffentlichkeit keine oder nur eine sehr kleine Rolle. Es dauerte bis Jürgen Habermas und seinem Strukturwandel der Öffentlichkeit von 1962, bis der Begriff Eingang fand in die Sozialwissenschaften. Darauf aufbauend entstanden kritische Gegentheorien und weiterführende Theorien. Habermas bezeichnete 'Öffentlichkeit als kommunikativen Bereich, in dem alle Bürger mit Argumenten öffentliche Belange diskutieren, an deren Ende eine vernünftige öffentliche Meinung steht, die die Grundlage politischer Entscheidungen bildet'. Ralf Dahrendorf betonte 1969, dass eine dauerhafte Beteiligung aller Bürger nicht nur utopisch, sondern auch nicht wünschenswert sei. Stattdessen kommt es auf die Möglichkeit der Teilnahme und die damit verbundene Verwandlung einer an sich passiven, in eine aktive Öffentlichkeit an. Friedhelm Neidhardt definierte moderne Öffentlichkeit als relativ frei zugängliches Kommunikationsfeld, in dem 'Sprecher' mit bestimmten Thematisierungs- und Überzeugungstechniken versuchen, über die Vermittlung von 'Kommunikateuren' bei einem 'Publikum' Aufmerksamkeit und Zustimmung für bestimmte Themen und Meinungen zu finden. Forschungsfragen: In den Forschungsfragen wird der Thematik nachgegangen, ob und wie Politiker in Österreich das Web 2.0 nutzen. Wie definieren sie den Begriff Web 2.0? Auf welchen Plattformen haben Politiker ein Profil angelegt? Nutzen sie ihre Profile um mit Bürgern in einen Dialog zu kommen? Dazu wurden drei Hypothesen aufgestellt: 1. Wenn Politiker auf Web 2.0 Plattformen ein eigenes Profil besitzen, dann tritt nur eine Minderheit davon regelmäßig in Dialog mit anderen Benutzern. 2. Wenn Politiker im Nationalrat vertreten sind, benutzen sie Facebook, Myspace und Youtube intensiver, als Politiker auf Landesebene. 3. Politiker, die mehrere Profile in verschiedenen Web 2.0 Plattformen haben, sehen ihre Aktivitäten vordergründig als Kontaktmöglichkeit mit Bürgern an, hingegen sehen Politiker mit nur einem Profil, ihre Aktivitäten nicht vordergründig als Kontaktmöglichkeit mit Bürgern. Gang der Untersuchung: Diese Arbeit setzt sich im Wesentlichen aus sechs Teilen zusammen: Eine einleitendes Kapitel in welchem die Problemdarstellung, der Erkenntnisstand und die Forschungsfragen dargestellt sind. Anschließend der theoretische Hauptteil, in dem das Grundgerüst behandelt wird, auf dem die vorliegende Arbeit aufbaut. Der Verfasser beginnt mit einer Begriffsbestimmung von Web 2.0 und weiteren, für die Arbeit relevanten, Web 2.0 Begriffen. Anschließend werden die bekanntesten Web 2.0 Plattformen, die in der vorliegenden Arbeit von Bedeutung sind, erklärt. Der grundlegende theoretische Teil beginnt mit der Definition des Begriffs Öffentlichkeit nach Bernhard Peters. Mit den definierten Peter'schen Kriterien des idealen Modells von Öffentlichkeit wird festgestellt, ob es im Internet bzw. den Web 2.0 Plattformen ein Modell der Öffentlichkeit gibt. Ausgehend von einer Netzöffentlichkeit im Internet, ist Kommunikation von Politikern im Internet als Öffentlichkeitsarbeit zu beschreiben. Aus diesem Grund wird Public Relations und insbesondere politische Öffentlichkeitsarbeit in diesem Kapitel erläutert. Im weiteren Verlauf wird der Frage nachgegangen, ob Kommunikation in sozialen Netzwerken dialogorientiert ist. Zu diesem Zweck werden die vier PR-Modelle von Grunig und Hunt beschrieben. Ziel der vorliegenden Arbeit ist auch herauszufinden, welches PR-Modell Politiker im Internet anwenden. Nach einem Zwischenfazit des grundlegenden theoretischen Teils, folgt zur besseren Abgrenzung und Übersicht, ein zweiter theoretischer Basisteil. Darin findet sich die Definition des Forschungsfeldes der politischen Kommunikation. Darauf aufbauend wird der Begriff Mediengesellschaft diskutiert. Es wird auf die Wechselbeziehung von Medien und Politik eingegangen und es werden die erforschten Modelle erwähnt. Anschließend wird politische Kommunikation mittels traditionellen Massenmedien im Vergleich zum Internet untersucht. Dazu werden die Merkmale von politischer Berichterstattung im Fernsehen, Radio und Print-Medien verglichen. Die politischen Potentiale vom Web 2.0 werden anhand der Social-Technographis-Leiter untersucht. Im fünften Kapitel wird die gewählte Forschungsmethode beschrieben und die ausgewerteten Ergebnisse werden überprüft. Zu jeder aufgestellten Hypothese wird Stellung genommen. Neben der quantitativ-empirischen Forschungsmethode, besteht eine weitere Methodik dieser Arbeit aus der Literaturanalyse diverser Fachbücher, Zeitschriften und Online-Medien, die den theoretischen Teil der Arbeit bildet. Im sechsten und letzten Kapitel fasst der Verfasser die Ergebnisse der Arbeit zusammen und zieht ein Fazit, um festzustellen, inwieweit die Forschungsfragen beantwortet werden konnten. Weiters wird ein Ausblick auf zukünftige Entwicklungen gegeben.Inhaltsverzeichnis:Inhaltsverzeichnis: ZusammenfassungV AbstractVI AbkürzungsverzeichnisVII AbbildungsverzeichnisVIII TabellenverzeichnisIX 1.Einleitung1 1.1Problemdarstellung1 1.2Forschungsstand5 1.3Forschungsfragen8 1.4Aufbau der Arbeit9 2.Begriffsbestimmungen11 2.1Web 2.012 2.2Soziale Netzwerke14 2.3Tagging15 2.4Social Bookmarking16 2.5Blog16 2.6Plattformen17 2.6.1Youtube18 2.6.2Myspace18 2.6.3Facebook19 2.6.4StudiVZ / SchülerVZ / MeinVZ19 2.6.5Xing20 2.6.6Netlog20 2.6.7Twitter21 2.6.8Wikis21 2.6.9Flickr 22 2.6.10Delicious22 2.7Zwischenfazit22 3.Theoretische Grundlagen24 3.1Öffentlichkeit24 3.2Bedeutung von Öffentlichkeit nach Peters25 3.3Merkmale von Öffentlichkeit nach Peters27 3.4Netzöffentlichkeit28 3.5Zwischenfazit31 3.6Public Relations32 3.7Politische Öffentlichkeitsarbeit 33 3.8Die vier PR Modelle nach Grunig und Hunt35 3.8.1Publicity36 3.8.2Informationstätigkeit36 3.8.3Asymmetrische Kommunikation36 3.8.4Symmetrische Kommunikation37 3.9Zwischenfazit38 4.Theoretischer Teil40 4.1Politische Kommunikation40 4.1.1Begriffsbestimmung40 4.1.2Modelle des politischen Kommunikationsprozesses41 4.2Mediengesellschaft42 4.2.1Mediendemokratie44 4.2.2Politkvermittlung via Massenmedien45 4.3Zwischenfazit50 4.4Internet und politische Kommunikation50 4.5Politische Potentiale von Web 2.052 4.5.1Die Social Technographics Leiter54 4.5.2Zwischenfazit56 5.Empirischer Teil59 5.1Forschungsmethode59 5.1.1Aufbau des Fragebogens60 5.1.2Die politischen Ebenen61 5.1.3Datenerhebung64 5.2Methode im Detail64 5.3Detailergebnisse66 5.3.1Teilnahmen nach Parteizugehörigkeit66 5.3.2Politische Ebene der Teilnehmer67 5.3.3Teilnahme der Abgeordneten aus dem Nationalrat nach Parteizugehörigkeit68 5.3.4Teilnahme der Landtagsabgeordneten nach Bundesländern69 5.3.5Alter und Geschlecht70 5.4Inhaltliche Analyse71 5.4.1Übersicht der Web 2.0 Plattformen71 5.4.2Nutzung der Plattformen72 5.4.3Tätigkeiten im Internet74 5.4.4Medien der politischen Informationsvermittlung74 5.5Prüfung der Hypothesen75 5.6Einstellungen78 6.Schlusskapitel81 6.1Fazit Zusammenfassung81 6.2Ausblick83 Anhang94 Anhang A Fragebogen94 Anhang B Presseausendungen94 Anhang C SPSS Auswertung94Textprobe:Textprobe: Kapitel 3.2, Bedeutung von Öffentlichkeit nach Peters: Nach Bernhard Peters, lassen sich in dem beweglich, semantischen Feld der Öffentlichkeit (mit teils überlappenden, ambigen Bedeutungen) allgemeine begrif?iche Strukturen identi?zieren, die einen gemeinsamen Rahmen darstellen. 'Diese haben sich seit dem 18. Jahrhundert in der politischen Kultur westlicher Gesellschaften herausgebildet und sind bis heute im wesentlichen stabil geblieben'. Unter Institutionalisierte Handlungssphären fasst Peters die erste Grenzziehung zwischen öffentlichen und privaten Handlungs-und Verantwortungsbereichen zusammen. So unterscheidet er öffentliche Ämter, die mit besonderen Kompetenzen, P?ichten und Verantwortlichkeiten verbunden sind, von privaten Rollen. Öffentlichkeit stellt in dieser Beziehung ein Kollektiv dar, die moderne rechtlich-politische und staatliche Gemeinschaft. Die Entscheidungen die in diesen Rahmen getroffen werden, sollen nicht für alle verbindlich sein, sondern als öffentliche Angelegenheiten im gemeinsamen oder allgemeinen Interesse des Kollektivs entschieden werden (public interests), sowie unter Kontrolle oder Beteiligung der Mitglieder. 'Öffentlichkeit im ersten Sinn ist als ein Prädikat das Angelegenheiten oder Aktivitäten beigelegt wird, die Gegenstand organisierter kollektiver Verantwortlichkeiten und Entscheidungen sind (oder sein sollten)'. Die zweite Bedeutung des Begriffs Öffentlichkeit bezeichnet Peters als Kommunikation und Wissen. Laut Peters sind Sachverhalte, Ereignisse oder Aktivitäten, die jeder beobachten oder von denen jeder wissen kann öffentlich. Außerdem Wissensbestände, die frei zugänglich sind, und Kommunikation, die jeder verfolgen oder an denen sich jeder beteiligen kann. Als Gegenbegriffe gelten die Begriffe privat und geheim, die sich überschneiden. Privat, vertraulich oder geheim sind entsprechende Sachverhalte oder Aktivitäten, die abgeschirmt sind gegen Beobachtungen oder Kenntnis von Unbefugten. Wobei Peters Geheimnis in diesem Begriffskontext vor allem auf staatliche Aktivitäten bezogen hat. 'Öffentlichkeit im zweiten Sinne ist all das, was vor aller Augen geschieht oder in aller Munde ist'. Als dritte De?nition bezeichnet Bernhard Peters Öffentlichkeit im emphatischen Sinn. Er spricht von einer 'sozialen Handlungssphäre, die mehr oder weniger frei zugänglich ist, und in der soziale Akteure sich an ein unabgeschlossenes Publikum wenden oder jedenfalls der Beobachtung durch ein solches Publikum ausgesetzt sind'. Dabei handelt sich um eine 'Sphäre öffentlicher, ungezwungener Meinungs- und Willensbildung der Mitglieder einer demokratischen politischen Gemeinschaft über die Regelung der öffentlichen Angelegenheiten. Das heißt in dieser Sphäre kommunikativen Handelns, kann sich eine öffentliche Meinung mit bestimmten Merkmalen bilden. Diese dritte De?nition von Peters lässt sich für eine grundlegende Bestimmung des Internet nutzen. Das Internet als technologische Infrastruktur dient kaum einen anderen Zweck, als der ?exiblen Herstellung eines inhaltlich prinzipiell universellen Kommunikationsraumes mit einer potentiell unlimitierten Anzahl an Teilnehmern. Bernhard Peters de?nierte Kriterien, mit denen vorhandene Strukturen von Öffentlichkeit demokratietheoretisch abgemessen werden können. Diese werden im nächsten Kapitel erläutert und dann auf das Internet, unter spezieller Berücksichtigung der Kommunikation im Web 2.0, umgelegt. 3.3, Merkmale von Öffentlichkeit nach Peters: Die drei grundlegenden Strukurmerkmale eines idealen Modells politischer Öffentlichkeit sind nach Peters Gleichheit, Offenheit und Diskursivität. Unter Gleichheit der kommunikativen Beziehungen sollen in einem idealen Modell der Öffentlichkeit alle Teilnehmer an der öffentlichen Kommunikation die Möglichkeit haben daran ungehindert zu partizipieren. Diese Kompetenz kann niemanden ohne spezielle Gründe abgesprochen werden (Kinder oder geistige Behinderung). So sollen weder familiäre Herkunft, Status, Vermögen, Ämter, Bildungsquali?kationen oder Expertise, die Chancen an kommunikativen Prozessen teilzunehmen, schwächen oder stärken. Er räumt jedoch ein, dass soziale Merkmale die faktische Teilnahmechance beein?ussen. Aber in dieser Bedingung der Gleichheit eingeschlossen, ist die Forderung nach Gegenseitigkeit (Reziprozität), also einer wechselseitigen Beziehung von Hörer und Sprechrollen: 'Nicht nur die Möglichkeiten, zuzuhören und sich selbst ein Urteil zu bilden, sondern auch die Möglichkeiten, sich öffentlich zu äußern und Gehör zu ?nden, sollen gleich verteilt sein'. Unter Offenheit und adäquate Kapazität bezeichnet Peters das zweite Merkmal der drei Grundmerkmale des Modells. Er fordert eine generelle Offenheit für Themen und Meinungen. Keine Beiträge dürften a priori ausgeschlossen werden. Außerdem soll über die Relevanz der Themen in der öffentlichen Debatte selbst entschieden werden. Diese Forderung setzt die Kompetenz des Publikums bzw. der Öffentlichkeit voraus, die wichtigsten Themen selbst zu erkennen sowie über diese ausreichend zu re?ektieren. Als drittes Merkmal identi?ziert Peters eine diskursive Struktur. An dieser Stelle muss zuerst auf den Unterschied zwischen diskursiver Kommunikation und reinen Verhandlungen hingewiesen werden. 'Bei Verhandlungen geht es darum durch wechselseitige Angebote, Drohungen oder Manipulation zu einer Einigung zu kommen. Wobei hingegen Kommunikation auf Argumentation und Verständigung aufbaut. Interaktionspartner legen ihre Werte und Normen offen und versuchen durch Austausch von Argumenten die Debatte voranzubringen. Voraussetzung dafür ist, dass gegenseitig die Argumente als solche auch anerkannt werden'. Die Forderung nach Diskursivität schließt also Strategien wie Manipulation und Drohungen aus und setzt auf Argumente, die einen kollektiven Anspruch erheben. 'Einwände und Kritik sind jederzeit möglich, sowie auch die Entkräftung von Kritik'. Gegenseitige Achtung und wechselseitiger Respekt der Kommunikationspartner wird als Bedingung von Peters genannt. Nachdem diese Kriterien nun erklärt sind, werden diese im nächsten Kapitel auf das Internet, mit besonderen Berücksichtigung der Kommunikation im Web 2.0, umgelegt. Dadurch soll festgestellt werden, ob es sich bei der Handlungssphäre im Web 2.0 um Öffentlichkeit handelt. 3.4, Netzöffentlichkeit: Zunächst muss festgehalten werden, dass über das Internet eine Vielzahl von unterschiedlichen Kommunikationsdiensten (Email, Chat, Webseiten, soziale Netzwerke etc.) angeboten werden. Diese Anwendungen unterscheiden sich in mehreren Hinsichten voneinander: Kommunikation kann entweder in Echtzeit oder versetzt, sowie einseitig oder respektiv wechselseitig statt?nden. Diese Vielfalt sollte berücksichtigt werden, wenn auf die Peter'schen Kriterien eingegangen wird. Web 2.0 Anwendungen fallen unter den Begriff der Öffentlichkeit im emphatischen Sinn, da laut Peters 'Öffentlichkeit im emphatischen Sinn durch Kommunikation unter Akteuren, die aus ihren privaten Lebenskreisen heraustreten, um sich über Angelegenheiten von allgemeinen Interesse zu verständigen, gebildet wird'. Nun ist dieser Fall bei Youtube, Wikipedia, Flickr und Twitter gegeben. In den sozialen Netzwerken wie Facebook, StudiVZ etc. können je nach Einstellungsgrad, nur 'Freunde' oder alle Benutzer auf das eigene Pro?l zugreifen. Die meisten User haben viel mehr 'Freunde" auf diesen Plattformen, als sie in ihren privaten Lebenskreis regelmäßig treffen. Man wird oft nach nur zweimaligen, persönlichen Gespräch als 'Freund' hinzugefügt. Gleichheit der kommunikativen Beziehungen: 'Nun ist schon in einer größeren Gruppe von Menschen die Redezeit nicht gleich verteilt. Es bilden sich zwangsläu?g Rollenverteilungen heraus, da sich oft eine Minderheit von Rednern an eine Mehrheit von Zuhörer wendet'. Nun sind durch das Internet sehr große Teilnehmerzahlen möglich geworden, aber trotzdem ist zumindest theoretisch Reziprozität gegeben, da traditionelle Sender-Empfänge Strukturen (wie in den Massenmedien) aufgebrochen werden. Sofern man einen Internet Zugang hat, kann man als Sender oder Empfänger agieren, ein Rollenwechsel zwischen Empfänger und Sender ist relativ unaufwendig. Statt nur one-to-many-, wird nun auch many-to-many-, many-to-one-oder one-to-one-Kommunikation möglich. 'Dabei erlauben die dialogischen Möglichkeiten eine gleichwertige Kommunikation zwischen den Teilnehmern'. Daran teilnehmen kann jeder, Voraussetzung dafür die technischen Gegebenheiten und das nötige Wissen mit dem Medium umzugehen. Nicht außer Acht lassen darf man den Umstand, dass im Internet den größten Zulauf die Online-Ableger der traditionellen Massenmedien haben. Und diese funktionieren (wie auch der Großteil der Webseiten) one-to-many. Wobei sich diese mittlerweile auch immer öfter den Web 2.0 Kriterien anpassen, und Funktionen eingebaut haben die many-to-many Kommunikation ermöglichen.
Die Inhalte der verlinkten Blogs und Blog Beiträge unterliegen in vielen Fällen keiner redaktionellen Kontrolle.
Warnung zur Verfügbarkeit
Eine dauerhafte Verfügbarkeit ist nicht garantiert und liegt vollumfänglich in den Händen der Blogbetreiber:innen. Bitte erstellen Sie sich selbständig eine Kopie falls Sie einen Blog Beitrag zitieren möchten.
Das BMBF-Papier hängt die Latte für eine schnelle Einigung beim geplanten neuen Milliardenprogramm hoch – zu hoch?
Foto: Luisella Planeta / Pixabay.
NORMALERWEISE betont das BMBF bei Nachfragen zu den Digitalpakt-Verhandlungen stets, dass diese vertraulich seien. Nachdem jedoch das Ministerium von Bettina Stark-Watzinger (FDP) am Freitagnachmittag seinen neuen Vorschlag an die Länder versandt hatte, dauerte es nur wenige Stunden, bis in der Welt am Sonntag ein Bericht zu dem Konzept erschien, der als Entwurf einer "Gesamtvereinbarung zwischen Bund und Ländern über den Digitalpakt 2.0 (2025-2030)" tituliert ist. Dieser, prophezeite die Welt am Sonntag, dürfte "für harte Diskussionen sorgen" – was noch untertrieben sein könnte.
Denn bei der Lektüre der acht Seiten wird klar: Hier ist ein – durchaus mutiges – Papier entstanden, das allerdings an vielen Stellen den Bildungsföderalismus so sehr herausfordert und die Latte dabei so hochlegt, dass nur eine Interpretation möglich ist: Im BMBF ist man, um seine Ziele zu erreichen, sogar bereit, das komplette Scheitern der Verhandlungen zu riskieren. Weil Stark-Watzinger von der Richtigkeit der eigenen Mission derart überzeugt ist? Weil sie weiß, wie unbeliebt der Bildungsföderalismus und die Kultusministerkonferenz in der Öffentlichkeit sind – und dass die Kultusminister das auch wissen? Weil sie deshalb darauf setzt, dass die Kultusminister am Ende einlenken werden, weil für sie der Imageschaden noch größer wäre als für den Bund?
Dass da etwas auf sie zukommt, hatten die Kultusminister spätestens seit Februar (also nach Abschluss der Startchancen-Vereinbarung) verschiedenen Interviews Stark-Watzingers entnehmen können und, allerdings immer nur in Teilen, auch in Staatssekretärsrunden erfahren: spürbar andere Akzente als in den zuvor bereits gelaufenen Bund-Länder-Verhandlungsrunden zur Fortsetzung des 2019 gestarteten Milliardenprogramms. Im März kam es fast zu einem Eklat, dann zu einem Krisengespräch in der KMK – und vorübergehend zu einer gewissen Beruhigung. Doch zuletzt warfen die Kultusminister der Ministerin erneut vor, auf Zeit zu spielen. Womöglich, so die Vermutung, weil sie gar nicht das Geld für einen Digitalpakt 2.0 von Finanzminister Christian Lindner (ebenfalls FDP) bekomme. Stark-Watzinger selbst betonte stets, sich für die Fortsetzung einzusetzen und sich in den Verhandlungen an alle, auch die terminlichen, Abmachungen zu halten. Doch, schrieb sie beispielsweise vor einer Woche an die KMK, müsse der "Sorgfaltsmaßstab" berücksichtigt werden, der an die Erstellung eines solchen Dokuments, des angekündigten "ausformulierten Gesamtkonzepts", anzulegen sei. In dem die Länder jetzt erstmals in der Gesamtschau präsentiert bekommen, was Stark-Watzinger als Gegenleistung für einen Digitalpakt 2.0 will.
Den Bildungsföderalismus in seinen Beschränkungen vorführen
Dass das BMBF von den Ländern eine 50-50-Finanzierung des neuen Programms erwartet, während die Länder beim Vorgänger nur zehn Prozent drauflegen mussten, entspricht dem seit langem Kommunizierten. Ebenso dass der Bund zum 1. Januar 2025 starten will und nicht, worauf die Kultusminister anfangs, aber vergeblich gedrängt hatten, schon zum Ende des Digitalpakts 1.0. im Mai/Juni.
Auf die Palme bringen wird die Kultusminister allerdings, dass die Länder laut Vereinbarungsentwurf des Bundes nichts von dem, was sie bislang für digitale Bildung ausgeben, anrechnen dürfen sollen auf ihre 50 Prozent. Auch dass die Kommunen, die eigentlichen Schulträger, für die Finanzierung des Länderanteils nicht mit in die Pflicht genommen werden dürfen, klingt erstmal gut – widerspricht aber völlig den bisherigen Gepflogenheiten und wäre wohl vor allem für ärmere Länder kaum finanzierbar. Als krassen Eingriff in ihre inneren Angelegenheiten werden die Länder schließlich die Forderung werten, dass sie mit den Kommunen das Kompetenzverhältnis bei den inneren und äußeren Schulangelegenheiten neu bestimmen sollen. So sinnvoll das tatsächlich sein könnte.
Vorschläge wie diese sind geeignet, den Bildungsföderalismus in seinen Beschränkungen vorzuführen. Aber erhöhen sie tatsächlich die Erfolgsaussichten der Digitalpakt-Verhandlungen?
Ähnlich verhält es sich, wenn das BMBF in seinem Konzept ankündigt, dass die Pakt-Mittel nur zum jährlichen Abruf bereitstehen sollen, eine Überjährigkeit, die bei der Realisierung großer Investitionsvorhaben im Grunde eine Voraussetzung darstellt, soll also nicht vorgesehen sein. Was aber passt zu der ebenfalls im Papier enthaltenen Ansage, die Länder seien für eine Beschleunigung und Entbürokratisierung des Antrags- und Bewilligungsverfahrens verantwortlich – als habe es beim Digitalpakt 1.0 nicht auch deshalb mit der Mittelvergabe so lange gedauert, weil die Vorgaben des Bundes so detailliert waren. "Die Länder bekennen sich zu dieser Zielsetzung, indem sie eine Verbesserung der Beratungs- und Bewilligungsstrukturen, einschließlich deren Digitalisierung, sowie Fristen zur Antragsbearbeitung vorsehen", so formuliert es jedenfalls der BMBF-Entwurf.
Druck macht der Bund auch, was eine Fortbildungsverpflichtung für Lehrkräfte angeht: 30 Stunden pro Jahr und Person "insbesondere im Bereich digitales Lehren und Lernen", dazu höhere Fortbildungs- und Qualitätsbudgets an den Schulen. Außerdem sollen die Länder die digitale Bildung in die Curricula aller Schulformen aufnehmen, und an allen Hochschulen sollen Inhalte zur digitalen Bildung zum verpflichtenden Bestandteil des Lehramtsstudiums werden, inklusive einer Verständigung auf "ambitionierte, verpflichtende gemeinsame Standards bei den Digital- und Medienkompetenzen zwischen allen Ländern". So nachvollziehbar all das ist (und übrigens bei den Curricula zum Teil schon umgesetzt), den Ländern wird es kaum gefallen, dass der Bund mit solchen Forderungen impliziert, ohne sein Mittun seien sie zu solchen Schritten nicht in der Lage gewesen.
Und wenn Stark-Watzingers Ministerium für die Verteilung der Digitalpakt-Gelder wie schon im März berichtet einen programmspezifischen Verteilschlüssel fordert, "der die aktuellen Schüler und Schülerinnen-Zahlen bezogen auf die grundsätzlich antragsberechtigten Schulen widerspiegelt", wird es dafür ebenfalls den Applaus vieler Bildungsexperten erhalten und fordert die Länder doch bewusst heraus. Weil ein solcher Mechanismus im Gegensatz um Königsteiner Schlüssel nicht einfach mal kurz festzulegen ist, sondern zu einem Feilschen zwischen kinderstarken und kinderärmeren Bundesländern führen wird.
"Bis zu X Mrd. zu gleichen Teilen"
Auf jeden Fall dürfte auch das dauern und die Erwartung der Länder, spätestens bis zum KMK-Ministertreffen im Juni durch zu sein, weiter in Frage stellen. Was aber wiederum, nachdem Stark-Watzinger aus Sicht der Kultusminister bereits ihren Konzeptvorschlag verspätet eingereicht hatte (was diese bestreitet), die nächste Etappe in dem von den Ländern vermuteten Zeitspiel des BMBF wäre. Weil sie, so die Kultusminister, sich ja erst noch das Geld sichern muss und offen sei, ob ihr das überhaupt gelinge.
Der Bundesparteitag am Wochenende bescherte neue Nahrung für die diesbezüglichen Zweifel der Länder. Er lehnte, wie TableBildung berichtete, einen Antrag der Jungen Liberalen für den Digitalpakt 2.0 ab. Bemerkenswert war, dass sich mit Florian Toncar, dem Parlamentarischen Staatssekretär im Finanzministerium, ausgerechnet ein Vertrauter für die Ablehnung eingesetzt hatte: "Wir können nicht lauter Sachen beschließen, die es uns nachher immer schwerer machen, die Schuldenbremse einzuhalten."
Auch im Entwurfstext, den Stark-Watzinger am Freitag vorgelegt hat, fehlte immer noch jede Angabe, wieviele Milliarden der Digitalpakt 2.0 umfassen soll. Bund und Länder investierten "über die Laufzeit dieser Vereinbarung insgesamt bis zu X Mrd. zu gleichen Teilen", heißt es da. Geradezu dreist sei das von der Bundesbildungsministerin, ereifern sich einige Kultusminister: ein Papier mit Maximalforderungen abzuliefern und gleichzeitig die entscheidende Frage, wieviel Geld der Bund überhaupt auf den Tisch legen will, immer noch schuldig zu bleiben. Bis Freitag sollen alle Bundesministerien ihre Budgetvorstellungen für 2025 bei Finanzminister Lindner anmelden, damit naht auch der Moment der Wahrheit für das finanzielle Commitment des Bundes.
Nur an einer Stelle ist der BMBF-Text schon jetzt haushalterisch gesehen erstaunlich konkret: wenn das BMBF eine neue, von Bund und Ländern ebenfalls hälftig finanzierte "Forschungs- und Transferinitiative digitales Lehren und Lernen" anregt, als Nachfolge der "Kompetenzzentren für digitales und digital gestütztes Unterrichten in Schule und Weiterbildung". Die bezahlt der Bund bislang allein, aber ausschließlich mit EU-Geldern, die sehr kurzfristig schon 2025/2026 auslaufen. Insgesamt 500 Millionen Euro sollen Bund und Länder hier für die Jahre 2025 bis 2030 investieren, womit Stark-Watzinger den Digitalpakt als Vehikel einsetzen würde, um ihr kurzfristiges Geldproblem mit den Kompetenzzentren zu lösen. Allerdings müsste sie dafür auch die für die Kompetenzzentren zuständigen Wissenschaftsminister an den Verhandlungstisch holen, wie realistisch ist das bis Juni?
Und was die Länder wohl davon halten, wenn das BMBF den Digitalpakt 2.0 zur definitiv "letztmaligen Unterstützung des Bundes" deklarieren will – mit der klaren Ansage, dass Ende 2029 Schluss ist? "Es ist daher alleinige Pflicht der Länder, für die nachhaltige Finanzierung des digitalen Wandels in den Schulen Sorge zu tragen", steht im Entwurf – in Form einer in jedem Land bis Ende 2029 mit den Schulträgern abgestimmten verbindlichen Planung "zur dauerhaften Finanzierung der genuinen Länderaufgabe digitaler Bildung". Und wenn gute digitale Bildung wirklich allein Ländersache wäre, warum hätte sich der Bund dann all die Jahre engagieren sollen? Und wieso sollten sich jetzige Regierungen in Bund und Ländern binden in Bezug auf mögliche Vereinbarungen, die ihre Amtsnachfolger in etlichen Jahren zu schließen oder nicht zu schließen bereit sind?
Erste Reaktionen aus den Ländern
Die ersten offiziellen Reaktionen der Kultusminister fallen parteiübergreifend einheitlich aus – und deutlich. KMK-Präsidentin Christine Streichert-Clivot (SPD) sagte auf Anfrage, das BMBF-Papier spiegele den bisherigen Verhandlungsstand zum Digitalpakt 2.0 nicht wider". Schleswig-Holsteins Bildungsministerin Karin Prien, die die Bildungspolitik der CDU-regierten Länder koordiniert, kommentierte, das das vorgelegte Konzept enthalte "manchen neuen Vorschlag, über den man reden kann. Viele andere Stellen jedoch widersprechen so grundsätzlich dem bisherigen Verhandlungsstand zum Digitalpakt 2.0 und auch den etablierten Bund-Länder-Kommunal-Beziehungen, dass sie nicht verhandelbar sind."
War's das also? Nein, denn die Länder wissen, siehe oben, dass der Bund mit etlichen Vorschlägen die öffentliche Meinung auf seiner Seite hat und dass sie auf das Geld des Bundes angewiesen sind. Aber worauf genau ist eigentlich der Bund angewiesen? Und was von den Vorschlägen im Papier ginge verfassungs- und finanzrechtlich überhaupt?
Prien sagt: "Dennoch verhandeln wir weiter, denn Bund und Länder stehen in einer gemeinsamen Verantwortung, den Schulen Perspektiven und Planungssicherheit bei der digitalen Bildung zu geben. Auch wenn angesichts des Papiers Zweifel angebracht sind, hoffen wir, dass der Bund ebenfalls die ernsthafte Absicht hat, mit den Ländern zu einer zeitnahen Verständigung zu kommen."
Streichert-Clivot, im Hauptberuf Bildungsministerin im Saarland, fordert "jetzt verlässliche Leitplanken. Dazu gehören die finanziellen Mittel und ein klarer Zeitplan." Strukturen zugunsten der digitalen Bildung einer ganzen Generation nachhaltig zu unterstützen, "das ist und bleibt eine gesamtgesellschaftliche Aufgabe. Unter Pakt verstehe ich ein gemeinsames Bündnis. Da müssen wir jetzt hinkommen."
Die rheinland-pfälzische Bildungsministerin Stefanie Hubig, die die SPD-Bildungsministerien koordiniert, sagte, es sei gut, dass der Bund nun endlich ein Vorschlag zu seiner Vorstellung eines Digitalpaktes 2.0 vorgelegt habe. Das am Freitagnachmittag übermittelte Papier des Bundes werde eingehend und zügig durch die Länder geprüft. "Wir halten an dem Verhandlungstermin am kommenden Dienstag fest und wollen dort auch zu Kompromissen finden, damit wir jetzt in dieser wichtigen Frage weiterkommen". Allerdings sagt auch Hubig, das Papier enthalte Punkte, "die unter den Ländern in dieser Form keine Zustimmung finden werden können".
Was die Forderung des Bundes nach weniger Bürokratie und Berichtswesen angehe, fügt Hubig hinzu, "sind wir sicherlich auf einer Linie". Zur Absicht im BMBF, nach dem Digitalpakt 2.0 auszusteigen, sagt die SPD-Politikerin hingegen: "Das Grundgesetz wurde in der vergangenen Legislatur geändert, um die Zusammenarbeit in der Bildung zu erleichtern. Bildung ist von wesentlicher und gesamtgesellschaftlicher Bedeutung, für alle: Bund, Länder und Kommunen."
Anmerkung: Ich habe diesen Beitrag am 29. April um 8.30 Uhr um eine Stellungnahme von KMK-Präsidentin Streichert-Clivot ergänzt sowie um einen Hinweis auf einen Parteitagsbeschluss der FDP am Wochenende.
Kostenfreien Newsletter abonnieren
Die drei "Handlungsstränge" im BMBF-Konzept
"Die Digitalisierung ist kein Selbstzweck, sondern eng mit den Bereichen Schul- und Unterrichtsentwicklung verknüpft", führt das BMBF-Konzept aus. Digitale Bildung könne daher nur in Verbindung von Ausstattung, Qualifizierung und Konzept gelingen. Der Digitalpakt 2.0 beinhaltet laut Entwurf deshalb "drei prioritäre Handlungsstränge". Erstens: "Digitale Ausstattung und Infrastruktur", wobei der Begriff Infrastruktur im digitalen Zusammenhang weiter gefasst werden soll, "da Hardware und IT-Infrastruktur nur mittels Werkzeugen, Software und Bildungsmedien nutzbar gemacht werden können." Alle Schulen sollen gleichermaßen zum Zuge kommen, digitale Vorreiter wie Nachzügler. Auch die länderübergreifenden Vorhaben des bisherigen Digitalpakts, gepriesen als "Erfolgsmodell", sollen weitergehen, denn "die Entwicklung gemeinschaftlicher Lösung hat den größten Hebeleffekt für systematische Veränderung und muss nur einmal (für alle) finanziert werden".
Zweiter Handlungsstrang: "Qualifizierung". Unter diesem Punkt führt das BMBF das von ihm geforderte Nachfolgeprogramm zu den digitalen
Kompetenzzentren aus, außerdem seine Anforderungen an eine Fortbildungsverpflichtung und digitale Inhalte in den Curricula.
Im dritten Handlungsstrang ("Strategie, Unterstützung und Nachhaltigkeit") pocht der Bund vor allem darauf, dass die Länder sich auf die Zeit nach dem Digitalpakt 2.0 auf ihre alleinige (finanzielle) Verantwortung für digitale Bildung vorbereiten sollen, ebenso auf eine effektive Steuerung und Evaluation und einen "Monitoring"-Prozess, der für jeden Handlungsstrang jährliche Berichte über Mitteleinsatz und umgesetzte Maßnahmen umfassen soll, veröffentlicht in einem öffentlich zugänglichen digitalen "Dashboard".
Das BMBF betont: "Die Verzahnung und das effiziente Zusammenwirken aller Maßnahmen, die diese drei Handlungsstränge unterlegen, ist die zentrale Gelingensbedingung für den digitalen Wandel in den Schulen." Die Vereinbarung solle sicherstellen, dass die im Digitalpakt 2.0 getätigten Investitionen ineinandergriffen "und eine sichtbare und nachhaltige Wirkung für das Bildungssystem haben".
In eigener Sache
Dieser Blog hat sich zu einer einschlägigen Adresse der Berichterstattung über die bundesweite Bildungs- und Wissenschaftspolitik entwickelt. Bitte helfen Sie mit, damit er für alle offen bleibt.
Wie Sie Blog und Newsletter unterstützen können, erfahren Sie hier...
Matter retention in streams and rivers is an ecosystem service of outstanding ecological as well as economic importance. Studying and monitoring instream nitrate dynamics is essential to reduce the tremendous consequences of eutrophication of freshwater systems and coastal zones. Moreover, the cycling of nitrate in lotic systems is a paradigm for the instream transport and transformation behavior of any other reactive substance subjected to human perturbation of its natural cycle. Identifying instream processes and drivers that dictate nitrate transport in rivers and quantifying the capacity of rivers to retain nitrate is therefore of scientific as well as political interest and was the motivation for this thesis. Even though understanding and monitoring of instream nitrate dynamics is advanced compared to most other emerging substances of concern (e.g. pharmaceuticals, synthetic and natural hormones), methodologies to directly assess nitrate dynamics are still limited, leaving a high degree of uncertainty to descriptive and predictive models. One major problem of common data acquisition is that the temporal and spatial variability of nitrate processing rates arising from the complex interactions of hydrological and biogeochemical drivers cannot be captured with traditional methods. For technical reasons, most studies have been conducted in small (and rather pristine) streams. Thus, particularly the functional behavior of larger rivers and anthropogenically modified systems is widely uncharacterized. In this work, two methodologies were developed which allow quantitatively assessing nitrate dynamics on two relevant scales: The reach scale (1), which is of particular interest for monitoring strategies and local hyporheic nutrient fluxes (2), with the hyporheic zone being a key compartment in instream solute cycling. In order to assess the seasonal fluctuation in nitrate dynamics (3), a primary demand on the methods was that they operate continuous or over longer time spans. On the reach scale, a combined two-station time-series and longitudinal profiling approach based on measurements from automated sensors, provided novel insights into seasonal variations of nitrogen processing and allowed quantitative comparison of the dynamics in a natural versus a heavily modified reach. Uptake was lower and the influence of season on uptake rates more marked in the modified reach. Continuous implementation of the proposed approach, fully covering the annual variations, can essentially improve existing monitoring practices by quantifying the effect of altered morphology and water chemistry on retention rates. Hyporheic passive flux meters are an efficient tool to quantify time integrative hyporheic nutrient fluxes. In combination with other measurements, the results from a field application unraveled an unexpected hyporheic source-sink behavior for nitrate at the study reach. Different to common observations, not the upper most layer of the hyporheic zone but the layer between 15 and 30 cm was most efficient in removing nitrate, assumedly because substrate limitation is irrelevant in agricultural (nutrient and DOC enriched) streams. Further, higher discharge did not increase hyporheic exchange, because the monotonous morphology and absence of bedforms reduced the usually dominating effect of increased drag resistance with higher flow. The studies presented here deliver empirical evidence that, on both investigated scales, anthropogenic modifications substantially impact instream nitrate dynamics. Alterations to channel morphology, riparian vegetation, hydrology and water quality change principal ecosystem functions relevant for solute retention in streams and rivers. The presented results show that anthropogenically modified systems may therefore behave unexpectedly if predictions are built on the driver-response correlations observed in natural systems. Worldwide a large proportion of rivers and streams are modified by humans. However, altered systems are not adequately represented in studies focusing on solute dynamics. Efficient management of such systems, including evaluation of measures to reduce the nitrogen burden on receiving water bodies, requires quantitative knowledge on instream processes and governing drivers. Continuous or time integrative observations are more representative for the solute cycling characteristics of a system than "snapshot"-like assessments. The new methodologies thereby also facilitate extrapolation of local measurements and linking the resulting data with catchment scale models. Overall synthesis of the presented results suggests that such measurements of nitrate dynamics in streams may be used as an indicator for the ecosystem integrity.:Acknowledgments i List of Tables vii List of figures viii List of Abbreviations and acronyms ix Summary xi 1. Introduction 1 1.1. Goals and questions 3 1.1.1. Reach scale quantification of nitrate dynamics 4 1.1.2. Quantifying hyporheic nitrate fluxes 5 1.1.3. Hyporheic nitrate dynamics in an anthropogenically modified stream 6 2. High frequency measurements of reach scale nitrogen uptake in a 4th order river with contrasting hydromorphology and variable water chemistry (Weiße Elster, Germany) 8 2.1. Abstract 8 2.2. Introduction 9 2.3. Methods and Materials 12 2.3.1. Study site 12 2.3.2. Two stations time-series 14 2.3.3. Longitudinal Profiling 17 2.4. Results 19 2.4.1. Two stations time-series 19 2.4.2. Longitudinal profiling 23 2.5. Discussion 26 2.5.1. Diel variation 26 2.5.2. Comparison between sampling periods 28 2.5.3. Inter-reach comparison 29 2.5.4. Comparison of the Weiße Elster and other rivers 30 2.6. Conclusions 31 2.7. References 33 3. Quantifying nutrient fluxes with a new Hyporheic Passive Flux Meter (HPFM) 39 3.1. Abstract 39 3.2. Introduction 40 3.3. Methods 44 3.3.1. Construction and materials 44 3.3.2. Selection and characterization of resin 45 3.3.3. Preparation of activated carbon with alcohol tracers 47 3.3.4. Deployment and retrieval procedure 49 3.3.5. Analysis and data treatment 49 3.3.6. Field testing of hyporheic passive flux meters (HPFMs) 51 3.4. Results 56 3.4.1. Laboratory experiments 56 3.4.2. Field testing 56 3.5. Discussion 63 3.6. Conclusion and Outlook 69 3.7. References 70 4. Hyporheic passive flux meters reveal unexpected source-sink behavior of nitrogen in an anthropogenically modified stream (Holtemme, Germany) 79 4.1. Abstract 79 4.2. Introduction 80 4.3. Methods 82 4.3.1. Study site 83 4.3.2. Instrumental set-up 84 4.3.3. Deriving hyporheic denitrification rates 89 4.2. Results 92 4.2.1. Hyporheic nutrient fluxes and Darcy velocities 92 4.2.2. Nutrient concentrations in pore water 94 4.2.3. O2 and temperature 94 4.2.4. Hyporheic residence time and denitrification 95 4.5. Discussion 97 4.5.1.Darcy velocities and angle of hyporheic flow 97 4.5.2. Biotic activity 98 4.5.3. Extent of active hyporheic zone 98 4.5.4. The effect of redox conditions and residence time on the NO3 source-sink function of the Hyporheic zone 99 4.5.5. Anthropogenic influence on water quality 101 4.6. Conclusions 102 4.7. References 104 5. Discussion 110 5.1. Evaluation of the new methodology 110 5.1.1. High frequency measurements of nitrogen removal in rivers 110 5.1.2. Hyporheic passive flux meter for the quantification of nutrient fluxes 113 5.2. Results from the field studies and scientific implications 115 5.2.1. Nitrogen processing in aquatic ecosystems 115 5.2.2. Reach scale nitrogen dynamics in the Weiße Elster 117 5.2.3. Hyporheic nutrient fluxes at the Holtemme 120 5.3. Moving beyond and Outlook 123 5.3.1. Scaling and representability 124 5.3.2. Modified ecosystems 128 6. References 130 Note on the commencement of the doctoral procedure 151 Curriculum Vitae 152 ; Der Rückhalt von Stoffen in Flüssen und Bächen ist eine Ökosystem-Dienstleistung von grösster ökologischer wie auch wirtschaftlicher Bedeutung. Um die negativen Auswirkungen durch Eutrophierung von Süsswasserkörpern und Küstengebieten zu reduzieren, ist es erforderlich, die Stickstoffdynamik in Fliessgewässern zu untersuchen und zu überwachen. Darüber hinaus, kann der Umsatz von Nitrat in lotischen Systemen als Paradigma für den Transport und die Transformation anderer reaktiver Substanzen von anthropogenem Ursprung gesehen werden. Die Prozesse zu identifizieren, die den Nitrattransport in Fliessgewässern und deren Kapazität Nitrat zurückzuhalten beeinflussen, ist somit von wissenschaftlichem wie auch von politischem Interesse und war die Motivation für diese Arbeit. Obwohl unser Wissen über das Verhalten von Nitrat in Fliessgewässern, im Vergleich zu vielen erst neuerdings an Bedeutung gewinnender Substanzen (z.B. Arzneimittelrückstände, synthetische und natürliche Hormone) fortgeschritten ist, fehlen Methoden um die Nitratdynamik im Fliessgewässer zu erfassen. Dadurch ist die Überwachung wie auch der Vorhersage des Nitratexports durch Fliessgewässer mit grossen Unsicherheiten behaftet. Ein Hauptproblem bei der Datenerfassung ist, dass die Umsatzraten von Nitrat aufgrund der komplexen Zusammenspiele von biogeochemischen wie auch hydrologischen Einflussfaktoren, sowohl räumlich wie auch zeitlich stark schwanken. Ausserdem wurden aus technischen Gründen die meisten Studien bislang in kleinen (und eher unberührten) Flüssen durchgeführt. Deshalb bestehen insbesondere über das Exportverhalten grosser und anthropogen veränderter Systeme grosse Unsicherheiten. In dieser Arbeit wurden zwei Methoden entwickelt, die es erlauben, die Nitratdynamiken auf zwei relevanten Grössenskalen zu erfassen: Einmal über eine Flussstrecke von einigen Kilometern und zum anderen lokal in der Hyporheischen Zone. Die erste Skala (Flusstrecke) ist insbesondere für die Entwicklung von Monitoring-Strategien wichtig. Die Hyporheische Zone ist als Schlüsselkompartiment für den Stoffumsatz in Fliessgewässern von Bedeutung. Da zeitliche (z.B. saisonale) Schwankungen im Nitratumsatz erfasst werden sollten, war eine primäre Herausforderung an die Methoden, dass sie für die kontinuierliche Aufzeichnung über länger Zeitspannen geeignet sind. Für die Fliessgewässerstrecke wurde eine Bilanzierung von Zeitreihen zwischen zwei Stationen mit Messungen über das Längsprofil kombiniert. Die Zeitreihen wurden mit automatisierten Sensoren aufgenommen. Der hier entwickelte Ansatz von Messung und Auswertung lieferte neue Erkenntnisse über die saisonale Variation des Stickstoffumsatzes und ermöglichte einen quantitativen Vergleich zwischen einem natürlichen und einem anthropogen überprägten Gewässerabschnitt. Der Nitratrückhalt im veränderten Abschnitt war niedriger und der Einfluss der Jahreszeit auf die Umsatzraten war stärker ausgeprägt. Eine dauerhafte Installierung des Messaufbaus, der die gesamten Jahresschwankungen abdeckt, könnte die existierenden Überwachungsverfahren erheblich verbessern, weil so der Effekt der Fliessgewässermorphologie und der Wasserchemie auf die Umsatzraten berücksichtigt werden können. Hyporheische Passive Flux Meter sind ein Instrument für die zeitlich gemittelte Quantifizierung von Nitratflüsse durch die Hyporheische Zone. In Kombination mit weiteren Messungen brachten die Ergebnisse einer Freilandmessung unerwartete Ergebnisse über die Entstehung und den Abbau von Nitrat in der Hyporheischen Zone des untersuchten Flusses zum Vorschau. Anders als üblicher Weise beobachtet, war der Abbau von Nitrat nicht in der obersten Schicht der Hyporheischen Zone, sondern in einer Tiefe von 15 bis 30 cm am effizientesten. Wahrscheinlich verhalten sich landwirtschaftlich beeinflusste Gewässer (die mit Nitrat und organischen Stoffen angereichert sind) diesbezüglich nicht laut Lehrbuchmeinung, weil es nicht zur Stofflimitierung in tieferen Schichten kommt. Ebenso unerwartet führten höhere Abflüsse nicht zu vermehrtem hyporheischen Austausch. Es zeigte sich, dass durch die Begradigung des Fliessgewässers, der normalerweise auftretende Austausch an Gewässerbettformen, der mit zunehmenden Abfluss steigt, nicht relevant ist. Die hier vorgestellten Studien liefern empirische Beweise, dass auf beiden untersuchten Skalen anthropogene Veränderungen die Nitratdynamik im Fliessgewässer erheblich beeinflussen. Eingriffe in die Morphologie, Ufervegetation, Hydrologie und Wasserqualität verändern wesentliche Ökosystem-Funktionen, die relevant für den Stoffrückhalt in Flüssen und Bächen sind. Die präsentierten Ergebnisse zeigen dass sich anthropogen veränderte Systeme überraschend verhalten, wenn Vorhersagen auf Aktio-Reaktio-Korrelationen getroffen werden, die aus Beobachtungen in natürlichen Systemen abgeleitet wurden. Weltweit ist ein grosser Anteil der Flüsse und Bäche durch Menschen verändert. Solche beeinträchtigten Fliessgewässer sind jedoch nicht angemessen in Studien über Stoffdynamiken vertreten untersuchen. Effizientes Management solcher Fliessgewässer, ebenso wie die Beurteilung von Massnahmen um die Nitratlast auf die empfangenden Fliessgewässer zu reduzieren, benötigen quantitative Aussagen über Prozesse und vorherrschende Auslöser. Kontinuierliche wie auch zeitlich integrierende Beobachtungen sind repräsentativer als Schnappschuss-Aufnahmen. Die neuen Methoden erleichtern damit auch die Übertragung lokaler Messungen und die Einbindung der gewonnenen Daten in Einzugsgebiet Modelle. Die hier vorgestellten Ergebnisse zeigen des Weiteren, dass die Nitratdynamik in einem Fliessgewässer als Indikator für die Intaktheit des Ökosystems verwendet werden kann.:Acknowledgments i List of Tables vii List of figures viii List of Abbreviations and acronyms ix Summary xi 1. Introduction 1 1.1. Goals and questions 3 1.1.1. Reach scale quantification of nitrate dynamics 4 1.1.2. Quantifying hyporheic nitrate fluxes 5 1.1.3. Hyporheic nitrate dynamics in an anthropogenically modified stream 6 2. High frequency measurements of reach scale nitrogen uptake in a 4th order river with contrasting hydromorphology and variable water chemistry (Weiße Elster, Germany) 8 2.1. Abstract 8 2.2. Introduction 9 2.3. Methods and Materials 12 2.3.1. Study site 12 2.3.2. Two stations time-series 14 2.3.3. Longitudinal Profiling 17 2.4. Results 19 2.4.1. Two stations time-series 19 2.4.2. Longitudinal profiling 23 2.5. Discussion 26 2.5.1. Diel variation 26 2.5.2. Comparison between sampling periods 28 2.5.3. Inter-reach comparison 29 2.5.4. Comparison of the Weiße Elster and other rivers 30 2.6. Conclusions 31 2.7. References 33 3. Quantifying nutrient fluxes with a new Hyporheic Passive Flux Meter (HPFM) 39 3.1. Abstract 39 3.2. Introduction 40 3.3. Methods 44 3.3.1. Construction and materials 44 3.3.2. Selection and characterization of resin 45 3.3.3. Preparation of activated carbon with alcohol tracers 47 3.3.4. Deployment and retrieval procedure 49 3.3.5. Analysis and data treatment 49 3.3.6. Field testing of hyporheic passive flux meters (HPFMs) 51 3.4. Results 56 3.4.1. Laboratory experiments 56 3.4.2. Field testing 56 3.5. Discussion 63 3.6. Conclusion and Outlook 69 3.7. References 70 4. Hyporheic passive flux meters reveal unexpected source-sink behavior of nitrogen in an anthropogenically modified stream (Holtemme, Germany) 79 4.1. Abstract 79 4.2. Introduction 80 4.3. Methods 82 4.3.1. Study site 83 4.3.2. Instrumental set-up 84 4.3.3. Deriving hyporheic denitrification rates 89 4.2. Results 92 4.2.1. Hyporheic nutrient fluxes and Darcy velocities 92 4.2.2. Nutrient concentrations in pore water 94 4.2.3. O2 and temperature 94 4.2.4. Hyporheic residence time and denitrification 95 4.5. Discussion 97 4.5.1.Darcy velocities and angle of hyporheic flow 97 4.5.2. Biotic activity 98 4.5.3. Extent of active hyporheic zone 98 4.5.4. The effect of redox conditions and residence time on the NO3 source-sink function of the Hyporheic zone 99 4.5.5. Anthropogenic influence on water quality 101 4.6. Conclusions 102 4.7. References 104 5. Discussion 110 5.1. Evaluation of the new methodology 110 5.1.1. High frequency measurements of nitrogen removal in rivers 110 5.1.2. Hyporheic passive flux meter for the quantification of nutrient fluxes 113 5.2. Results from the field studies and scientific implications 115 5.2.1. Nitrogen processing in aquatic ecosystems 115 5.2.2. Reach scale nitrogen dynamics in the Weiße Elster 117 5.2.3. Hyporheic nutrient fluxes at the Holtemme 120 5.3. Moving beyond and Outlook 123 5.3.1. Scaling and representability 124 5.3.2. Modified ecosystems 128 6. References 130 Note on the commencement of the doctoral procedure 151 Curriculum Vitae 152
Die Inhalte der verlinkten Blogs und Blog Beiträge unterliegen in vielen Fällen keiner redaktionellen Kontrolle.
Warnung zur Verfügbarkeit
Eine dauerhafte Verfügbarkeit ist nicht garantiert und liegt vollumfänglich in den Händen der Blogbetreiber:innen. Bitte erstellen Sie sich selbständig eine Kopie falls Sie einen Blog Beitrag zitieren möchten.
Die Kultusministerkonferenz beschließt eine weitreichende Reform ihrer selbst. Was sie sich vorgenommen hat – und an welche Stellen sie sich noch einen Ruck geben sollte.
Bild: Arek Socha / Pixabay.
MAN SOLLTE vorsichtig sein mit Superlativen, aber in jedem Fall ist es eine der größten Strukturreformen im Bildungsföderalismus seit Jahrzehnten. Die Kultusministerkonferenz (KMK) stellt sich neu auf. Wie vorab bereits berichtet gibt es sie künftig im Dreierpack: jeweils eigenständige Konferenzen für Bildung, Wissenschaft und Kultur. Die nur noch an den Stellen ihre Unabhängigkeit beschränken, an denen ihre Zuständigkeiten sich überschneiden. Die Kultusministerkonferenz selbst ist insofern künftig vor allem ein Dach: ein organisatorisches, verkörpert durch die gemeinsame Verwaltung, das Sekretariat, und einmal im Jahr bei der Jahrestagung, bei der die drei Konferenzen zusammenkommen (und darüber hinaus nur anlassbezogen).
Selten seien die Kontroversen in einer Sitzung der KMK so offen ausgetragen worden wie am Donnerstag im Vorfeld dieser Grundsatzentscheidung, berichten Sitzungsteilnehmer. Am Ende aber stand ein Reformbeschluss, mit dem die Minister die ambitionierten Vorschläge ihrer eigens eingerichteten Strukturkommission II umsetzen. Größtenteils zumindest.
Ein hoffentlich nur kleines Aber: An einer neuralgischen Stelle spielen die Minister noch ein wenig auf Zeit. Die Strukturkommission will in der Logik der drei Konferenzen die bisherige KMK-Präsidentschaft abschaffen, entsprechend hat die KMK beschlossen, dass die drei gleichberechtigten Konferenzvorsitzenden eine neue "Spitzenstruktur" bilden sollen. Von einem "Vorstand" anstelle des bisherigen Präsidiums war im Vorfeld der KMK-Sitzung im Hintergrund die Rede.
Wer ist künftig das öffentliche Gesicht des Bildungsföderalismus?
Was bedeutet, dass die Bildungsseite ihren bisherigen Anspruch auf das Spitzenamt aufgeben muss. Für die meisten Wissenschaftsminister das Ende des gefühlten Untergebuttertseins – und wohl auch von den Bildungsministern als unvermeidlich akzeptiert, weil sonst ein Auseinanderbrechen der KMK drohte. Aber was genau heißt das praktisch? Zumal sich die – berechtigte – Frage stellt, wie drei gleichberechtigte Vorsitzende der KMK in der Öffentlichkeit ein Gesicht geben sollen, wenn doch zur Kernkritik am Bildungsföderalismus stets dessen Vielstimmigkeit zählt. >>>
Weiter unten:
Digitalpakt, Internationalisierung, Lehrerbildung, Israel: Was sonst noch bei der KMK wichtig war
>>> "Die Vorsitzenden der drei eigenständigen Ministerkonferenzen sind in enger Abstimmung mit den jeweiligen Koordinatoren für die übergreifende politisch-strategische Koordination zuständig", heißt es jetzt im Beschluss. Und: Die Strukturkommission II werde gebeten, zur Außenvertretung KMK-"Vorschläge für eine agile Aufgabenwahrnehmung innerhalb der Geschäftsordnung vorzulegen."
Unterdessen beschloss die KMK einen weiteren von der Strukturkommission vorgeschlagenen Reformschritt, der am Ende nicht weniger weitreichend sein dürfte: die Einrichtung eines neuen Verwaltungsgremiums auf Amtschefebene. Seine Mitglieder sollen im Gegensatz zu den jedes Jahr wechselnden Konferenz-Vorsitzenden auf mehrere Jahre bestimmt werden und das KMK-Sekretariat operativ und administrativ koordinieren und steuern. Abhängig von den konkreten Personen könnte dieses Gremium zum wirkliche Kern einer langfristiger denkenden, strategischen KMK werden.
Ob es tatsächlich so passiert? Viel hängt von den nächsten Monaten ab. Bis Dezember, haben die Minister der Strukturkommission aufgetragen, soll sie jetzt Vorschläge "für die weitere Ausgestaltung der gemeinsamen Spitzenstruktur, des Verwaltungsgremiums sowie der Gesamtstruktur insbesondere der deutlichen Reduzierung der Gremien" entwickeln, über die dann in einer gemeinsamen Sondersitzung der drei Konferenzen im Dezember 2024 befunden werden soll. Spätestens dann kommt es also zum Schwur, ob die Minister wirklich bereit sind, die Konsequenzen der von ihnen angestoßenen Reform bis in die letzten womöglich nochmal konfliktreichen Details auszubuchstabieren.
Die KMK schützt ihr Sekretariat vor dem befürchteten Zerstörungswillen von Rechts außen
Wer übrigens in der Aufteilung der KMK in drei eigenständige Konferenzen ein Lösungsparadox – mehr Gremien – zu erkennen glaubt angesichts ihres vielleicht größten Strukturproblems, einer Gremienflut, der irrt hoffentlich. Denn gerade durch die klare Aufgabenteilung dürfte es weniger und vor allem weniger komplexe Abstimmungsrunden geben. Hinzu kommt die von der Strukturkommission vorgelegte und von den Ministern ebenfalls abgesegnete "Prüflogik" zur Bewertung bestehender und neuer Gremien. So soll die, siehe oben, "deutliche Reduzierung" der Gremien erreicht werden. Auch hier steht die Lieferung der realen Umsetzung allerdings noch aus.
Mit dem dringend nötigen Tempo Nägel mit Köpfen gemacht haben die Kultusminister dagegen mit einer Entscheidung, die in der Öffentlichkeit – Stichwort politischer Rechtsruck – am meisten Beachtung finden könnte. Damit künftig nicht mehr die Kündigung eines einzelnen Landes zur Auflösung des KMK-Sekretariats führen kann, soll das entsprechende Abkommen geändert werden. Und zwar so, dass nach Kündigung eines Landes die in der Kultusministerkonferenz verbleibenden Länder über die Fortführung und Aufgaben des Sekretariats sowie dessen Finanzierung entscheiden – also weitermachen können. Wie das allerdings so ist mit KMK-Entscheidungen, haben die Ministerpräsidenten (und deren Staatskanzleichefs) sowie die Finanzministerkonferenz das letzte Wort. Letztere treffen sich am 2. Oktober – während in den Ost-Ländern Sachsen, Thüringen und Brandenburg die Regierungsbildung laufen dürfte.
Bleibt noch ein großes Aber nach der Reformsitzung der Kultusminister. Durchwachsen sieht es nämlich bei der von vielen Experten geforderten Abkehr vom Einstimmigkeitsprinzip in der KMK bei allen wichtigen Fragen aus. Derzeit gilt dies vor allem bei Beschlüssen, die Auswirkungen auf die Länderhaushalte haben, sowie zur Einheitlichkeit und Mobilität im Bildungswesen und zur KMK selbst.
Die beiden Koordinatorinnen der Bildungsminister:innen Karin Prien (CDU) und Stefanie Hubig (SPD) wollen die Regelung erklärtermaßen ändern, um die KMK flexibler und schlagkräftiger zu machen, offenbar wollte das in der KMK-Sitzung auch die SPD-Seite als Ganzes. Doch gibt es auf der Unions-Seite Widerstand, aus Ostdeutschland und aus Bayern. Das spiegelt sich in dem Beschluss der Ministerrunde wider.
Beim der Debatte ums Einstimmigkeitsprinzip läuft die Zeit davon
Man wolle "grundsätzlich am Einstimmigkeitsprinzip festhalten" – "aufgrund der Bedeutung eines geschlossenen, ländergemeinsamen Handelns". Darüber hinaus soll "unter Würdigung der in der Sitzung erfolgten Aussprache" geprüft werden, "ob und wie zur Erhöhung der Agilität und Handlungsfähigkeit der Kultusministerkonferenz eine Änderung der Abstimmungsmodalitäten im Hinblick auf die neue Gesamtstruktur vorgenommen werden soll".
Ein weiterer Prüfauftrag also. Als wäre nicht das vom Kieler Verwaltungsrechtler Christoph Brüning im Auftrag der KMK verfasste Gutachten, Titel "Institutionelle Resilienz der KMK – Verfassungsrechtliche Implikationen der Verfahrensregeln der KMK" genau diese Prüfung gewesen. Immerhin: Die Strukturkommission soll bis Mitte August Vorschläge "zur Ausgestaltung etwaiger Mehrheits-entscheidungen oder anderer Verfahrenswege" vorlegen.
Wer diesen Beschluss ein wenig widersprüchlich findet, hat die Stimmung in der KMK zu dieser Frage gut erfasst. Nur läuft die Zeit für eine Änderung davon. Nach Mitte August muss es also schnell gehen. Abhängig vom Ausgang der Ost-Landtagswahlen im Herbst könnten schon Ende des Jahres Mitglieder von AfD oder BSW in der Ministerrunde hocken – und aufgrund des Einstimmigkeitsprinzips wäre man dann bei jeder Reform auf ihre Stimmen angewiesen.
"StarS" für die Grundschule
Die Kultusminister wollen künftig einheitlich testen, was Schulanfänger können. Das ist gut. Noch besser wäre es, bundesweite Qualitätsstandards und deren Monitoring endlich auf die Kitas auszuweiten. (14. Juni 2024) >>>
Zufrieden mit der eigenen Leistung: Wie die Landesminister die KMK-Reform kommentieren
Dass das mit der künftigen – gleichberechtigten – Außenvertretung der KMK noch eine diffizile Sache werden könnte, zeigt das Defilier und die Reihenfolge der Zitatgeber, die in der offiziellen Pressemitteilung zur Reform selbige kommentieren. Durch sie könne die KMK "zukünftig nicht nur besser auf aktuelle Herausforderungen reagieren, sondern kann noch aktiver mitgestalten", sagt die saarländische Bildungsministerin Christine Streichert-Clivot (SPD), in diesem Jahr und – womöglich letzte – KMK-Präsidentin.
Der saarländische Wissenschaftsminister Jakob von Weizsäcker (SPD), der bei der konstituierenden Sitzung der WissenschaftsMK Ende November in Köln den Vorsitz führen wird, sprach von einem "historischen Tag": "Mit unseren Beschlüssen passen wir die Arbeitsweise der Kultusministerkonferenz viele Jahrzehnte nach ihrer Gründung an die Herausforderungen des 21. Jahrhunderts an." Dieser Tag markiere den Aufbruch zu einer eigenständigen und schlagkräftigen Wissenschafts-MK, die bei themenübergreifenden Fragen weiterhin unter dem Dach der KMK eng mit der Bildungs- und Kulturseite zusammenarbeiten werde. "Im Ergebnis stärkt das die föderale Wissenschaftspolitik in Deutschland und damit perspektivisch unsere Wissenschafts- und Hochschullandschaft."
"Wir müssen schneller und effizienter werden", sagte die rheinland-pfälzische Bildungsministerin Stefanie Hubig, die die SPD-geführten Kultusministerien koordiniert. "Entscheidungsprozesse dauern im Schnitt neun Monate – das ist einfach zu lang." Deshalb sei es richtig, sich mit den Abstimmungsmodalitäten in der KMK zu beschäftigen. "Unser Ziel bleibt weiterhin, wegweisende Entscheidungen einstimmig zu treffen. Gleichzeitig müssen wir uns aber fragen und prüfen, wie wir Abstimmungsmodalitäten anpassen können oder andere Verfahrenswege finden, um die KMK auch in Zukunft schlagkräftig zu machen."
Hubigs CDU-Pendant, Schleswig-Holsteins Karin Prien, betonte, die KMK sei "mehr noch als andere Ministerkonferenzen ein föderaler Zusammenschluss, der ein wesentliches und konstitutives Element unserer Verfassung repräsentiert". Die Strukturreform und die Reduzierung der Gremienzahl werde die Arbeit der KMK "nachhaltig effizienter und agiler "machen. "Wir müssen uns um die Resilienz dieser Institution kümmern. Dies darf aber nicht von Angst vor möglichen Wahlergebnissen getrieben sein, sondern muss unserem Gestaltungswillen entspringen, die KMK schlagkräftiger zu machen." Das bedeutet eben auch, dass in Zukunft mehr als bisher einzelne Länder bei bestimmten Themen gemeinsam "als Innovationstreiber zur Erreichung gemeinsamer Ziele und Strategien vorangehen, auch wenn sich zu diesem Zeitpunkt noch nicht alle 16 Länder auf diese Wege geeinigt haben".
Armin Willingmann, Wissenschaftsminister von Sachsen Anhalt und Koordinator der SPD-Wissenschaftsseite, sagte, die neue WissenschaftsMK solle "eine starke wissenschaftspolitische Stimme der Länder im Austausch mit dem Bund, der deutschen Hochschul- und Forschungslandschaft sowie anderen gesellschaftlichen Akteuren sein". Durch die neue Struktur werde "mehr Klarheit und Raum fürs Wesentliche" geschaffen.
Bayerns CSU-Wissenschaftsminister Markus Blume, Koordinator der Unions-Wissenschaftsminister, intonierte bezogen auf die Gründung der WissenschaftsMK den Dreiklang "mehr Sichtbarkeit, mehr Schlagkraft, mehr Selbstbewusstsein: Wir führen die Wissenschaftspolitik in Deutschland in eine neue Zeit. Mit der eigenständigen Wissenschafts-MK geben wir der Wissenschaft den Stellenwert, den sie als Schlüsselbereich unserer Gesellschaft politisch braucht." Und: Mit der neuen Architektur entschlacken wir die KMK als Ganzes. Die einzelnen Bereiche werden agiler, effektiver und auch politischer."
Was beim KMK-Treffen im Saarland sonst noch wichtig war
Digitalpakt 2.0: Kultusminister machen weiter Druck aufs BMBF
Während ihrer Konferenz forderten die Kultusminister Bundesbildungsministerin Bettina Stark-Watzinger per Beschluss erneut auf, die Verhandlungen zum Digitalpakt 2.0. schnellstmöglich abzuschließen. "Die Verhandlungsgruppe steckt nun schon sehr lange unglaublich viel Energie in die Verhandlungen und die Länder zeigen sich in höchstem Maße konstruktiv", sagte KMK-Präsidentin Christine Streichert-Clivot. "Unsere Kinder und Jugendlichen, Schulen und Schulträger können nicht auf die dringend benötigten digitalen Investitionen warten." Der digitale Wandel sei eine kontinuierliche Aufgabe. Deshalb braucht es "eine verlässliche und dauerhafte Unterstützung der Länder durch den Bund in Form eines DigitalPakts 2.0".
Mindestens 1,3 Milliarden Euro pro Jahr fordern die Länder vom Bund. Die Kultusminister erinnerten nach ihrer Sitzung daran, "dass die Verhandlungen ursprünglich darauf abzielten, den DigitalPakt 2.0 zum 1. Januar 2025 starten zu lassen". Was fast so klingt, als glaubten sie selbst schon nicht mehr an dieses Startdatum.
SPD-Koordinatorin Stefanie Hubig, im Hauptjob Bildungsministerin von Rheinland-Pfalz, sagte: "Wir erkennen an, dass die Finanzierung für den Bund eine Herausforderung darstellt. Deshalb haben die Länder einem neuen Zeitplan für die Verhandlungen zugestimmt. Jetzt müssen wir diesen einhalten und die Gespräche schnell, konstruktiv und zielgerichtet zum Abschluss bringen." Unions-Koordinatorin Karin Prien, Bildungsministerin von Schleswig-Holstein, betonte, der neue Digitalpakt 2.0 dürfe nicht nur Infrastrukturlücken schließen, "er hat eine zentrale Gestaltungsaufgabe. Wir müssen junge Menschen auf eine Welt vorbereiten, die von Digitalisierung und künstlicher Intelligenz geprägt sein wird. Bund, Länder und Kommunen tragen dafür gemeinsam die Verantwortung."
Scharfe Reaktion aus dem BMBF
Die Replik aus dem Bundesbildungsminsterium folgte prompt. "Der heutige KMK-Beschluss zum Digitalpakt ist ein Offenbarungseid", kommentierte der parlamentarische Staatssekretär im BMBF, Jens Brandenburg, auf "X". "Wer endlich Bewegung von den Ländern erwartet hat, wird bitter enttäuscht. Viel Gejammer und Getöse. Aber kein Wort zur Lehrkräftebildung, nichts zur Entlastung der Kommunen, keine Bereitschaft zur hälftigen Kofinanzierung, keine Überwindung des Königsteiner Schlüssels. Mit dem kürzlich vereinbarten Arbeitsauftrag schien die Blockadephase einiger Länder erstmals überwunden. Nun doch wieder so ein Rückschlag. Das ist ärgerlich." Sobald endlich ein gemeinsames konzeptionelles Gerüst erkennbar sei, könne man auch über Zahlen sprechen, sagte Brandenburg – und zeigte mit seinen weiteren Äußerungen, wie persönlich der Bund-Länder-Streit um den Digitalpakt 2.0. mittlerweile ausgetragen wird. "Der größte Bremsklotz im deutschen Bildungsföderalismus sind einzelne Personen, die ihre parteipolitische Profilierung immer wieder über den Erfolg des Bildungssystems stellen." Schon das Startchancen-Programm sei "aus Wiesbaden ausgebremst" worden, "auch beim Digitalpakt geht der hessische Kultusminister Schwarz mit schlechtem Beispiel voran."
Der CDU-Politiker Armin Schwarz hatte bei Bildung.Table dem BMBF vorgeworfen, es gebe "Null-Komma-Null Planungssicherheit für die Länder". Es sei die Krönung gewesen, dass der Bund in seinem jüngsten Entwurf von einem letztmaligen Engagement gesprochen habe, das sei "unsäglich". Es gebe keinerlei Transparenz über die Haushaltsberatungen im Bund, "wenn wir beim Digitalpakt kofinanzieren müssen, wäre es wichtig, wenn die Länder etwas von der Höhe der benötigten Gelder wüssten." Das Startchancen-Programm wiederum sei "kein Programm, das ist ein Progrämmchen". Es erreiche 16 Prozent der hessischen Schulen und mache im Jahr nur wenig mehr als ein Prozent des hessischen Bildungsetats aus.
Ebenfalls laut Bildung.Table sollen die Länder am Donnerstag nicht bereit gewesen sein, über eine Tischvorlage des BMBF zum Digitalpakt zu sprechen. Vor Ort war BMBF-Staatssekretärin Sabine Döring, Bundesvertreterin in der Staatssekretärs-Verhandlungsgruppe zum Digitalpakt.
Wissenschaftsminister verabschieden neue Strategie zur Internationalisierung der Hochschulen
Die KMK beschloss bei ihrem Treffen im Saarland auch eine neue, gemeinsam von Bund und Ländern getragene Internationalisierungsstrategie der Hochschulen in Deutschland für den Zeitraum 2024 bis 2034. Sie umfasst vier Handlungsfelder von "Hochschulen als Motoren der internationalen Mobilität" (etwa eine verbesserte Willkommenskultur, die Steigerung des Studienerfolgs, mehr fremdsprachige Studienangebote) über die Verbesserung der rechtlichen und strukturellen Rahmenbedingungen (zum Beispiel beschleunigte Visa- und Aufenthaltsverfahren, flexible Zugangswege und eine optimierte Anerkennungspraxis) und die Stärkung der internationalen Zusammenarbeit bis hin zur Nutzung der digitalen Transformation (die strategische Verzahnung von Digitalisierung und Internationalisierung, datenschutzsichere Infrastrukturen, virtuelle Formate zur Ergänzung der physischen Mobilität).
Die Strategie soll von einer Indikatoren-basierten Berichterstattung über die Fortschritte begleitet werden, teilten KMK und BMBF mit.
Deutschland gehöre zu den beliebtesten Studienstandorten weltweit, sagte der saarländische Wissenschaftsminister Jakob von Weizsäcker (SPD). "Im Rahmen der Internationalisierungsstrategie wollen wir die Studienbedingungen für internationale Studierende weiter verbessern und stärken uns damit im Wettbewerb um Fachkräfte und wissenschaftliche Exzellenz." Im OECD-Vergleich habe Deutschland heute neben Kanada die höchste Bleibequote bei den Absolventen. "Das ist uns Ermutigung für den weiteren Ausbau der Willkommenskultur für unsere ausländischen Studierenden und Absolventen."
Internationale Wissenschaftskooperationen seien "der Schlüssel, um globale Herausforderungen wie die Klimakrise, den Gesundheitsschutz oder den demographischen Wandel anzugehen", sagte Bundesforschungsministerin Bettina Stark-Watzinger (FDP). "Deshalb setzen wir neue Impulse für die Internationalisierung unserer Hochschulen in vier zentralen Handlungsfeldern und schaffen gemeinsam mit den Ländern optimale Rahmenbedingungen. So bauen wir die Attraktivität und globale Wettbewerbsfähigkeit des deutschen Hochschul- und Wissenschaftsstandorts weiter aus."
Der Deutsche Akademische Austauschdienst (DAAD) begrüßte die Entscheidung. "Die Strategie zeigt, dass erfolgreiche Internationalisierung gesellschaftlich, politisch und ökonomisch positive Ergebnisse bringen kann", sagte DAAD-Präsident Joybrato Mukherjee. Richtigerweise werde der Blick auf die Chancen der Internationalisierung bei Themen wie wissenschaftlicher Exzellenz und Fachkräftegewinnung gelenkt. Zugleich berücksichtige die Strategie die Herausforderungen, insbesondere zu Themen wie Kooperation in Krisen oder der Gestaltung einer Willkommenskultur. "Diese realistische und wissenschaftsorientierte Strategie sendet das richtige Signal an die Hochschulen und die Wissenschaftsgemeinschaft in Deutschland in herausfordernden Zeiten." Der DAAD-Präsident betonte, dass die Umsetzung der Strategie eine angemessene Finanzierung erfordere.
Nach ihren ersten Beschlüssen zur Weiterentwicklung der Lehrkräftebildung im März legte die KMK im Saarland nach und sprach von "weitere(n) Schritte zur Gewinnung und Qualifizierung von Lehrkräften". Konkret sicherte sie die bereits im Frühjahr verkündete Etablierung von Ein-Fach-Lehrkräften, dualen Lehramtsstudiengängen und Quereinstiegs-Masterstudiengängen jetzt ab, indem die Minister sich auf einen "ländergemeinsamen Rahmen" einigten "für die Entwicklung verbindlicher landesrechtlicher Vorgaben zur Einführung dieser zusätzlichen Wege zur Qualifizierung von Lehrkräften durch die Länder und Hochschulen".
Weniger behördig formuliert: Da jeweils die einzelnen Länder über die rechtliche Ausgestaltung des Lehramts entscheiden und damit auch über die neuen Ausbildungswege, dient der beschlossene Rahmen dazu, die länderübergreifende Vergleichbarkeit und gegenseitige Anerkennung der Lehramtsabschlüsse und des darauf aufbauenden Referendariats sichern. Sonst wäre zum Beispiel keine berufliche Mobilität der nach den neuen Modellen ausgebildeten Lehrkräften über Landesgrenzen hinweg möglich. Dass die KMK in ihrer Pressemitteilung erneut versicherten, "die bestehenden Beschlüsse zur inhaltlichen und strukturellen Rahmensetzung in der Lehrkräftebildung bleiben unverändert", zeigt eine gewisse Paradoxie des Reformvorhabens auf: Alle wissen, dass es die Lehrkräftebildung grundsätzlich und nachhaltig verändert, doch tut man so, als handle es sich nur um Sondermaßnahmen zur Bekämpfung des Lehrkräftemangels.
Deshalb hat die gegenseitige Anerkennung der neuen Modelle Grenzen: Nur Länder, die selbst auch Lehrkräfte dual oder in nur einem Fach ausbilden, müssen sie auch von anderswoher anerkennen. Für Absolventen eines dualen Lehramtsstudiums kommt eine weitere Einschränkung dazu. Mit den neuen Regelungen für die Qualifizierung und Mobilität von Lehrkräften, die über alternative Wege in den Beruf kommen, stärken wir nicht nur die Lehrkräfteversorgung, sondern fördern auch die Anerkennung verschiedener Bildungs- und Professionalisierungswege", sagte KMK-Präsidentin Christine Streichert-Clivot. Gleichzeitig sollten den Ländern weitere Möglichkeiten gegeben werden, "auf länderspezifische Bedarfssituationen zu reagieren. Die Mobilität wollen wir dadurch sicherstellen, in dem die Länder das anerkennen an Abschlüssen, was sie auch selbst an Abschlüssen ausbilden."
Unterdessen warnte der Deutsche Philologenverband (DPhV), bei der Neuaufstellung der KMK in die drei Konferenzen Bildung, Wissenschaft und Kultur müsse besser sichergestellt werden, dass die universitäre Phase der Lehrkräftebildung "nicht so gut wie allein in der Verantwortung der Wissenschaftsministerkonferenz liegt". Mit nur einem gemeinsamen Treffen im Jahr mit der WissenschaftsMK würden die Kultusminister ihrer Verantwortung nicht mehr gerecht werden können.
KMK: Kein Boykott der israelischen Wissenschaft
Nachdem die Allianz der Wissenschaftsorganisation sich bereits am Dienstag klar gegen einen Boykott israelischer Forscher und Wissenschaftseinrichtungen positioniert hatte, taten es die Kultusminister es ihr vor dem Wochenende nach. "Wir positionieren uns entschieden gegen Boykottaktionen gegen Wissenschaft und Forschung in Israel", sagte der saarländische Wissenschaftsminister Jakob von Weizsäcker (SPD). "Die israelischen Wissenschafts- und Forschungseinrichtungen sind für uns hoch geschätzte Partner und gleichzeitig wichtige Stützen einer offenen Gesellschaft in Israel."
Die Kultusministerkonferenz setze sich nachdrücklich für eine offene und integrative Wissenschaftsgemeinschaft ein, "in der Wissenschaftlerinnen und Wissenschaftler unabhängig von ihrer Herkunft und ihrer Religion konstruktiv zusammenarbeiten können", hieß es in dem Beschluss.
Kostenfreien Newsletter abonnieren
In eigener Sache: Bitte unterstützen Sie meine Arbeit hier im Blog
Zuletzt hat sich die Blogfinanzierung verbessert, besten Dank dafür! Bitte helfen Sie auch im Juni mit, damit alle Artikel weiter für alle kostenfrei zugänglich bleiben können. Mehr lesen...
Wie Sie Blog und Newsletter unterstützen können, erfahren Sie hier...
Die Inhalte der verlinkten Blogs und Blog Beiträge unterliegen in vielen Fällen keiner redaktionellen Kontrolle.
Warnung zur Verfügbarkeit
Eine dauerhafte Verfügbarkeit ist nicht garantiert und liegt vollumfänglich in den Händen der Blogbetreiber:innen. Bitte erstellen Sie sich selbständig eine Kopie falls Sie einen Blog Beitrag zitieren möchten.
Exakt 20 Jahre nach den Terroranschlägen vom 11. September 2001 kündigte der derzeit amtierende US-Präsident Joe Biden den Abzug aller amerikanischen Truppen aus Afghanistan an. "Es ist Zeit, Amerikas längsten Krieg zu beenden" (Böhm 2021, 92). Bereits vor dem Einmarsch amerikanischer und britischer Truppen am 7. Oktober 2001, bekannt als die Operation "Enduring Freedom", hatte Amerika Stützpunkte der in Afghanistan ansässigen Terrorgruppe Al-Qaida attackiert. Der Grund hierfür waren die durch Mitglieder der Gruppe geplanten und durchgeführten Anschläge auf amerikanische Botschaften in Tansania und Kenia im Jahr 1998. "Aber die Schwelle der Kriegserklärung gegen Terroristen wurde nicht überschritten, auch um Letztere politisch nicht aufzuwerten" (Böhm 2021, 94).Als Wendepunkt gilt der 11. September 2001. Neunzehn Terroristen der Terrorgruppe Al Qaida entführten vier Passagierflugzeuge. Zwei dieser Flugzeuge wurden in die Twin Towers des World Trade Centers gesteuert. Ein weiteres zerstörte den westlichen Teil des Pentagons in Washington. Das vierte stürzte in einem Feld in New Jersey ab. Insgesamt starben durch diese vier Flugzeuge fast 3000 Menschen aus 80 verschiedenen Ländern (vgl. Hoffmann 2006, 47).Die Anschläge veränderten die Wahrnehmung der durch den Terrorismus bestehenden Bedrohung. Bereits wenige Tage nach den Anschlägen verkündete der damalige US-Präsident George W. Bush den "Global War on Terror" (Böhm 2021, 92), eine Kriegserklärung an den Terrorismus. Damit definierte er die Auseinandersetzung mit dem Terrorismus als Krieg.Neben dieser Auslegung gilt auch die Interpretation des Verhältnisses zwischen terroristischen Gruppierungen und Amerika feindlich gesinnten Staaten als entscheidend. Unmittelbar nach den Anschlägen wurde zunächst nur die Bekämpfung der Terrorgruppe Al-Qaida und des Taliban-Regimes in Afghanistan priorisiert. In den darauffolgenden Monaten wurden neben diesen auch den Terrorismus unterstützende, autoritäre Staaten und Staaten mit Zugang oder Beschaffungsmöglichkeiten von Massenvernichtungswaffen zu möglichen Zielen von Militäraktionen zur Bekämpfung des Terrorismus (vgl. Böhm 2021, 92; Kahl 2011, 19).Durch die Anschläge am 11. September 2001 wurde neben der "seit längerem bekannte Dimension der internationalen Kooperation von terroristischen Gruppen […] die neue Dimension der transnationalen Kooperation, Durchführung, Logistik und Finanzierung terroristischer Gewalt deutlich" (Behr 2017, 147).Im Rahmen dieses Beitrags wird der Terrorismus als eine Herausforderung für die Vereinten Nationen vor und nach den Anschlägen vom 11. September 2001 thematisiert. In diesem Zusammenhang wird der Frage nachgegangen, inwiefern diese die Sicherheitspolitik der Vereinten Nationen beeinflusst haben. In einem ersten Schritt wird eine Klärung des Begriffs Terrorismus vorgenommen. Im Anschluss daran wird auf die Strategien der Vereinten Nationen zur Bekämpfung des Terrorismus vor dem 11. September 2001 eingegangen. Darauf folgt eine Darstellung der direkten Reaktionen der internationalen Staatengemeinschaft auf die Anschläge. In einem letzten Schritt werden die daraus resultierenden Folgen für die internationale Sicherheitspolitik näher beleuchtet.BegriffsklärungIn einem ersten Schritt gilt es nun, den Begriff des Terrorismus näher zu definieren. Der Begriff leitet sich von dem lateinischen Wort terror ab, das als Schrecken oder Furcht übersetzt werden kann (vgl. Pfahl-Traughber 2016, 10). Nach dem Terrorismusexperten Bruce Hoffmann wird unter dem Begriff des Terrorismus die "bewusste Erzeugung und Ausbeutung von Angst durch Gewalt oder die Drohung mit Gewalt zum Zweck der Erreichung politischer Veränderung" (Hoffmann 2006, 80) verstanden.Dementsprechend ist eine terroristische Tat zunächst einmal gekennzeichnet durch die Androhung oder die Ausübung von Gewalt. Im Hinblick auf die Intensität der ausgeübten Gewalt wird deutlich, dass keine humanitären Konventionen respektiert werden und terroristische Anschläge sich oft durch "besondere Willkür, Unmenschlichkeit und Brutalität" (Waldmann 2005, 14) auszeichnen."Die Gewalttat hat primär einen symbolischen Stellenwert, ist Träger einer Botschaft, die in etwa lautet, ein ähnliches Schicksal kann jeden treffen, insbesondere diejenigen, die den Terroristen bei ihren Plänen im Wege stehen" (Waldmann 2005, 15). Basierend auf dieser Tatsache bezeichnet der Soziologe Peter Waldmann den Terrorismus "primär [als] eine Kommunikationsstrategie" (Waldmann 2005, 15).Auf der psychologischen Ebene verfolgt der Terrorismus das Ziel, über die unmittelbaren Ziele und Opfer hinaus bei einer bestimmten Gruppe Furcht hervorzurufen, um für deren Einschüchterung zu sorgen. Als Zielgruppe kommt neben Staaten, Regierungen und einzelnen religiösen oder ethnischen Gruppen auch die allgemeine öffentliche Meinung in Frage (vgl. Hoffmann 2006, 80).Davon ausgehend verfolgt der Terrorismus mit der Erzeugung von Furcht und Schrecken auf der politischen Ebene das Ziel, das Vertrauen in eine bestehende politische Ordnung zu erschüttern (vgl. Waldmann 2005, 16). Im Hinblick auf die politische Dimension des Terrorismus grenzt Waldmann diesen bewusst vom Staatsterrorismus ab. Nach Waldmann kennzeichnen terroristische Anschläge ihre planmäßige Vorbereitung und ihre Aktivität aus dem Untergrund heraus.Im Gegensatz dazu handelt es sich bei Staatsterrorismus um ein Terrorregime, errichtet durch staatliche Machteliten. Von Seiten des Staates kann zwar Terror gegenüber seinen Bürgern ausgeübt werden, er ist jedoch nicht in der Lage, die genannten Strategien gegen die eigene Bevölkerung einzusetzen (vgl. Pfahl-Traughber 2016, 17; Waldmann 2005, 12).Bei den Akteuren handelt es sich um einen Zusammenschluss von Handlungswilligen, die sich in annähernd bürokratischen Strukturen organisieren, wobei Hierarchien und informelle Abhängigkeiten entstehen. In den meisten Fällen verfügen diese Gruppierungen über eine "geringe quantitative Dimension […] handelt es sich doch überwiegend um kleinere Personenzusammenschlüsse von wenigen Aktivisten" (Pfahl Traughber 2016, 12).Diese agieren im Untergrund, da sie weder über den erforderlichen Rückhalt innerhalb einer Bevölkerung noch über die erforderliche Kampfstärke verfügen. Am Beispiel von Al-Qaida in Afghanistan wird deutlich, dass ein Hervortreten aus dem Untergrund, beispielsweise durch die Errichtung von Lagern, das Risiko impliziert "angegriffen und vernichtet zu werden" (Waldmann 2006, 13).Hinsichtlich der Bezeichnung werden im Sprachgebrauch zwei Arten von Terrorismus, der internationale und der transnationale Terrorismus, unterschieden. In diesem Zusammenhang stellt sich die Frage, ob das Phänomen des Terrorismus eher als international oder transnational zu bezeichnen ist. Nach Steinberg zeigt sich aus historischer Sicht ein fließender Übergang von dem internationalen Terrorismus hin zum transnationalen Terrorismus.Der internationale Terrorismus zeichnet sich in erster Linie durch "zahlreiche grenzüberschreitende Aktionen [aus], bei denen häufig vollkommen unbeteiligte Bürgerinnen und Bürger fremder Staaten zu Schaden kamen." (Steinberg 2015). Ferner ist für den internationalen Terrorismus charakteristisch, dass die terroristischen Aktivitäten durch Staaten unterstützt werden. Zu den Unterstützerstaaten in der Vergangenheit zählten insbesondere Verbündete der ehemaligen Sowjetunion wie beispielsweise Syrien oder Libyen.Als historisches Beispiel für den internationalen Terrorismus gelten die Attentate auf israelische Sportler*innen während der Olympischen Spielen in München 1972 durch palästinensische Terroristen. Mit dem Fall der UdSSR verloren diese Staaten ihren Schutz vor Sanktionen westlicher Nationen. Damit endete nach und nach auch die Unterstützung terroristischer Gruppierungen. Es folgte ein fließender Übergang vom internationalen Terrorismus hin zum transnationalen Terrorismus.Der Unterschied besteht darin, dass die terroristischen Aktivitäten nicht mehr durch einen Staat unterstützt werden. Die Gruppierungen werden privat mit Geld und Waffen unterstützt oder bauen eigene, substaatliche Logistik- und Finanzierungsnetzwerke auf. Der Terrorismus gilt zudem als transnational, "weil sich die terroristischen Gruppen auf substaatlicher Ebene länderübergreifend miteinander vernetzen und sich dementsprechend aus den Angehörigen verschiedener Nationalitäten zusammensetzen" (Steinberg 2015).Basierend auf diesen Erkenntnissen ist ab den 1990er Jahren nicht mehr von internationalem Terrorismus, sondern vielmehr von transnationalem Terrorismus zu sprechen (vgl. Steinberg 2015). Dies hat auch Auswirkungen auf die Organisationsstrukturen terroristischer Gruppierungen. Sie zeichnen sich durch "Dezentralisierung, Entterritorialisierung und durch Überlagerung und Fragmentierung zwischen wechselnden, funktional orientierten Akteuren aus" (Behr 2017, 150).Ein Beispiel für den Übergang von einer internationalen Organisation hin zu einem transnationalen Netzwerk stellt die im Zusammenhang mit dem 11. September 2001 stehende Terrorgruppe Al-Qaida dar. Vor den Anschlägen galt sie als eine internationale Organisation, die über ein "recht einheitliches Gebilde" (Hoffmann 2006, 425) verfügt. In Folge der Reaktionen auf die Anschläge entwickelte sie sich als eine transnationale Bewegung "mit gleich gesinnten Vertretern an vielen Orten, die über ein ideologisches und motivierendes Zentrum locker miteinander verbunden sind, aber die Ziele dieses noch verbleibenden Zentrums gleichzeitig und unabhängig voneinander verfolgen" (Hoffmann 2006, 425).Nach Vasilache ist "der gebräuchliche Terminus des internationalen Terrorismus irreführend, da er keine gängige Strategie eines Staates gegen einen anderen, sondern ein transnationales Phänomen ist, das vor Staatsgrenzen nicht halt macht" (Vasilache 2006, 151). Als Begründung führt er an, dass terroristische Anschläge oftmals von einzelnen Gruppierungen ausgehen, wobei auf die unterschiedlichen Motive in einem nächsten Schritt eingegangen wird. Weiterhin begründet er seine Aussage mit der Tatsache, dass das Ziel von staatlich initiiertem Terrorismus nicht direkt ein anderer Staat ist, sondern vielmehr zivile Ziele verdeckt attackiert werden (vgl. Vasilache 2006, 151).Anders als Steinberg spricht Vasilache also nicht von einer historischen Veränderung vom internationalen Terrorismus hin zum transnationalen Terrorismus, sondern bezeichnet das Phänomen Terrorismus generell als transnational. Da beide in der Ansicht übereinstimmen, zum Zeitpunkt der Anschläge am 11. September 2001 handele es sich um die transnationale Form des Terrorismus, wird im weiteren Verlauf von transnationalem Terrorismus gesprochen.Im Hinblick auf die Motive terroristischer Gruppierungen können im Wesentlichen vier Motive benannt werden, die sich überschneiden oder einander angleichen können. In diesem Zusammenhang wird von der Tatsache ausgegangen, dass terroristische Gruppierungen mit ihren Zielen und ideologischen Rechtfertigungen nicht zufällig entstehen, "sondern einen bestimmten gesellschaftlich-historischen Hintergrund widerspiegelt, der seinerseits wieder durch ihr Vorgehen eine spezifische Aktivierung erfährt" (Waldmann 2005, 100).Der sozialrevolutionäre Terrorismus möchte die politischen und gesellschaftlichen Strukturen nach der Ideologie von Karl Marx verändern (vgl. Waldmann 2005, 99). Ein Beispiel hierfür stellt die Rote Armee Fraktion (kurz: RAF) dar, die in den 1970er Jahren in Deutschland terroristische Anschläge verübte.Wenn unterdrückte Völker oder Minderheiten das Ziel von mehr politischer Autonomie oder staatlicher Eigenständigkeit mit terroristischen Strategien verfolgen, handelt es sich um ethnisch-nationalistischen Terrorismus. Als Exempel hierfür kommt die baskische ETA infrage, die aus einer Studierendenorganisation heraus entstanden ist und sich in den 1960er Jahren zunehmend radikalisierte (vgl. Waldmann 2005, 103f.).Unter die dritte Form des Terrorismus, "der militante Rechtsradikalismus" (Waldmann 2005, 115), fallen unterschiedliche Gruppen wie beispielsweise die Ku-Klux-Klan-Bewegung in Amerika. Trotz der unterschiedlichen Ausprägungen können bei all diesen Gruppen im Wesentlichen zwei Merkmale ausgemacht werden: zunächst einmal kämpfen sie für den Erhalt bestehender Strukturen und wollen keine strukturellen Veränderungen hervorrufen. Zudem richtet sich diese Form des Terrorismus in erster Linie nicht gegen das politische System, sondern vielmehr gegen einzelne Gruppen der Gesellschaft (vgl. ebd., 115). Ferner kennzeichnet den rechtsradikalen Terrorismus auch eine andere Strategie und eine andere Erscheinungsform. Bei den Aktivisten handelt es sich um "Teilzeitterroristen" (ebd., 117), die typischerweise in ihrer Freizeit agieren. Ihre Aktivitäten sind nicht im Untergrund, sondern werden vielmehr offen durchgeführt. Hinzu kommt, dass die Anschläge teils geplant und teils spontan erfolgen, mit dem Ziel, die Opfer zum Verlassen des Ortes oder Landes zu bewegen (vgl. ebd., 117f.).Bei der vierten Form des Terrorismus handelt es sich um religiös motivierten Terrorismus. Beispiel hierfür ist die bereits mehrfach angesprochene Terrorgruppe Al-Qaida. Sie entstand als Reaktion auf den Angriff der Sowjetunion auf Afghanistan Ende der 1970er Jahre. Die Brutalität der Invasion sorgte für eine große Solidarität innerhalb der islamischen Welt und führte zu einem Zuzug von zahlreichen islamischen Glaubenskämpfer*innen aus anderen Ländern, darunter auch Osama Bin Laden. Dieser gewann im Laufe der 1980er Jahre immer mehr an Einfluss und gründete mit dem Abzug der Sowjets Ende des Jahrzehnts Al Qaida mit dem Ziel, an einer anderen Front weiterzukämpfen. Es erfolgte ein Strategiewechsel "des Djihads nach innen, gegen verräterische Herrscher in den islamischen Staaten, auf die Strategie eines Djihads nach außen, gegen den Westen" (ebd., 152).Ein definitorisches Problem von Terrorismus ergibt sich aus der Tatsache, dass auf der internationalen Ebene bislang keine einheitliche Definition gefunden wurde. Im Rahmen der Resolution 1566 aus dem Jahr 2004 definierte der Sicherheitsrat der Vereinten Nationen den Begriff Terrorismus wie folgt als "Straftaten […], die mit dem Ziel begangen werden, die ganze Bevölkerung, eine Gruppe von Personen oder einzelne Personen in Angst und Schrecken zu versetzten, eine Bevölkerung einzuschüchtern oder eine Regierung oder eine internationale Organisation zu einem Tun oder Unterlassen zu nötigen […]" (UN-Resolution1566 2004).Neben dieser existieren weitere nationale und internationale Definitionen, wie unter anderem die der Europäischen Union oder die Definitionen einzelner amerikanischer Behörden. Auf der politischen Ebene können die Schwierigkeiten hinsichtlich einer einheitlichen Definition anhand folgender Punkte näher beleuchtet werden: zunächst einmal werden Handlungen von unterschiedlichen Staaten unterschiedlich eingestuft. Für die einen handelt es sich um gewalttätige terroristische Angriffe; andere stufen die Aktivitäten als politisch legitimierte Handlungen in Ausübung des Selbstverteidigungsrechts während eines nationalen Befreiungskampfes ein.Ferner herrscht Uneinigkeit darüber, ob eine Definition auch den Staatsterrorismus umfassen sollte oder ob sie lediglich die motivationalen Hintergründe der Täter umfasst. Anhand der genannten Schwierigkeiten wird deutlich, dass die Einschätzung, ob es sich bei der Bedrohung um eine terroristische Bedrohung handelt und ob es sich bei der Organisation um eine terroristische Organisation handelt, dem nationalen Verständnis oder dem Verständnis der jeweiligen Institution unterliegt. Folglich könnte die Klassifizierung missbraucht werden, um ungewünschte innerstaatliche Gruppierungen oder andere mit dem Begriff zu stigmatisieren und deren Verfolgung zu rechtfertigen (vgl. Finke/Wandscher 2001, 168; Kaim 2011, 6).Abschließend gilt es noch zu klären, ob terroristische Aktivitäten als Kriegshandlungen bezeichnet werden können oder ob vielmehr eine Trennung der beiden Begriffe erforderlich ist. Als unmittelbare Reaktion auf die Anschläge des 11. Septembers bekundete Amerika immer wieder seinen Krieg gegen den Terror. Neben Präsident Bushs "global war on terror" sprach auch der amerikanische Verteidigungsminister Donald H. Rumsfeld im Zuge der Anschläge von einer neuen Kriegsart, "die sich vor allem neuer Technologien bedienen, asymetrisch verfahren und deswegen auch nicht leicht zu erkennen sein würde" (Czempiel 2003, 113).Diese Verwendung des Kriegsbegriffes in Verbindung mit terroristischen Anschlägen offenbart einen strategischen Zug der US-Regierung. "Dehnt man den Kriegsbegriff auf terroristische Akte aus, legitimiert dies den Angegriffenen auch zu Kriegshandlungen" (Geis 2006, 12). Der Regierung ist es infolgedessen möglich, über rechtsstaatliche Mittel hinaus Maßnahmen zu ergreifen und sie kann zudem von einer breiten Unterstützung innerhalb der eigenen Bevölkerung ausgehen (vgl. Geis 2006, 12). Bei der Frage, ob der transnationale Terrorismus als eine Form des Krieges bezeichnet werden kann, offenbart sich aus politikwissenschaftlicher Sicht eine erhebliche Kontroverse.Neben der Kategorisierung zwischen den alten und neuen Kriegen existiert auch die Unterscheidung zwischen großen und kleinen Kriegen. Diese "basiert auf der Art der Vergesellschaftungsform der Kriegführenden" (Geis 2006, 21). Im Fall des großen Krieges sind die Akteure in gleichem Maß vergesellschaftet, ein Staat kämpft gegen einen anderen Staat. Im Falle eines kleinen Krieges besteht eine "asymetrische Konfliktstruktur zwischen ungleich vergesellschaftlichen Akteuren: Staatliche Kombattanten treffen auf nichtstaatliche Kämpfer" (Geis 2006, 21).Ob unter die kleinen Kriege auch der Terrorismus zu subsumieren ist, ist jedoch umstritten. Zunächst einmal wird dagegen angeführt, dass der Preis auf normativer Ebene zu hoch sei. Eine Unterscheidung beider bedeutet einen Fortschritt des Völkerrechts, da die Trennung immer eine Unterscheidung zwischen politisch legitimierter Gewalt im Zuge einer Kriegshandlung und illegitimer Gewalt, ausgeübt im Zuge eines Verbrechens, ermöglicht.Hinzu kommen Bedenken "bezüglich der Folgen eines ungehegten Counterterrorismus der angegriffenen Staaten" (Geis 2006, 22). In einem permanenten Kriegszustand hätten demokratische Staaten die Möglichkeit, die Erweiterung des Sicherheitsapparates und Bürgerrechtseinschränkungen zu legitimieren (vgl. ebd., 21f.). Als weiteres Argument wird angeführt, dass eine Trennung beider Begriffe aus analytischer Sicht sinnvoll sei, da es sich beim Terrorismus primär um eine Kommunikationsstrategie handele. Dieser fehlen neben der territorialen Dimension auch die wechselseitig beständige Gewaltanwendung und das Charakteristikum eines Massenkonflikts (vgl. ebd., 23).Für eine Subsumierung des Terrorismus unter den Kriegsbegriff spricht insbesonders die Sichtweise der Vereinten Nationen, die im Zuge der Anschläge vom 11. September 2001 den Vereinigten Staaten von Amerika das Recht auf Selbstverteidigung gemäß Art. 51 UN-Charta zugesprochen hat (vgl. Resolution 1373 2001). Auf diese Tatsache wird zu einem späteren Zeitpunkt noch einmal eingegangen. Anschließend wird der Sichtweise der Vereinten Nationen gefolgt und folglich der Terrorismus unter den Begriff des Krieges subsumiert.Reaktionen der Vereinten Nationen auf Terrorismus vor dem 11. September 2001In einem nächsten Schritt gilt es, auf die Reaktionen der Vereinten Nationen auf das Phänomen des Terrorismus vor dem 11. September 2001 einzugehen. Hierbei wird zunächst auf das unterschiedliche Verständnis in Bezug auf den Sicherheitsbegriff näher eingegangen. Seit den 1970er Jahren gilt nicht mehr nur die politische Souveränität und die territoriale Integrität der einzelnen Staaten als das zu schützende Objekt der Sicherheitspolitik.Neben der zu schützenden staatlichen Sicherheit geriet auch die Gesellschaft, definiert als ein "Zusammenschluss von Individuen" (Kaim 2011, 3), in den Mittelpunkt sicherheitspolitischen Handelns. In den 1990er Jahren erfolgte die Aufnahme einer weiteren Dimension in Gestalt der menschlichen Sicherheit in den Diskurs rund um den Sicherheitsbegriff und die damit verbundenen Aufgaben. Nach diesem Verständnis ist die Sicherheit, die Freiheit und der Wohlstand des Individuums zu schützen. Es zeigt sich jedoch, dass die Dimensionen in der politischen Praxis nicht getrennt voneinander betrachtet werden können. Der Schutz des Individuums umfasst ebenso die Gesellschaft, in der es lebt, und letzlich auch den Staat (vgl. Kaim 2011, 3f.).Aus sicherheitspolitischer Perspektive gilt der "Terrorismus als entterritorialisiertes Sicherheitsrisiko" (Behr 2017, 151), das zu drei Konsequenzen führt. Zunächst einmal sind terroristische Aktivitäten nicht voraussagbar. Es besteht das Risiko, dass sie sich zu jeder Zeit an jedem Ort ereignen können. Hinzu kommt, dass die Akteure anders als Staaten keine politische Einheit darstellen. Vielmehr ereignen sich einzelne, verstreut zusammenhängende Handlungen ohne einen genau ausmachbaren Anfang oder Ende. Folglich kann auf das sicherheitspolitische Risiko Terrorismus nur reagiert werden, wenn die Maßnahmen "Handlungs- und Organisationslogiken transnationaler Politik erfassen und übernehmen" (Behr 2017, 151).Die Problematik des transnationalen Terrorismus als Herausforderung für die Vereinten Nationen und ihrer Sonderorganisationen führte zu einer Reihe von Abkommen mit der Intention der Beseitigung und Bekämpfung der Problematik. In diesem Zusammenhang kristallisierte sich ein pragmatischer Ansatz heraus. "[B]esonders häufig auftretende terroristische Aktivitäten [wurden] zum Gegenstand spezifischer Konventionen gemacht" (Finke/Wandscher 2001, 169).Nahezu alle von der Generalversammlung und den Sonderorganisationen verabschiedeten Abkommen können aufgrund bestimmter Kernelemente als Antiterrorkonventionen bezeichnet werden. Zu den besagten Kernelementen gehört zunächst einmal die Verpflichtung der Vertragsstaaten, die in dem jeweiligen Abkommen genannte strafbare Handlung in das jeweilige innerstaatliche Recht aufzunehmen und angemessen zu bestrafen.Hinzu kommt, dass verdächtige Personen entweder durch den Staat selbst zu verfolgen sind oder an einen anderen, verfolgungswilligen Staat ausgeliefert werden müssen. Eine Auslieferung kann nur dann verweigert werden, wenn das Auslieferungsgesuch aufgrund religiöser, ethischer, nationaler, rassistischer oder politischer Gründe erfolgt ist. Ferner sind die Vertragsstaaten dazu verpflichtet, untereinander zu kooperieren und sich gegenseitig Rechtshilfe zu gewähren (vgl. Finke/Wandscher 2001, 169).Das erste derartige Übereinkommen stellt das Haager Abkommen von 1970 zur Bekämpfung der widerrechtlichen Inbesitznahme von Luftfahrzeugen dar. Darauf folgte das Montrealer Abkommen von 1971 zur Bekämpfung widerrechtlicher Handlungen gegen die Sicherheit der Zivilluftfahrt (vgl. ebd., 169). Die besagten Abkommen ordnen bestimmten Aktivitäten zwar das Adjektiv terroristisch zu, stufen diese jedoch nicht als Bedrohung des Weltfriedens ein oder führen zu der Anordnung von Zwangsmaßnahmen gemäß Kapitel VII der UN-Charta durch den Sicherheitsrat.Dies änderte sich mit der Explosion einer Bombe an Bord des Pan-American-Flugs 103 über der schottischen Ortschaft Lockerbie im Jahr 1988. Hier wurden zwei Staatsangehörige Libyens für die Anschläge verantwortlich gemacht, und das Land von den Vereinigten Staaten und Großbritannien zu deren Auslieferung aufgefordert. Der libysche Staat verweigerte das. Als Reaktion darauf wurde der Terrorakt im Rahmen der Resolution 731 durch den Sicherheitsrat als Bedrohung des Weltfriedens gemäß Kapitel V Artikel 24 eingestuft.Durch Resolution 748, ebenfalls 1992 verabschiedet, wurde die Nichtauslieferung durch Libyen als "eine Bedrohung des Weltfriedens und der internationalen Sicherheit" (Finke/Wandscher 2001, 171) bezeichnet und Zwangsmaßnahmen gemäß Kapitel VII UN-Charta gegen das Land erlassen (vgl. Behr 2017, 147; Finke/Wandscher 2001, 170f.).Der Einsatz von Zwangsmaßnahmen gemäß Kapitel VII der UN-Charta erwies sich als wirksames Mittel der Terrorismusbekämpfung im Hinblick auf die Durchsetzung bestimmter Maßnahmen. Hierunter fallen insbesonders Maßnahmen, die zwar Gegenstand geltender Antiterrorkonventionen sind, diese durch die betreffenden Staaten jedoch nicht ratifiziert wurden oder die Konvention selbst noch nicht in Kraft getreten ist (vgl. Finke/Wandscher 2001, 171).Diese Strategie des Sicherheitsrates etablierte sich insbesonders hinsichtlich der Situation in Afghanistan. In Folge der Anschläge auf amerikanische Botschaften in Nairobi und Daressalam erließ der Sicherheitsrat mit der Resolution 1267 Individualsanktionen gegen die afghanischen Taliban. Der Grund hierfür war die Tatsache, dass diese den Verantwortlichen für die Anschläge, der Terrorgruppe Al-Qaida und ihrem Anführer Osama bin Laden, Unterstützung gewährte.Insbesonders durch das Einfrieren der finanziellen Mittel, aber auch durch ein Waffenembargo und ein Reiseverbot, sollten diese zur Auslieferung Bin Ladens gezwungen werden. Um die Umsetzung dieser Maßnahmen zu gewährleisten, setzte die Resolution zudem einen Unterausschuss des Sicherheitsrates ein (vgl. Kreuder-Sonnen 2017, 159).Direkte Reaktionen der Staatengemeinschaft auf den 11. September 2001Als erste Reaktion auf die Anschläge des 11. September 2001 wurde vom Sicherheitsrat bereits am Tag nach den Anschlägen die Resolution 1368 erlassen. In dieser wurde der Terrorismus einstimmig als "Bedrohung des Weltfriedens und der internationalen Sicherheit" (UN-Resolution 1368 2001) im Sinne von Art. 39 UN-Charta bezeichnet. Zugleich wurde auf das Recht zur individuellen und zur kollektiven Selbstverteidigung verwiesen (vgl. UN-Resolution 1368 2001).Noch im gleichen Monat, am 28 September 2001, wurde das Recht zur individuellen und kollektiven Selbstverteidigung mit Resolution 1373 bekräftigt und die internationale Staatengemeinschaft aufgefordert, "durch terroristische Handlungen verursachte Bedrohungen […] mit allen Mitteln im Einklang mit der Charta zu bekämpfen" (Resolution 1373 2001).Neben dem Sicherheitsrat der Vereinten Nationen reagierte auch der Nordatlantikrat umgehend. Am 12. September erklärte der damalige Generalsekretär George Robertson die Anschläge zum kollektiven Verteidigungsfall, wodurch Artikel 5 des NATO-Vertrages in Kraft trat. Nach diesem ist jeder Mitgliedstaat verpflichtet, mit von ihm ausgewählten Mitteln zu helfen (vgl. Robertson 2001).Aus amerikanischer Sicht dienten die Anschläge nicht nur dem Zweck der Tötung von amerikanischen Zivilisten, "Bush sah darin die gesamte westliche Zivilisation herausgefordert" (Czempiel 2003, 114). In seiner Rede am 20. September 2001 warnte der amerikanische Präsident alle Staaten hinsichtlich der Unterstützung und der Beherbergung von Terroristen. Innerhalb der Regierung wurde hinsichtlich der Bekämpfungsstrategie "offen von Präemption gesprochen" (Czempiel 2003, 115).Als Adressaten der amerikanischen Drohung kamen insgesamt 60 Länder mit aktiven terroristischen Organisationen in Frage (vgl. ebd., 114). Auch wenn die meisten Attentäter der Anschläge ursprünglich aus Saudi-Arabien stammten, erhärtete sich zunehmend der Verdacht, dass ihre Aktivitäten von Afghanistan aus gelenkt wurden. Im Zuge dessen wurde das Land als "Prototyp" (ebd., 115) für die Terrorismusbekämpfung ausgewählt. Mit der Operation "Enduring Freedom" starteten amerikanische und britische Truppen am 7. Oktober 2001 Angriffe auf Talibanstützpunkte wie etwa auf Regierungsgebäude in Kandahar und Kabul (vgl. Bruha/ Bortfeld 2001, 162; Czempiel 2003, 115).Der Umstand, dass sich am Tag nach den Anschlägen der Sicherheitsrat der Vereinten Nationen mit diesen befasste "ist ein erstaunlicher Beweis für die politische Klugheit der USA" (Tomuschat 2002, 20) hinsichtlich der Legitimation der Reaktion auf diese. In diesem Zusammenhang gilt es sich jedoch zu fragen, ob die genannten Resolutionen das Land tatsächlich zu einem Recht auf Selbstverteidigung gemäß Artikel 51 UN-Charta legitimieren.In Resolution 1368 findet sich in Bezug darauf ein entscheidender Widerspruch, welcher die rechtlich bedeutsamen Aussagen schwer greifbar macht. Dieser bekräftigt das Recht auf individuelle und kollektive Sicherheit im Sinne der Charta, bezeichnet die Angriffe jedoch lediglich als eine Bedrohung des globalen Friedens und der Sicherheit. Die bekundete Entschlossenheit, die Bedrohung "mit allen Mitteln zu bekämpfen" (UN 2001, 315), kann nicht als eine Ermächtigung für einzelne Staaten aufgefasst werden, sondern steht für die grundsätzliche Bereitschaft der internationalen Gemeinschaft.Anders als Resolution 1368 enthält Resolution 1373 mehr rechtlich eindeutige Aussagen. Bereits in der Präambel wird auf die Anwendung der Maßnahmen gemäß Kapitel VII UN-Charta verwiesen. Zudem bestätigt sie die Zulässigkeit des Einsatzes "aller Mittel" durch die Opfer von terroristischen Anschlägen (vgl. UN 2001, 316f.). Es zeigt sich also, dass eine Berechtigung zu der Ausübung des Selbstverteidigungsrechts gemäß Art. 51 UN-Charta durch die Vereinigten Staaten im Rahmen der genannten Resolution durchaus vorliegt (vgl. Tomuschat 2002, 20f.).Nun stellt sich die Frage, ob die Verbindungen zwischen den Anschlägen und dem Taliban-Regime derart offensichtlich waren, dass die militärischen Aktionen gegen die Taliban in Afghanistan unter die Ausübung des Selbstverteidigungsrechts fallen. In diesem Zusammenhang kann man sich nicht auf die genannten Resolutionen berufen, da diese nicht aufzeigen, "gegen wen Gegenwehr zulässig sein soll" (Tomuschat 2002, 21). Folglich gilt es, die Reaktionen des Sicherheitsrates und der Generalversammlung näher zu betrachten.Es zeigt sich, dass beide Institutionen die amerikanisch-britische Militärintervention nicht verurteilten. Vielmehr verabschiedete der Sicherheitsrat am 12. November 2001 einstimmig Resolution 1377. In dieser wurde der Terrorismus als "eine der schwerwiegendsten Bedrohungen des Weltfriedens und der internationalen Sicherheit im 21. Jahrhundert" (UN-Resolution 1377 2001) bezeichnet. Mit dieser Qualifikation wurde implizit der Einsatz von äußersten Mitteln gestattet, da die Resolution keine "Grenzen und Schranken von Gegenmaßnahmen enthält" (Tomuschat 2002, 21). Letztendlich kann man also davon ausgehen, dass die Vereinten Nationen die Ausübung des Selbstverteidigungsrechts gemäß Art. 51 UN-Charta durch die USA als Reaktion auf die Anschläge vom 11. September 2001 zumindest implizit gebilligt haben (vgl. Tomuschat 2002, 21f.).Als Reaktion auf die Anschläge wurden die bislang geltenden Individualsanktionen gegen die afghanischen Taliban und das Terrornetzwerk Al-Qaida mithilfe der Resolution 1390 zu allgemeinen, dauerhaft geltenden Maßnahmen gegen den transnationalen Terrorismus umgewandelt. Damit wurde nicht nur der Adressatenkreis erweitert, es wurde zusätzlich auch die räumliche und die zeitliche Begrenzung aufgehoben.Jede Person, die von einem Staat als Terrorverdächtiger genannt wurde, bekam ab diesem Zeitpunkt die Sanktionen im Hinblick auf das Privatleben, das private Eigentum, auf den Sozialstatus und das Unterhalten von geschäftlichen Beziehungen zu spüren. Fundierte Beweise für eine Aufnahme in die sogenannte "Schwarze Liste" (Kreuder-Sonnen 2017, 160) durch die Staaten waren ebenso wenig notwendig wie eine Begründung gegenüber dem Individuum (vgl. Kreuder- Sonnen 2017, 160).Folgen für die SicherheitspolitikAngesichts der aufgezeigten Gegenmaßnahmen als direkte Reaktion auf die Anschlage des 11. Septembers 2001 wird deutlich, dass man "bezüglich der Reaktion auf den Terrorismus von einer neuen Ära" (Waldmann 2005, 229) ausgehen muss. Es zeigt sich, dass sowohl bei diesen Anschlägen als auch bei terroristischen Anschlägen in den Folgejahren "die durchschnittliche Zahl der Opfer pro Anschlag […] kontinuierlich ansteigt" (Waldmann 2005. 16).Infolgedessen spricht auch Waldmann im Kontext von terroristischen Anschlägen von Kriegshandlungen. Seiner Ansicht nach hat das zunehmende Ausmaß der Anschläge dazu geführt, dass diese nicht mehr als `low intensity´ war, sondern vielmehr als `high intensitiy´ war eingestuft werden müssen. Der Grund hierfür ist seiner Ansicht nach die Tatsache, dass der Begriff des low intensity war neben dem fehlenden Einsatz von konventionellem Kriegsgerät und größeren Truppenverbänden auch einen begrenzten Personen- und Sachschaden impliziert (vgl. Waldmann 2005, 16f.).Auf der internationalen Ebene spiegelten sich die Reaktionen auf das zunehmende Ausmaß der Anschläge vor allem in den zahlreich erlassenen Konventionen und Resolutionen wieder. Hinzu kommt die Tatsache, dass terroristische Anschläge erstmals zu militärischen Interventionen in Länder geführt haben, die sich in erheblicher Entfernung von dem betroffenen Land befinden. Zumindest im Fall von der militärischen Intervention in Afghanistan herrschte eine seltene Einigkeit zwischen den Großmächten im Sicherheitsrat.Ferner führten die Ereignisse zu einem erheblichen Medieninteresse (vgl. Waldmann 2005, 229). Anhand dessen lässt sich "[d]ie neue Einschätzung des gewaltigen, vor allem dem internationalen Terrorismus zugeschriebenen Drohpotentials" (ebd., 230) feststellen. Diese führte zu drei als signifikant zu bezeichnenden Veränderungen im Hinblick auf die Politik und die Einstellung in Bezug auf den Terrorismus (vgl. ebd., 230).Zunächst einmal bewirkte der transnationale Terrorismus in den westlichen Nationen nicht nur einen "politischen Rechtsruck" (ebd., 230) aller regierenden Parteien. Er wirkte sich auch auf alle Ebenen der Gesellschaft aus. Dieser Wandel auf der nationalen Ebene wirkte sich auch auf die Entscheidungen internationaler Gremien aus. Die bislang vorhandene Balance zwischen der individuellen und kollektiven Sicherheit auf der einen Seite und den Grund- und Freiheitsrechten auf der anderen Seite hat sich zunehmend zugunsten des Sicherheitsaspektes verschoben (vgl. ebd., 230).Insbesonders um den Informationsaustausch zwischen den Staaten gewährleisten zu können und damit ein gemeinsames Vorgehen gegen die Bedrohung zu ermöglichen, wurden internationale Instanzen zur Koordinierung geschaffen (vgl. Behr 2017, 151; Waldmann 2005, 231). Ferner erfolgte eine erhöhte Aufmerksamkeit und Ressourcenbereitstellung für national und international agierende Behörden hinsichtlich terroristischer Aktivitäten und damit verbunden eine Reihe neuer, zu diesem Zweck erlassener Gesetze.Neben dem Informationsaustausch wurden auch die Möglichkeiten der Polizei und anderer Instanzen erweitert, um Anschläge bereits im Planungs- und Vorbereitungsstadium erkennen und verhindern zu können. Hierzu gehören beispielsweise Einreiseverbote für Mitglieder islamistischer Gruppierungen. Neben den erweiterten präventiven Maßnahmen wurden auch Notfallszenarien entwickelt, die im Fall eines Anschlags in Kraft treten (vgl. Waldmann 2005, 232).Im Hinblick auf die dargestellten Veränderungen stellt sich in einem nächsten Schritt die Frage, inwiefern weitere Maßnahmen aus der Sicht der Vereinten Nationen erforderlich sein könnten. Nach dem Terrorismusexperten Peter Waldmann "wird keine Unterscheidung zwischen Maßnahmen auf der nationalen und der internationalen Ebene getroffen, weil beide längst immer enger ineinander greifen und in die gleiche Richtung zielen" (Waldmann 2005, 239).Als zentrale Handlungsmaxime benennt Waldmann in diesem Zusammenhang die Tatsache, dass die Strategien gegenüber terroristischen Netzwerken beziehungsweise dem Terrorismus im Allgemeinen "klar, konsistent und glaubhaft" (Waldmann 2005, 239) sein sollen. Hinsichtlich des Umgangs mit dem islamistischen Terrorismus besteht die größte Problematik darin, dass westliche Nationen ihre Glaubhaftigkeit bezüglich ihrer Leitlinien teilweise verlieren. Insbesonders den Vereinigten Staaten von Amerika wird vorgeworfen, dass sie ihren Prinzipien der Demokratie, des Grundrechtsschutz und der Rechtsstaatlichkeit zugunsten von politischen und wirtschaftlichen Interessen teilweise nicht treu sind (vgl. ebd., 240)."Dass sie aus machtpolitischen Erwägungen jederzeit dazu bereit sind, mit Diktaturen Bündnisse zu schließen, und hinter ihrem quasi messianischen Diskurs, es gelte in der ganzen Welt demokratische Verhältnisse herzustellen, nun allzu deutlich das dringende Bestreben durchscheint, der eigenen Wirtschaft lukrative neue Erdölfelder zu erschließen." (Waldmann 2005, 240).Hinsichtlich der Maßnahmen auf der internationalen Ebene gilt es zunächst auf die Transnationalität näher einzugehen. Wie bereits erwähnt, handelt es sich bei terroristischen Gruppen in den meisten Fällen nicht um eine Gruppe aus einem Land, sondern um Angehörige unterschiedlicher Länder, die sich länderübergreifend miteinander vernetzt haben. Um dem begegnen zu können, erscheint es unabdingbar, dass auch Staaten grenzübergreifend miteinander kooperieren. Dies würde eine erhebliche Bereitschaft der Teilnehmenden zu einem Teilverzicht auf ihre staatlichen Souveränitätsräume und ihrer Souveränitätsrechte bedeuten.Hinsichtlich der nationalen und internationalen Rechtsordnungen im Allgemeinen verlangen transnationale Rechtsverstöße auch eine entsprechende Weiterentwicklung des Rechts auf internationaler Ebene. Transnationale Verbrechen können nicht durch an nationale Grenzen gebundenes Recht bekämpft werden, da aufgrund der unterschiedlichen Verfassungen rechtsfreie Sphären auf globaler Ebene entstehen. Folglich ist eine Ausweitung des transnationalen Rechts erforderlich. Hierfür müsste das Völkerrecht, bislang mit dem Staat als Rechtsperson und einer rechtlichen Bindung auf dem staatlichen Territorium, entterritorialisiert werden (vgl. Behr 2017, 151; Schmalenbach 2004, 266).Neben der Kooperation von Staaten und der Erweiterung des internationalen Rechts spricht Ernst-Otto Czempiel von einer "dreigeteilte[n] Strategie" (Czempiel 2003, 57) hinsichtlich der Verhinderung weiterer terroristischer Anschläge. Kurzfristig ist es die Aufgabe der Staaten, weitere Anschläge zu verhindern. In diesem Zusammenhang offenbart sich jedoch eine in demokratischen Staaten schwierige Güterabwägung hinsichtlich des Schutzes der kollektiven Sicherheit und der individuellen Freiheitsrechte (vgl. Czempiel 2003, 57).Die bürgerliche Freiheit stellt in demokratischen Staaten ein hohes Gut dar. Auf der anderen Seite würde der fortschreitende Ausbau des staatlichen Sicherheitsapparates eine "allmähliche Aushöhlung der individuellen Grund- und Freiheitsrechte um des Schutzes angeblich höherwertiger Güter willen" (Waldmann 2005, 242) bedeuten. Die Folge wäre eine Entwicklung des Rechtsstaates hin zu einem "präventiven Sicherheitsstaat" (Waldmann 2005, 242) mit einer teilweisen Abkehr von demokratischen Grundsätzen (vgl. Hofmann 2006, 446; Waldmann 2005, 242).Infolgedessen gilt es mittelfristig, sich mit dem Hintergrund der Akteure auseinanderzusetzen. "Als besonders fruchtbare Brutstätte gelten die zahlreichen `failing states´, also die gescheiterten oder zerfallenen Staaten" (Czempiel 2003, 58). Am Beispiel Afghanistans wird deutlich, dass der Westen einen erheblichen Anteil an dem Scheitern des Landes und an der Entstehung der dort ansässigen Terrorgruppe hatte.Im Zuge des Konflikts mit der Sowjetunion hatte Amerika die Kämpfer unterstützt. Mit dem sowjetischen Abzug endete auch die amerikanische Unterstützung, und das zerstörte Land wurde ebenso wie die von Amerika ausgebildeten Kämpfer sich selbst überlassen. Es gründete sich die Terrorgruppe Al Qaida mit dem neuen Feind in Gestalt der USA. Die Entwicklungen in Afghanistan haben gezeigt, dass bei jeder Einmischung von außen neben den kurzfristigen auch die langfristigen Konsequenzen zu bedenken sind und dass "das Objekt der Einmischung auch politisch und wirtschaftlich davon profitiert" (Czempiel 2003, 58).Aus langfristiger Sicht gilt es, die "Quellen des Terrorismus auszutrocknen" (ebd., 58) und eine Veränderung des Kontextes zu erwirken. In diesem Zusammenhang ist die Stabilisierung der "failing states" von entscheidender Bedeutung. Czempiel spricht von einer Neuordnung der Welt, "die immer mehr als ein Quasi-Binnenraum begriffen und mit entsprechender Strategie bearbeitet werden muss" (ebd., 59). Neben der Verringerung der Dominanz des Westens ist eine Änderung der Werteverteilung und ein Lösen der großen Konflikte erforderlich (vgl. ebd., 59).FazitDie Anschläge in den Vereinigten Staaten von Amerika am 11. September 2001 wirkten sich nicht nur traumatisch auf das "Selbst- und Machtbewusstsein der USA" (Czempiel 2003, 40) aus, sie versetzten auch den Rest der Welt in "Angst und Schrecken" (Czempiel 2003, 40). Zu Beginn des 21. Jahrhunderts erschien eine militärische Auseinandersetzung zwischen zwei Staaten unwahrscheinlich. Vielmehr stellte der Terrorismus als eine "neue Bedrohung von innen durch gesellschaftliche Akteure" (ebd., 57) das größte sicherheitspolitische Risiko insbesonders für westliche Industriestaaten dar. (vgl. ebd., 57). "Der Terror soll Angst und Schrecken verbreiten, ein Gefühl allgemeiner Unsicherheit erzeugen und offene Panik auslösen" (Hofmann 2006, 445). Hinzu kommt, dass mit dieser Form der psychologischen Kriegsführung das Vertrauen innerhalb der Gesellschaft in die politische Führung und in den Staat im Allgemeinen zerstört werden soll.Aus historischer Sicht existiert das Phänomen des Terrorismus seit mehr als 2000 Jahren. "Er hat überlebt, weil es ihm gelungen ist, sich immer wieder an die veränderten Bedingungen und Gegenmaßnahmen anzupassen und die verwundbaren Stellen seines Gegners ausfindig zu machen, um sie für seine Zwecke zu nutzen" (Hofmann 2006, 446). Entsprechend muss bei Gegenmaßnahmen "das gesamte Spektrum der verfügbaren Mitteln […], psychologische und physische, diplomatische und militärische, ökonomische und moralische" (ebd., 445) eingesetzt werden.Es gilt nun abschließend eine Antwort auf die Frage zu finden, inwiefern die Anschläge im Herbst 2001 die Sicherheitspolitik der Vereinten Nationen verändert haben. Kurzfristig führten diese zu einer seltenen Einigkeit der ständigen Mitglieder im UN-Sicherheitsrat, was sich in den zahlreichen erlassenen Resolutionen wiederspiegelt. Darunter fällt auch die Tatsache, dass die internationale Gemeinschaft die Militärintervention in Afghanistan nicht verurteilte, sondern vielmehr den Vereinigten Staaten ihr Recht auf Selbstverteidigung gemäß Art. 51 UN-Charta einstimmig zugestand.Es erwies sich jedoch hinsichtlich der internationalen Zusammenarbeit als problematisch, dass keine einheitliche Definition des Begriffs Terrorismus besteht. Das könnte dazu führen, dass wirtschaftliche Sanktionen oder militärische Aktionen zur Durchsetzung eigener Interessen fälschlicherweise als Terrorismusbekämpfung etikettiert werden.Generell zeigt sich, dass die Anschläge einen erheblichen innenpolitischen Rechtsruck bewirkten, der sich auch auf die Entscheidungen internationaler Gremien auswirkte. Das wurde durch erweiterte Befugnisse für die Polizei und andere Exekutivorgane in Fragen der nationalen und internationalen Sicherheit sichtbar.Mit der Resolution 70/291 stellte der amtierende UN-Generalsekretär Antonio Guterres am 22. Februar 2017 strategische Handlungsoptionen für die Terrorismusbekämpfung vor. Zunächst einmal soll die Effizienz der Vereinten Nationen im Bereich der Terrorbekämpfung allgemein gestärkt werden. Zudem soll die Qualität der Vereinten Nationen hinsichtlich der Unterstützung der Mitgliedsstaaten bei der Umsetzung der UN-Terrorismusbekämpfungsstrategien hinterfragt werden. Hinzu kommt der Anstoß zu einer Debatte hinsichtlich der regionalen und internationalen Zusammenarbeit von Staaten und UN-Sonderorganisationen.Außerdem wurde Wladimir Iwanowitsch Woronkow auf Vorschlag von Guterres zur Umsetzung und Koordinierung der Vorschläge am 21. Juni 2017 als Untergeneralsekretär eingesetzt. Diese strategische Neuausrichtung wird als eine strategische Aufwertung der Terrorismusbekämpfung im Rahmen der Vereinten Nationen verstanden (vgl. Behr 2017, 152).Zusammenfassend zeigt sich also, dass sich die internationale Gemeinschaft der Tatsache bewusst ist, dass eine gemeinsame Strategie zur Bekämpfung des transnationalen Phänomens erforderlich ist. "Wenn wir den Terrorismus erfolgreich bekämpfen wollen, müssen wir ebenso unermüdlich, innovativ und dynamisch vorgehen wie unsere Gegner" (Hoffmann 2006, 446).LiteraturBehr, H. (2017): Die Antiterrorismuspolitik der UN seit dem Jahr 2001. In: Deutsche Gesellschaft für die Vereinten Nationen e.V. [Hrsg.]: Terrorismusbekämpfung und die Vereinten Nationen. S. 147-151.Böhm, A. (2021): Die Gesetzte des Dschungels. In: ZEIT Geschichte 4/21. S 92-97.Czempiel, E.-O. (2003): Weltpolitik im Umbruch. Die Pax Americana, der Terrorismus und die Zukunft der internationalen Beziehungen. München: Verlag C.H.Beck oHG.Finke, J./ Wadscher, C. (2001): Terrorismusbekämpfung jenseits militärischer Gewalt. In: Deutsche Gesellschaft für die Vereinten Nationen e.V. [Hrsg.]: Terrorismusbekämpfung und die Vereinten Nationen. S. 168-173.Geis, A. (2006): Den Krieg überdenken. Kriegsbegriffe und Kriegstheorien in der Kontroverse. Zugriff am 09.03.2022 unter https://www.pw.ovgu.de/ipw_media/Downloads/Geis/Geis__Einleitung_Den_Krieg_berdenken_9_43-p-90.pdf.Hofmann, B. (2006): Terrorismus – der unerklärte Krieg. New York: Columbia University Press.Kahl, M. (2011):Die Militärstrategie der USA nach dem 11. September. In: Bundeszentrale für Politische Bildung [Hrsg.]: Aus Politik und Zeitgeschichte 27/2011. S. 19-24.Kaim, M. (2011): Internationale Sicherheitspolitik nach dem 11. September. In: Bundeszentrale für Politische Bildung [Hrsg.]: Aus Politik und Zeitgeschichte 27/2011. S. 3-9.Kreuder-Sonnen, C. (2017): Terrorismusbekämpfung und die Vereinten Nationen. In: Deutsche Gesellschaft für die Vereinten Nationen e.V. [Hrsg.]: Terrorismusbekämpfung und die Vereinten Nationen. S. 159-163.Pfahl-Traughber, A. (2016): Terrorismus – Merkmale, Formen und Abgrenzungsprobleme. In: Bundeszentrale für Politische Bildung [Hrsg]:Aus Politik und Zeitgeschichte 24-25/ 2016. S. 10-19.Nato Press Releases (2001): Statement by the North Atlantic Council. Zugriff am 09.03.2022 unter https://www.nato.int/docu/pr/2001/p01-124e.htmSchmalenbach, K. (2017): Völker- und unionsrechtliche Anstöße zur Entterritorialisierung des Rechts. In: Vereinigung der deutschen Staatsrechtslehrer [Hrsg]: Grenzüberschreitungen. Berlin: DeGruyter. S. 245-272.Steinberg, G. (2015): Transnationaler Terrorismus. Zugriff am 06.03.2022 unter https://www.bpb.de/shop/zeitschriften/izpb/209663/transnationaler-terrorismus/.Tomuschat, C. (2002): Der 11. September 2001 und seine rechtlichen Konsequenzen. Zugriff am 22.02.2022. unter https://www.ssoar.info/ssoar/bitstream/handle/document/26104/ssoar-2002-tomuschat-der_11_september_2001_und.pdf;jsessionid=A9D1D4BAEDCA16B97394171E0769C782?sequence=1.United Nation publication:(2001): Resolution 1373. Zugriff am 02.03.2022 unter https://www.un.org/depts/german/sr/sr_01-02/sr1368.pdf(2001): Resolution 1377. Zugriff am 26.02.2022 unter https://www.un.org/depts/german/sr/sr_01-02/sr1373.pdf(2002): Resolution 1390. Zugriff am 28.02.2022 unter https://www.un.org/Depts/german/sr/sr_01-02/sr1390.pdf.(2004): Resolution 1566. Zugriff am 01.03.2022 unter https://www.un.org/depts/german/sr/sr_04-05/sr1566.pdf.Vasilache, A. (2006): Hobbes, der Terrorismus und die Angst in der Weltpolitik. Zugriff am 06.03.2022 unter https://publishup.uni-potsdam.de/opus4-ubp/frontdoor/deliver/index/docId/899/file/51_fb_vasilache.pdf.Waldmann, P. (2005): Terrorismus. Provokation der Macht. Hamburg: Murmann Verlag GmbH.