"Nachhaltigkeit" ist ein Aushängeschild für viele Unternehmen geworden. Dieses Buch bietet einen schnellen Einstieg und umfassenden Einblick in das Nachhaltigkeitsmanagement von Unternehmen und Organisationen. Studierende, aber auch in der Praxis Tätige können sich einen kompakt formulierten Überblick verschaffen. Neben standardisierten Ansätzen des betrieblichen Nachhaltigkeitsmanagements wird die Implementierung von der Strategieentwicklung und Verankerung in unterschiedlichen betrieblichen Funktionsbereichen bis hin zu Instrumenten des Nachhaltigkeitscontrollings vorgestellt und durch anschauliche Praxisbeispiele illustriert. Die Beiträge thematisieren den aktuellen Diskussions- und Entwicklungsstand des Nachhaltigkeitsmanagements in Unternehmen und Organisationen. Durch den einheitlichen Kapitelaufbau und die didaktische Aufbereitung wird dieses komplexe Themenfeld optimal erschlossen.
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
Der Europäische Binnenmarkt ist der größte der Welt. Das Wissen um die Europäische Integration ist deswegen für Studierende sehr wichtig. Das Lehrbuch führt zu Beginn in die Geschichte des europäischen Einigungsprozesses ein und stellt die institutionelle Struktur der EU vor. Europäische Politikfelder werden in Theorie und Praxis dargestellt und die Herausforderungen der Zukunft diskutiert. Die 3. Auflage wurde vollständig überarbeitet und erweitert: Sie berücksichtigt die aktuellen politischen Debatten über die Zukunft der Europäischen Union und über die Weiterentwicklung der zentralen Politikfelder. Jedes Kapitel zeichnet sich durch Lernziele, Zusammenfassungen und Literaturtipps aus. Ein Glossar rundet das Buch ab. Das Lehrbuch richtet sich an Bachelorstudierende der Volks- und Betriebswirtschaftslehre.
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
Die Einführung in die Kultursoziologie in einer aktualisierten und erweiterten Neuauflage. »Kultur« ist fächerübergreifend einer der zentralen Schlüsselbegriffe gegenwärtiger Forschung. Schon um 1900 standen kulturtheoretische Fragen im Mittelpunkt der Soziologie. Seit dem Cultural Turn wurde »Kultur« schließlich zum allgemeinen Leitbegriff des Fachs. Die Soziologie versteht sich zunehmend als »Kulturwissenschaft«. Dieser Einführungsband nimmt dieses Selbstverständnis ernst. Er gibt einen systematischen Überblick über die Geschichte, Begriffe, Ansätze und Forschungsfelder der Kultursoziologie. Von den soziologischen Klassikern wie Max Weber und Georg Simmel bis hin zu aktuellen Kulturtheorien und Kulturforschungen wie den Visual, Governmentality oder Cultural Studies. Die Einführung gibt damit einen kompakten und systematischen Überblick über die wichtigsten kultursoziologischen Theorien von den Anfängen bis zur Gegenwart.
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
In den letzten Jahren hat sich innerhalb der PR eine neue Form der Öffentlichkeitsarbeit manifestiert, die im Bereich der Prozessberichterstattung zunehmend an Bedeutung gewinnt und für viele Diskussionen sorgt. Der folgende Medienspiegel der letzten fünf Jahre soll die Aktualität dieses neuen Charakters der PR skizzieren. 'Das ist ein Werkzeug mit dem man unbeschadet oder zumindest glimpflich bei einem Prozess davonkommt. (...) In Deutschland gehen Unternehmen noch sehr schamhaft mit der Litigation-PR um'. 'Wenn sich ein Prozess schon nicht vermeiden lässt, muss man ihn mit der richtigen Kommunikationsstrategie begleiten'. 'Immer mehr Unternehmen messen ihren Erfolg nicht nur am Ausgang eines Prozesses, sondern daran, wie sie im Prozessverlauf in der Öffentlichkeit wahrgenommen werden'. 'Was tut ein Rechtsanwalt für seine Mandanten? Beinahe alles. Wenn es hilft, lässt sich manch einer sogar auf PR ein'. Der PR-Experte James F. Haggerty formulierte in seinem Buch 'In the Court of Public Opinion' treffend die Auswirkungen der Medienberichterstattung über Gerichtsverfahren: 'There is no way around this simple fact: In the information age, lawsuits and other legal disputes are fair game for the media coverage. This coverage can make or break a case and, ultimately, a business or organization's reputation.' Dieses Zitat reflektiert, die gegenwärtige Situation der Medienberichterstattung, in der sich Journalisten und PR-Schaffende immer stärker auf die Thematisierung von rechtlichen Auseinandersetzungen fokussieren. Aber auch in der Öffentlichkeit erhält die Gerichtsberichterstattung einen immer größeren Stellenwert. Unter anderem dient sie den Menschen als Unterhaltung, insbesondere wenn die Medien über rechtliche Auseinandersetzungen berichten, die außergewöhnliche oder sensationelle Züge aufweisen oder es sich um ein menschlich sehr ergreifendes Gerichtsverfahren handelt. Die qualitative Inhaltsanalyse von Bob Roshier, auf der Grundlage der Nachrichtenforschung ergab, dass bei den folgenden vier Nachrichtenwertfaktoren von 'crime news' - Prominenz, Sensationalismus, das Ausmaß der Kriminalität und Sex - die Aufmerksamkeit der Öffentlichkeit am Stärksten ist. Wenn in einem Bericht nicht nur eines dieser Kriterien, sondern gleich zwei, drei oder gar alle vier Nachrichtenfaktoren enthalten sind, ist die Medienaufmerksamkeit dementsprechend höher und das Interesse der Öffentlichkeit am Größten. Besonders die Personalisierung von Gerichtsprozessen entwickelte sich zu einem Trend in der Medienberichterstattung und wird von den Menschen mit großem Interesse verfolgt. Konflikte zwischen zwei unterschiedlichen Parteien, Kriminalität, Krisen oder Schadensfälle können für die Medien aus diesem Grund prädestinierte Ereignisse sein, um daraus eine schlagkräftige Story zu machen. 'Noch nie wurden Topmanager so häufig vor politische Gremien zitiert, mussten auf der Anklagebank Platz nehmen oder füllten die Schlagzeilen der Massenblätter.' Aber nicht nur Berichte, die auf wahren Gegebenheiten beruhen, sondern auch fiktionale Darstellungsformen von Gerichtsverfahren finden beim Publikum großen Anklang und sind ein wahrer Quotenhit. Darunter befinden sich Fernsehgerichtshows, Anwaltsserien oder Fernsehkrimis. Die Faszination dieser Formate geht von den Emotionen der beteiligten Personen im Verfahren aus. Gerichtliche Auseinandersetzungen können die unterschiedlichsten Gefühle, wie zum Beispiel Wut, Mitleid, Unverständnis, Angst, Neid oder Abscheu hervorrufen. Und genau darin liegt die Attraktivität der Gerichtsberichterstattung. Es geht um das Drama, das sich hinter den Prozessen verbirgt und dem Wunsch nach dem 'Sieg der Gerechtigkeit', verbunden mit dem Urvertrauen in die Justiz uns und unsere Familie vor Ungerechtigkeiten zu beschützen. Vor allem der Faktor Prominenz macht Gerichtsverfahren für die Öffentlichkeit, aufgrund der Beteiligung einer 'absoluten Person der Zeitgeschichte' interessant, da sie durch ihren Status oder ihre Bedeutung allgemein öffentliche Aufmerksamkeit findet und ihr eine große Bekanntheit zugeschrieben wird. Anders ausgedrückt: 'A celebrity is a person who is known for his well-knowness.' Gerichtsverfahren, in denen bekannte Persönlichkeiten verwickelt sind, wie zum Beispiel der beliebte Fernsehmoderator Andreas Türck, die 'No Angels'-Sängerin Nadja Benaissa. der ehemalige Vorstandsvorsitzende der Deutschen Post, Klaus Zumwinkel oder der langjährige SPD-Bundestagsabgeordnete Jörg Tauss, sind in der Medienberichterstattung sehr beliebt. In solchen Fällen behandeln die Journalisten nicht immer ausschließlich die juristischen Fakten über das Verfahren, sondern distanzieren sich gelegentlich auch nicht davor, in ihrer Medienberichterstattung über intime Details aus dem Privatleben des prominenten Angeklagten zu unterrichten, ohne dabei Rücksicht auf die Verletzung von Persönlichkeitsrechten zu nehmen. Besonders innerhalb des Verfahrens gegen die Sängerin Nadja Benaissa, wurde das Privat- und Intimleben der Angeklagten in keiner Weise geschützt. Im zweiten Kapitel wird auf diesen Prozess und die damit verbundenen Persönlichkeitsrechtverletzungen näher eingegangen. Ein sehr bekanntes deutsches Gerichtsverfahren, welches zwar keine Persönlichkeitsrechtverletzungen, jedoch hohe Reputationsschäden, durch die überdurchschnittlich negative Berichterstattung in den Leitmedien zu verzeichnen hatte, war der Mannesmann-Prozess im Jahr 2004. Der Skandal an dieser Rechtsstreitigkeit ereignete sich noch vor der ersten Anhörung am 21. Januar. Der angeklagte Vorstandssprecher der Deutschen Bank, Josef Ackermann, präsentierte sich an diesem Tag lachend und die Finger zum Victory-Zeichen gespreizt, den Journalisten und Fotografen. Für Ackermann war dies nur eine unbedachte Geste, doch für die Journalisten füllte dieses Bild die Lücke in der Berichterstattung, um die 'grenzenlose Gier der Manager' zu belegen. Das Victory-Zeichen war einmal mehr ein Beweis der Verantwortungslosigkeit der Deutschen Bank, welche bereits 1994 durch die Schneider-Affäre in Verruf geriet, als der damalige Vorstandssprecher Hilmar Kopper die Millionen hohen offenen Handwerkerrechnungen des Immobilienunternehmers Jürgen Schneider als 'Peanuts' bezeichnete. Noch Jahre später haftete dieser Fauxpas am Image des Unternehmens und dessen Vorstandssprecher. Ebenso lieferte die stichprobenartige Befragung der Autorin im privaten Umfeld das Ergebnis, dass die Deutsche Bank noch heute von vielen Menschen mit der Schneider-Affäre und dem Mannesmann-Prozess in Verbindung gebracht wird. Dieser Gerichtsprozess zeigt die Notwendigkeit der Einführung einer neuen Form der Öffentlichkeitsarbeit auf, da der Wert eines Imageschadens oft höher ist, als der eigentliche Streitwert eines juristischen Verfahrens. Litigation PR, die umschrieben strategische öffentliche Kommunikation im Zusammenhang mit rechtlichen Verfahren bedeutet, soll dazu dienen, dass sich das Gerichtsverfahren durch den Einsatz gezielter Medienarbeit positiv für das Urteil und den Ruf des Mandanten auswirkt. Dabei ist zu beachten, dass es heutzutage nicht mehr ausreicht einen Prozess vor Gericht zu gewinnen, sondern man auch im Gerichtshof der Öffentlichkeit ein positives Urteil erhalten muss. Da die Bevölkerung sich eine unabhängige Meinung über Schuld oder Unschuld des Angeklagten macht, hat sie die Macht die Reputation einer Person zu stärken oder zu zerstören. Demzufolge ist es wichtig durch geeignete Instrumente der Medienarbeit die öffentliche Meinung für sich zu gewinnen, um somit über diesen Umweg die richterliche Entscheidung zu beeinflussen. Ohne den Einsatz von Litigation PR, kann es sich, wie der Mannesmann-Prozess zeigt, ereignen dass sich die Öffentlichkeit, aufgrund der mangelnden Kenntnis des richtigen Umgangs mit den Medien, ein negatives Bild von dem Angeklagten bildet und dieses sich durch die fehlende oder schlechte Medienarbeit des Angeklagten verfestigt. In diesem Fall hatte der mediale Druck keinen erheblichen nachweisbaren Einfluss auf das Gericht, da das Verfahren in der Revision eingestellt wurde, und die Angeklagten ein verhältnismäßig geringes Bußgeld zahlen mussten. Allerdings sorgte der Ausgang des Verfahrens dafür, dass die Öffentlichkeit eine noch negativere Einstellung zu der Deutschen Bank und dessen Chef Josef Ackermann einnahm, was sich ebenfalls auf die Reputation und den Umsatz auswirkte.Inhaltsverzeichnis:Inhaltsverzeichnis: Bibliografische BeschreibungI KurzreferatI InhaltsverzeichnisII AbkürzungsverzeichnisIV AbbildungsverzeichnisVI A.Einleitung3 B.Hauptteil11 1.Litigation PR als eine neue Spezialisierungsform der PR bei Gerichtsverfahren11 1.1Ursprung12 1.2Definition15 1.3Litigation PR als eigenständige Teildisziplin16 1.4Anspruch von Litigation PR17 1.4.1Der Faktor 'Prominenz'19 1.4.2Der Fall 'Emmely'20 1.4.3Der Fall 'Andreas Türck'21 1.5Instrumente der Litigation PR23 1.5.1Voraussetzung einer erfolgreichen Litigation PR23 1.5.2Einsatzgebiet24 1.5.3Aufgaben25 1.5.4Message Developement27 1.5.5Media Brief27 1.5.6Litigation-Website29 1.5.7Inszenierung des öffentlichen Auftrittes30 1.5.8klassische PR-Instrumente32 1.6Strategien der Litigation PR33 1.6.1CIR-System33 1.6.2Offensive und defensive Kommunikationsstrategie36 2.Gefahren der Medialisierung von Gerichtsverfahren39 2.1Gerichtsberichterstattung40 2.1.1Kommunikationsgrundrechte41 2.1.2Allgemeine Persönlichkeitsrecht42 2.1.3Der Fall 'Nadja Benaissa'43 2.1.4Gerichtsöffentlichkeit44 2.1.5Richtlinien des Deutschen Presserates45 2.1.6Strafrechtliche Folgen47 2.2Pressearbeit der Justiz49 2.2.1Gefahr von PR der Staatsanwaltschaft50 2.2.2Der Fall 'Klaus Zumwinkel'51 2.2.3Informationspolitik der Staatsanwaltschaft52 2.2.4Der Fall 'Jörg Tauss'53 2.3Beeinflussung der Richter durch die Medienberichterstattung55 3.Die Litigation PR im Strafprozess gegen Jörg Kachelmann57 3.1Der Anklagevorwurf58 3.2Der medialisierte Prozess58 3.2.1Die Strategie der Nebenklagevertretung59 3.2.2Die LPR der Verteidigung60 3.2.3Die Justiz-PR63 3.2.4Die Medienberichterstattung65 3.3Diskrepanzen während des Verfahrens67 3.3.1Verhalten der Justiz67 3.3.2Unterfangen der Medien70 3.4Evaluierung des 'Fall Kachelmann'73 C.Schluss76 LiteraturverzeichnisVII AnlagenverzeichnisXXTextprobe:Textprobe: Kapitel 2.1, Gerichtsberichterstattung: Die Medienberichterstattung wird von der Öffentlichkeit unterschiedlich wahrgenommen. Bildet sich aus der Berichterstattung ein bestimmtes Urteil in der Mehrheit der Öffentlichkeiten heraus, spricht man von 'öffentlicher Meinung'. Diese entsteht, wenn sich eine bestimmte Meinung in den Medien und in großen Teilen der Bevölkerung verfestigt und sich daraufhin immer mehr Teilöffentlichkeiten nach dem Prinzip der Schweigespirale dieser Meinung anschließen und somit öffentlichen Druck erzeugen. Folgerichtig kann selbst nach einem Freispruch, aufgrund der zuvor gebildeten öffentlichen Meinung noch etwas von dem Tatvorwurf in Erinnerung bleiben. Der deutsche Rechtsanwalt und Journalist Butz Peters verweist daher in seiner Publikation 'Kriminalberichterstattung in den Medien' auf das Zitat des Philosophen Francis Bacon '(...) semper aliquid haeret', zu deutsch: 'Etwas bleibt immer hängen'. Der Medienwissenschaftler Jochen Hörsch behauptet hingegen, dass das Recht langweilig sei. Aus diesem Grund würden Journalisten nach dem Unrecht und dem Skandal in einem Verfahren suchen und sich weniger für den rechtlichen Aspekt interessieren. Charakteristisch für diese Art der Berichterstattung sind subjektive Kommentare des Journalisten, Vorabveröffentlichungen von Beweisen und Zeugenaussagen, sowie die Recherche nach Auffälligkeiten im Leben des Beschuldigten und dessen persönlichen Beziehungen ohne Rücksicht auf die Privats- und Intimsphäre. Auf Basis dieser Aussage des Wissenschaftlers Hörsch lässt sich somit vermuten, dass die Medien eigenständig Informationen zu einem Gerichtsverfahren recherchieren, um für ihre Berichterstattung spannende Erkenntnisse zu gewinnen. Inwieweit die Medienberichterstattung über ein Gerichtsverfahren mit den Kommunikationsgrundrechten des Grundgesetzes vereinbar ist wird nun das folgende Kapitel aufzeigen. 2.1.1, Kommunikationsgrundrechte: Wie bereits in der Einführung dieses Kapitels erwähnt, haben Journalisten die Aufgabe das Geschehen vor Gericht für die Öffentlichkeit festzuhalten und dieses für die Bevölkerung in einer verständlichen Art und Weise aufzubereiten. Diese Rolle als Vermittler zwischen Justiz und Gesellschaft ist mit den Kommunikationsgrundrechten des Grundgesetztes verankert, welche den Informationsanspruch, unter Vorbehalt einiger Schranken, legitimieren. Für die freie Kommunikation, die als Voraussetzung der Demokratie und der Rechtstaatlichkeit gilt, hat das Grundgesetz für die Bundesrepublik Deutschland drei Kommunikationsgrundrechte festgelegt, in denen die freie, individuelle und öffentliche Meinungsbildung gewährleistet wird. Die öffentliche Kommunikation wird durch Art. 5 Abs. 1 GG garantiert und setzt sich u.a. aus der Meinungs-, der Informations- und der Pressefreiheit zusammen. 'Jeder hat das Recht, seine Meinung in Wort, Schrift und Bild frei zu äußern und zu verbreiten und sich aus allgemein zugänglichen Quellen ungehindert zu unterrichten. Die Pressefreiheit und die Freiheit der Berichterstattung durch Rundfunk und Film werden gewährleistet. Eine Zensur findet nicht statt'. Die Meinungsfreiheit gehört laut dem Bundesverfassungsgericht zum Kernbestand der demokratischen Ordnung der Bundesrepublik. 'Soll der Bürger politische Entscheidungen treffen, muss er umfassend informiert sein, aber auch Meinungen kennen und gegeneinander abwägen können, die andere sich gebildet haben.' Allerdings weist die freie Meinungsäußerung nach Art. 5 Abs. 2 GG Schranken in den allgemeinen Gesetzen und dem Recht der persönlichen Ehre auf: 'Die allgemeinen Gesetze sind so auszulegen und anzuwenden, dass die besondere Bedeutung der Meinungsfreiheit als unmittelbarster Ausdruck der menschlichen Persönlichkeit und konstitutive Voraussetzung des freiheitlichen demokratischen Staates zur Geltung kommt.' 2.1.2, Allgemeines Persönlichkeitsrecht: Das allgemeine Persönlichkeitsrecht beschränkt gem. Art. 5 Abs. 2 GG die Medienfreiheit und erschließt sich aus der Garantie der Menschenwürde nach Art. 1 Abs.1 GG: 'Die Würde des Menschen ist unantastbar. Sie zu achten und zu schützen ist Verpflichtung aller staatlichen Gewalt.', sowie der allgemeinen Handlungsfreiheit der Menschen nach Art. 2 Abs.1 GG: 'Jeder hat das Recht auf die freie Entfaltung seiner Persönlichkeit, soweit er nicht die Rechte anderer verletzt und nicht gegen die verfassungsmäßige Ordnung oder das Sittengesetz verstößt.' Aus diesem Grund muss bei jeder Veröffentlichung geprüft werden, wann das Informationsinteresse der Öffentlichkeit endet und der Schutz der Persönlichkeitsrechte beginnt. Aufgrund des Wettkampfes um die beste Story, geschieht es trotz der rechtlichen Schranken häufig, dass Rechtsbrüche in der Berichterstattung begangen werden. Eine Kontrolle der Veröffentlichungen ist allerdings nicht zulässig, da sie der Medienfreiheit widerspricht. Somit kann sich die Person, die sich in ihren Persönlichkeitsrechten verletzt sieht, meist erst nach einer Veröffentlichung gegen die dort publizierten Unwahrheiten wehren. Erschwerend kommt hinzu, dass in diesem Fall zwischen Persönlichkeitsrechtverletzung und zulässiger Meinungsäußerung unterschieden werden muss. Handelt es sich bei der Medienberichterstattung tatsächlich um eine Verletzung der Persönlichkeitsrechte, kann der Betroffene einen Anspruch auf Unterlassung, eine Gegendarstellung oder eine Richtigstellung einfordern. Diese Maßnahmen können aber einer möglichen entstandenen Vorverurteilung nichts entgegen bringen. Zwar kann in juristischer Hinsicht die falsche Darstellung der Sachlage dadurch korrigiert werden, eine Richtigstellung oder Gegendarstellung wird aber selten von der Öffentlichkeit wahrgenommen, da meistens die erste Berichterstattung über einen Sachverhalt für die Bevölkerung meinungsbildend ist. Ein Beispiel für die Verletzung von Persönlichkeitsrechten liefert der Fall der ehemaligen 'No Angels'-Sängerin Nadja Benaissa, die durch den Prozess um ihre Person zur bekanntesten HIV-Infizierten Deutschlands wurde. 2.1.3, Der Fall 'Nadja Benaissa': Im Jahr 2010 stand die frühere 'No Angels'-Sängerin Nadja Benaissa in Darmstadt vor Gericht. Sie wurde beschuldigt 2004 ungeschützten sexuellen Verkehr mit einem Mann gehabt zu haben, ohne ihm zuvor ihre HIV-Infektion zu gestehen und habe ihn dabei mit dem Virus angesteckt. Der Staatsanwalt wirft ihr weiterhin vor, von 2000 bis 2004 trotz ungeschütztem Verkehr ihre Infektion verschwiegen zu haben. Der Nebenkläger, ein 34-jähriger Mann, gab an, er habe mit Benaissa 'fünf- bis siebenmal' Sex gehabt. Von seiner Infektion hat er erst 2007 durch seinen Arzt erfahren. Nachdem sie ein Teilgeständnis ablegte, indem sie unter anderem zugab, dass sie 1999 von ihrer HIV-Infektion erfahren habe und die Zahl ihrer anschließenden Sexkontakte nicht benennen könne, wurde Benaissa zu zwei Jahren Haft auf Bewährung und 300 Stunden gemeinnütziger Arbeit, sowie der Absolvierung einer Therapie verurteilt. Innerhalb des Gerichtsverfahrens wurden die Persönlichkeitsrechte von Nadja Benaissa durch die Medien und die Staatsanwaltschaft schwer verletzt, mit der Folge dass die Infektion der Sängerin seitdem in ganz Deutschland bekannt ist. 'Nadja Benaissa wurde medienwirksam inhaftiert, fremdgeoutet und vorverurteilt.' Sie musste es erdulden, dass im Gerichtssaal Kameras auf sie gerichtet, ihr Privatleben öffentlich gemacht und intime Details über ihre sexuellen Aktivitäten recherchiert wurden. Nadja Benaissa handelte zwar fahrlässig und musste sich zu ihrer Schuld und den damit verbundenen Konsequenzen bekennen, doch hat in diesem Verfahren auch die Justizbehörde versagt, die es zuließ, dass die Sängerin vor dem Prozess in U-Haft gebracht wurde und bereits 2009 ihre Infektion öffentlich machte. Aber auch die Medien hätten sich in diesem Fall verantworten müssen, da sie ebenfalls nicht auf die Persönlichkeitsrechte der Angeklagten Rücksicht nahmen und bereits 2001 die Vermutung einer HIV-Infektion von Benaissa publik machten. Dieser medialisierte Prozess zerstörte durch die Indiskretion und die Verletzung von Persönlichkeitsrechten das Leben der Sängerin sowohl beruflich, als auch privat. Sie ist nun in der Bevölkerung als HIV-Positive gebrandmarkt, die regelmäßig ihre Sexualpartner wechselt und diese bewusst in Gefahr bringt, sich mit dem Virus zu infizieren. In den folgenden Unterkapiteln wird auf die Vorgehensweise bei der Recherche von Inhalten für die Berichterstattung der Journalisten eingegangen und auf die Richtlinien, die es dabei zu beachten gilt Bezug genommen. Außerdem werden die strafrechtlichen Folgen aufgezeigt, die bei einer Nichteinhaltung der rechtlichen und juristischen Vorgaben greifen.
Verfügbarkeit an Ihrem Standort wird überprüft
Dieses Buch ist auch in Ihrer Bibliothek verfügbar:
Die Inhalte der verlinkten Blogs und Blog Beiträge unterliegen in vielen Fällen keiner redaktionellen Kontrolle.
Warnung zur Verfügbarkeit
Eine dauerhafte Verfügbarkeit ist nicht garantiert und liegt vollumfänglich in den Händen der Blogbetreiber:innen. Bitte erstellen Sie sich selbständig eine Kopie falls Sie einen Blog Beitrag zitieren möchten.
Wie steht es um die Freiheit des Wortes in der Wissenschaft? Wo liegen die Grenzen? Ihr Umgang mit dieser Frage hat zwei Uni-Präsidentinnen in den USA den Job gekostet. Doch die Folgen und Implikationen reichen tiefer und bis nach Deutschland.
Campus der Harvard University in Cambridge, USA. Foto: giggel, CC BY 3.0 / Wikimedia Commons.
EINEN TAG nachdem Claudine Gay Anfang Januar von ihrem Amt als Harvard-Präsidentin zurückgetreten war, veröffentlichte sie in der "New York Times" einen Meinungsbeitrag. Ja, sie habe Fehler gemacht, schrieb sie. Doch in der Kampagne gegen sie sei es in Wirklichkeit um mehr gegangen als eine Universität oder eine Unipräsidentin. "Nur ein Scharmützel in einem größeren Krieg" sei das gewesen, "der zum Ziel hat, das öffentliche Vertrauen in tragende Säulen der amerikanischen Gesellschaft zu zerstören."
Sie hoffe, mit ihrem Rücktritt hindere sie Demagogen daran, ihre Präsidentschaft weiter als Waffe einzusetzen in ihrer Kampagne, die Ideale zu unterminieren, die Harvard seit seiner Gründung ausmache: "Exzellenz, Offenheit, Unabhängigkeit, Wahrheit."
Waren das mehr als Schutzbehauptungen? Sind die Universitäten in den USA tatsächlich Geisel eines Kulturkampfes von rechts? Und zeichnen sich in Deutschland vielleicht längst ähnliche Entwicklungen ab?
Die fast unbedingte Freiheit des Wortes
Alles hatte damit begonnen, dass Gay und zwei weitere Präsidentinnen von US-Eliteuniversitäten im Dezember auf Initiative der Republikaner vor dem Bildungsausschuss des Repräsentantenhauses Stellung nehmen sollten zu sich häufenden antisemitischen Vorfällen auf dem Campus.
Befragt von der Ex-Präsident Trump nahestehenden republikanischen Abgeordneten Elise Stefanik, ob der Aufruf zum Völkermord an den Juden gegen universitäre Richtlinien zu Mobbing und Belästigung verstoße, antwortete Gay zweimal, das sei möglich, hänge aber vom Kontext ab. Die Präsidentin des Massachusetts Institute of Technology (MIT), Sally Kornbluth, stimmte Gay zu, ebenso ihre Kollegin von der University of Pennsylvania, Liz Magill: "Wenn das Reden in ein Verhalten übergeht, kann es sich um Belästigung handeln."
Die öffentliche Empörung war gewaltig. Magill trat schon wenige Tage später zurück, nachdem mit Verweis auf ihre Äußerungen unter anderem ein Geldgeber eine 100-Millionen-Spende an die University of Pennsylvania zurückgezogen hatte. Gay hielt sich zunächst im Amt, doch gingen kurz nach ihrem Auftritt im US-Kongress mehrere Plagiatsvorwürfe online. Eine unabhängige Prüfung bescheinigte Gay unzureichend kenntlich gemachte Zitate, aber kein wissenschaftliches Fehlverhalten. Den Bildungsausschuss des Repräsentantenhauses hinderte dies nicht daran, mit republikanischer Mehrheit eine eigene Untersuchung einzuleiten.
Als Gay schließlich ihren Rücktritt bekannt gab, postete Elise Stefanik auf "X": "Two Down. One to Go." Und die Wall-Street-Größe Bill Ackmann, Harvard-Absolvent und Großspender, kündigte an, die wissenschaftlichen Arbeiten aller MIT-Angehörigen, inklusive Präsidentin Kornbluth, per KI auf Plagiate zu untersuchen.
"Natürlich ist das ein Angriff von rechts", sagt der deutsche Ökonom Rüdiger Bachmann von der University of Notre Dame im US-Bundestaat Indiana. "Schon Elise Stefanik hatte es darauf angelegt in ihrer Befragung."
Gay, erst seit vergangenem Sommer im Amt, war die erste afroamerikanische Harvard-Präsidentin. Sie stand als Sinnbild für die Bestrebungen führender US-Universitäten, sich auch in ihren Führungsstrukturen diverser aufzustellen. Das gehe auf Kosten der akademischen Exzellenz, kam umgehend als Vorwurf von rechts.
Der Freiheitsindex
Umgekehrt, sagt Bachmann, führten solche Attacken angesichts der Machtverhältnisse an den linksliberalen US-Universitäten nur dann zu Rücktritten, wenn die tatsächlichen Verfehlungen tatsächlich schwerwiegend genug seien. "Diese Mischung aus Hilflosigkeit, Unprofessionalität, fehlendem Vorbereitetsein und Arroganz, die alle drei Präsidentinnen bei der Anhörung zeigten, war schon dramatisch." Die an sich nicht so gravierenden Plagiatsvorwürfe seien bei Gay noch dazugekommen.
Die Politologin Katrin Kinzelbach von der Universität Erlangen-Nürnberg war im Oktober, kurz nach dem Hamas-Angriff, in Harvard. Mit Wissenschaftlerkollegen erstellt die Politologin jährlich einen aktualisierten "Academic Freedom Index" (AFI). Dieser soll den Grad der Wissenschaftsfreiheit weltweit beziffern. Zur Wissenschaftsfreiheit diskutierte Kinzelbach auch in Harvard. Sie sei erschrocken gewesen, "mit welcher Nonchalance bestimmte Gruppen israelfeindliche Inhalte vertraten, ohne jede Verurteilung der Hamas-Verbrechen", und wie umgekehrt öffentliche Namenslisten kursierten, die Studierende als Antisemiten brandmarkten. Man müsse aber bedenken, dass "das Verständnis von Meinungs- und Wissenschaftsfreiheit in den USA ein unbedingteres" sei als "bei uns". Es gebe hier "fast keine Grenzen". Die Überzeugung auch der meisten Wissenschaftler laute: "Absolute Redefreiheit ist die Voraussetzung von Demokratie."
So habe der Supreme Court schon 1969 mit Berufung auf den ersten Verfassungszusatzartikel festgehalten: "Jede Meinungsäußerung ist erlaubt, nur die Anstachelung zur unmittelbaren Gewalt nicht." Genau vor diesem Hintergrund müsse man dann auch die "Kontext"-Aussagen der Uni-Präsidentinnen vor dem Bildungsausschuss sehen. "Sie sind ein Skandal, aber die Präsidentinnen wollten sich offenbar nicht Vorwürfen aussetzen, sie würden die freie Rede beschränken."
An der Stelle, sagt Bachmann, seien die Präsidentinnen allerdings einem Irrtum aufgesessen: "Ausschlaggebend ist an privaten Hochschulen nicht der Erste Zusatzartikel der Verfassung, sondern der sogenannte Civil Rights Act." Der besage: Wenn eine Hochschule von der Regierung Fördergelder beziehe, "hat sie die Verpflichtung, gegen belästigende Hassreden auf dem Campus vorzugehen".
Trumpistische Aneignung
So oder so ist es vielleicht das größte Paradoxon der Causa Gay: Normalerweise sind es in den USA Republikaner und Trumpisten, die zwar selbst etwa die Evolutionstheorie aus Schulbüchern tilgen, "alternative Fakten" propagieren oder Gendertheorien in Uni-Pflichtkursen verbieten, gleichzeitig aber mit großem medialen Erfolg linksliberalen Akademikern eine Verengung des Meinungsspektrums vorwerfen. Schlagworte: "Politische Korrektheit" oder "Wokeness", Motto: Ideologie statt Exzellenz.
Doch diesmal erregten sie sich über das genaue Gegenteil: über die fehlende Positionierung führender Hochschulrepräsentantinnen. Sie taten es in diesem Falle sogar mit Recht, aber eben doch auch mit klarer politischer Agenda.
Was bedeutet all das für die Wissenschaftsfreiheit in den USA? Der "Academic Freedom Index" sei für die USA in den vergangenen zehn Jahren "signifikant abgerutscht", sagt Kinzelbach, "bewegt sich aber immer noch auf hohem Niveau". Der Konsens, dass sich der Staat nicht einmischen dürfe in akademische Belange, sei dort weiter sehr stark. Private Geldgeber aber hätten einen großen, teilweise problematischen Einfluss. Bachmann sagt: Gerade weil die meisten US-Spitzenunis privat seien, hätten Politiker keine direkte Durchgriffsmöglichkeit, "selbst dann nicht, wenn Trump ein protofaschistisches Regime etablieren würde, zumal die staatlichen Universitäten alle in der Hand der Bundesstaaten sind".
Tribalismus? Polarisierung?
Die wirkliche Gefahr, sagt Bachmann, sei der zunehmende Tribalismus, "wenn sich jetzt auch Leute aus dem linksliberalen Spektrum plötzlich eines Orwell’schen Neusprechs (der Begriff stammt aus George Orwells Roman '1984', in dem politisch umgestaltete Sprache zum Ausdruck gleichgeschalteten Denkens wird) bedienen, um Gay im Amt zu halten, obwohl sie nicht im Amt zu halten war".
Wenn etwa, wie das Magazin The Atlantic kritisierte, Unterstützer Gays fehlende Zitatkennzeichnungen als "technical attribution issues" redefinierten oder als "repeating banal phrases". Wobei die Klimaaktivistin Genevieve Guenther, von der letztere Aussage stammte, "The Atlantic" prompt vorwarf, sie absichtlich verfälscht wiedergegeben zu haben.
So oder so, fügt Bachmann hinzu, habe der Polarisierer Trump angesichts einer solchen Debatte schon gewonnen, "selbst wenn er am Ende nicht erneut Präsident würde, sondern ins Gefängnis müsste".
Lektionen für Deutschland
Der Amerikanist Martin Klepper von der Berliner Humboldt-Universität sagt, er würde eher von Polarisierung als von Tribalismus sprechen, aber auch er meint: "Wenn selbst in der Wissenschaft inzwischen manche finden, sie müssten eine Seite wählen und deren Angehörige um jeden Preis in Schutz nehmen, ist ganz viel verloren."
Und in Deutschland? Auch wenn der Fall Gay zuerst von den persönlichen Umständen zu beurteilen sei: "Es ist gut, wenn wir in Deutschland genau hinschauen, was da in den USA gerade passiert, und, wo möglich, daraus lernen", sagt Lambert Koch, Präsident des Deutschen Hochschulverbandes (DHV). Es gebe Entwicklungen, die "hier wie dort" in eine gefährliche Richtung wiesen.
Die größte Gefahr sei, dass die Hochschulen einer immer stärkeren Politisierung ausgesetzt würden. "Wissenschaft lebt von dem Mut und der Unverstelltheit eines lebendigen Diskurses um des Findens neuer Erkenntnisse und Wahrheiten willen." Dazu brauche es wissenschaftlich unangreifbares Führungspersonal und einen Vorschuss an Vertrauen. Und man müsse "einander auf der Grundlage wissenschaftlicher Methoden korrigieren können, ohne dass dies zu Aggressionen oder politischen Zerwürfnissen führt".
Stimmenfang mit Anti-Gendern
Martin Klepper sagt, in Deutschland sei die Wissenschaft im guten wie im schlechten Sinne noch abgeschotteter als in den USA. "Sie ist stärker auf sich selbst bezogen, sie bestimmt nicht in vergleichbarem Maße öffentliche Diskurse mit." Das bringe sie "natürlich auch seltener ins politische Fadenkreuz". Allerdings ändere sich dies allmählich. Ein Beispiel seien die Gender Studies, deren Gegner ebenfalls mit persönlichen Diffamierungen arbeiteten. "Und die Politik geht mit politisch fragwürdigen Verboten von Gendersternchen auf Stimmenfang." Mehr als rechte Kampagnen sorge ihn allerdings derzeit, dass die Politik in die Universitäten hineinregulieren könnte, etwa in Form einer Bekenntnisklausel gegen Antisemitismus, wie sie bereits in der Berliner Kulturszene etabliert worden sei.
Insgesamt aber, sagt Katrin Kinzelbach, belegten alle seriösen Daten, dass in Deutschland ein sehr hohes Maß an Wissenschaftsfreiheit herrsche. "Diesen Befund kann man natürlich angreifen, etwa mit dem Narrativ, man könne sich an den Hochschulen zu bestimmten Themen nicht mehr frei äußern." Das sei zwar "selbst in den USA absurd". Doch wenn man solch ein Narrativ oft genug wiederhole, werde es irgendwann zu einer "erlebten Wahrheit".
In der Corona-Zeit mussten Wissenschaftler in Deutschland bereits teilweise massive persönliche Anfeindungen und Angriffe aushalten, besonders aus rechtspopulistischen Kreisen, sagt Bachmann. Manche Fachleute hätten sich nach solchen Erfahrungen weitgehend aus der Öffentlichkeit zurückgezogen. Der deutschen Wissenschaft stehe die echte Bewährungsprobe vielleicht erst noch bevor, "wenn die AfD die prognostizierten großen Wahlerfolge feiert".
Das Bundesministerium für Bildung und Forschung (BMBF) jedenfalls hat die "Freiheit" zum Thema des Wissenschaftsjahres 2024 gemacht. Das Grundgesetz gewährt den Menschen seit fast 75 Jahren umfassende Freiheitsrechte. Doch diese Freiheit stehe unter Druck. "Das Wissenschaftsjahr 2024 richtet daher ein ganzes Jahr lang seinen Fokus in unterschiedlichen Formaten der Wissenschaftskommunikation auf die Freiheit", heißt es beim BMBF. Man wolle den Dialog über Freiheit fördern, hieß es schon in der Projektausschreibung, "sowohl innerhalb als auch zwischen Gesellschaft und Wissenschaft".
Dieser Artikel erschien zuerst im Tagesspiegel.
Kostenfreien Newsletter abonnieren
Brandbriefe aus Jerusalem
Israels Hochschulleitungen fordern Solidarität von ihren Kollegen aus aller Welt – und kritisieren ausgerechnet die US-Eliteunis Harvard und Stanford scharf. (17. Oktober 2023)
Die richtigen Worte finden
Wie gehen Deutschlands Hochschulen und Wissenschaftseinrichtungen mit dem Nahostkonflikt um? Wie mit Antisemitismus und einer extrem aufgeheizten politischen Stimmungslage? Eine Analyse. (07. Dezember 2023)
In eigener Sache: Blog-Finanzierung
Welche guten Nachrichten ich in Sachen Blogfinanzierung habe, warum ich weiter dringend Ihre Unterstützung brauche – und welche Artikel im Dezember am meisten gelesen wurden.
Die Inhalte der verlinkten Blogs und Blog Beiträge unterliegen in vielen Fällen keiner redaktionellen Kontrolle.
Warnung zur Verfügbarkeit
Eine dauerhafte Verfügbarkeit ist nicht garantiert und liegt vollumfänglich in den Händen der Blogbetreiber:innen. Bitte erstellen Sie sich selbständig eine Kopie falls Sie einen Blog Beitrag zitieren möchten.
Wie gehen Deutschlands Hochschulen und Wissenschaftseinrichtungen mit dem Nahostkonflikt um? Wie mit Antisemitismus und einer extrem aufgeheizten politischen Stimmungslage? Eine Analyse.
"AN DEUTSCHEN HOCHSCHULEN ist kein Platz für Antisemitismus", sagte Walter Rosenthal, Präsident der Hochschulrektorenkonferenz (HRK) am Tag nach der HRK-Mitgliederversammlung Mitte November 2023. Die Hochschulen müssten Orte sein, an denen sich Jüdinnen und Juden wohl und sicher fühlen können, "ohne Wenn und Aber". Die Erklärung, die Rosenthal diesmal im Namen aller HRK-Mitgliederhochschulen abgab, war nicht seine erste, und sie kam fünf Wochen nach dem Terrorangriff auf Israel.
Dennoch kam sie genau zum richtigen Zeitpunkt. Denn seit Hamas-Terroristen am 7. Oktober die Grenzanlagen überwunden und wahllos Männer, Frauen und Kinder misshandelt und ermordet und rund 240 Geiseln in den Gaza-Streifen verschleppt hatten, war viel passiert. In Israel, im Gazastreifen, aber auch auf dem deutschen Hochschulcampus. Die HRK zählt auf: "Unverhohlene Drohungen mit körperlicher Gewalt, das Anbringen von Plakaten oder Graffiti sowie Kundgebungen, die den Terror der Hamas gutheißen, die Opfer ausblenden oder aufrechnen, die das Existenzrecht Israels in Frage stellen und Jüdinnen und Juden insgesamt angehen und einschüchtern sollen".
Erste Einigkeit bröckelte schnell
Dabei hatte es direkt nach den Hamas-Verbrechen so ausgesehen, als würde Deutschlands Wissenschaftscommunity in großer Einigkeit reagieren. Vom Deutschen Akademischen Austauschdienst (DAAD) über die Allianz der Wissenschaftsorganisationen bis hin zu Studierendenverbänden und Hochschulen überall im Land: Die Verurteilungen der Untaten waren fast immer ohne Zögern und Relativierungen, unmissverständlich, mitfühlend und zugleich kämpferisch ausgefallen. "Wir stehen solidarisch an der Seite des Staates Israel. Wir gedenken der Israelis und der Menschen aus aller Welt, die dem Terror der Hamas zum Opfer gefallen sind. Unser Mitgefühl gilt ihren Familien und Freunden, insbesondere auch unseren Kolleginnen und Kollegen an den israelischen Universitäten und am Weizmann Institute of Science", schrieben etwa Max-Planck-Gesellschaft und Minerva-Stiftung am 11. Oktober 2023. "Sehr klar" und "außergewöhnlich" nannte denn auch etwa die Vizepräsidentin für Internationales der Universität von Tel Aviv, Milette Shamir, im Research.Table die deutschen Reaktionen.
Während die Hochschulleitung der Hebräischen Universität in Jerusalem den amerikanischen Elite-Unis Stanford und Harvard vorwarf, diese hätten "uns im Stich gelassen". Die ersten Erklärungen der beiden US-Universitäten hätten trotz der extremen Immoralität der Hamas-Terrorakte nicht klar Täter und Opfer benannt. Das Ziel, eine geschlossene Hochschul-Gemeinschaft zu erhalten, sei von Stanford und Harvard über die eindeutige Verurteilung des Bösen gestellt worden, so der Vorwurf aus Jerusalem.
Weitere Aufregung verursachte ein Brief des studentischen "Harvard Undergraduate Palestine Solidarity Committee", demzufolge allein das "israelische Regime" mit seinem "Apartheid"-System die Verantwortung trage für alle kommende Gewalt. 33 weitere Harvard-Studierendengruppen setzten ihre Unterschrift darunter. Woraufhin unter anderem der frühere US-Finanzminister und ehemalige Harvard-Präsident Larry Summers auf der Plattform "X", vormals Twitter, kommentierte, dieses Statement mache ihn krank: Das "Schweigen der Harvard-Leitung" verbunden mit dem Brief der Studierenden sorge dafür, dass Harvard "bestenfalls neutral" dastehe angesichts der "Terrorakte gegen den jüdischen Staat Israel".
Den richtigen Ton treffen
Es sollte nur ein paar Tage länger dauern, bis die Auseinandersetzungen um die Einordnung der Ereignisse in Israel und Gaza dann doch die deutsche Wissenschaft erreichten. So löschte die Hochschule Düsseldorf (HSD) Mitte Oktober 2023 einen Instagram-Beitrag, in dem sie ihre Solidarität mit Israel erklärt hatte, nachdem die antisemitischen Kommentare darunter überhandnahmen. In einer neuen Version, diesmal ohne Kommentarfunktion, sprach die Hochschule dann von einer politischen Diskussion, die zum Teil "in Ton und Inhalt nicht angemessen war". Der Post sei so verstanden worden, "dass nur das Leid der Menschen in Israel gesehen wird. Aber die HSD steht selbstverständlich an der Seite aller Opfer von Krieg und Gewalt." Ein Schritt hin zur nötigen Ausgewogenheit – oder das Einknicken vor dem Mob?
Fest steht: In den Chef*innen-Etagen vieler deutscher Wissenschaftseinrichtungen war in den vergangenen Wochen die Sorge groß, nicht den richtigen Ton zu treffen. Man möchte in der jetzigen politischen Lage alles richtig machen, aber was heißt das? Das Ergebnis waren mitunter gleich klingende, schablonenhaft ähnliche Formulierungen.
Eine blutige Nase wiederum holte sich der Potsdamer Universitätspräsident Oliver Günther, als er – nach einem ersten sehr klaren Solidaritätsstatement zugunsten Israels – einen verunglückten Versuch der vermeintlichen Differenzierung unternahm. Günther kritisierte die durch die israelische "Besetzung verursachten prekären und teilweise menschenunwürdigen Lebensumstände weiter Teile der palästinensischen Bevölkerung" und fügte hinzu: "Offensichtlich ist auch, dass sich diese Probleme nicht durch eine aggressive Siedlungspolitik und Schikanen gegen die Zivilbevölkerung – schlicht: Gewalt jeglicher Art lösen lassen. Ganz im Gegenteil führen solche Maßnahmen, wie wir vor wenigen Tagen gesehen haben, nur zu mehr Gewalt." Brandenburgs Ministerpräsident Dietmar Woidke (SPD) kommentierte flugs im Berliner Tagesspiegel: "Was Israel in diesen schweren Stunden nicht braucht, sind Schuldzuweisungen, Belehrungen, Relativierungen oder gar Versuche einer Täter-Opfer-Umkehr ausgerechnet aus Deutschland."
Trauerfeier eskaliert
Besonders eindrücklich sind die Ereignisse, die sich in den vergangenen Wochen an der Universität Kassel zugetragen haben. Ein autonomes AStA-Referat hatte einen Film zeigen wollen, der ausschließlich Position für Palästina ergreift. Was die Hochschulleitung um Unipräsidentin Ute Clement untersagte. Als wenig später die Jüdische Hochschulunion einen Stand auf dem Campus aufbaute, inklusive Israel-Flagge, kochte die Stimmung hoch. Umso mehr, als bekannt wurde, dass ein früherer Kasseler Student mitsamt seiner Familie im Gazastreifen getötet worden war, laut "Palestinian Lives Matter" bei einem israelischen Angriff.
Clement erlaubte eine Trauerfeier auf dem Campus unter der Auflage, sie nicht zu einer politischen Kundgebung zum Konflikt zwischen Israel und Palästina zu missbrauchen. Clement hielt sogar eine Rede. "Zuerst sah es so aus, als würde es eine würdige Veranstaltung bleiben, dann wurde sie aber doch gekapert." Ihre Palästinensertücher hatten Teilnehmer nach Aufforderung der Unipräsidentin während deren Trauerrede noch abgenommen. Als dann Redner doch gegen Israel zu agitieren begannen, stellte Clement das Mikrofon ab. Später erklärte die Hochschulleitung, sie sehe ihr "Vertrauen missbraucht".
"Morgens, mittags und nachts", denke sie seitdem über sie Situation nach, sagt Clement, ihr sei dabei immer klarer geworden: Es gebe bei dem Thema in Deutschland ein Schisma, auch an den Hochschulen. "Da sind Menschen meiner Generation, etwas jünger und älter, die alle ihr Leben lang gesagt haben: Nie wieder. Und die jetzt fassungslos vor dem stehen, was Juden in Israel und anderswo geschieht. Und da sind viele Studierende und Angehörige der jungen Generation, viele mit arabischen Wurzeln, aber nicht nur, die das für einseitige Parteinahme halten und das Gefühl haben, ihre Stimme werde in dem Konflikt nicht gehört. Die uns Älteren, die wir an das Existenzrechts Israels als deutsche Staatsräson glauben, vorwerfen, wir würden in unserem Rassismus nicht das Leid der getöteten Kinder in Gaza und anderswo sehen.“
Sie sei erschrocken über solche Wahrnehmungen, sagt Clement, aber es sei wichtig, ihnen einen Rahmen zu geben, um Radikalisierungen zu verhindern. "Genau das sehen wir als Hochschulleitung jetzt als unsere Aufgabe: eine gewaltfreie Debatte ermöglichen, die auf der Grundlage von Argumenten und Fakten stattfindet." Weshalb sie auf dem Zentralcampus jetzt zwei Banner aufgehängt haben, auf Deutsch und auf Englisch, mit den Grundsätzen, die für alle gelten sollen. Unter anderem steht da: "Klar muss sein: Wir schauen nicht weg, wenn Menschen leiden. Das Existenzrecht Israels wird nicht in Frage gestellt. Das Recht der Palästinenser auf einen eigenen Staat wird nicht in Frage gestellt." Jede Form des Terrors sei abzulehnen, jegliche NS-Vergleiche verböten sich. "Genau wie jede Form von Antisemitismus und Islamfeindlichkeit." Der gesamte Uni-Senat stehe dahinter, sagt Clement. Was sie sich wünscht: dass sich alle Hochschulen in Deutschland gemeinsam einen solchen Diskursrahmen geben.
Hitzige Töne und gegenseitig Vorwürfe
Und tatsächlich lud HRK-Präsident Walter Rosenthal direkt nach der HRK-Mitgliederversammlung zu einer weiteren virtuellen Austauschrunde ein "mit einem besonderen Fokus auf Maßnahmen zum Schutz von jüdischen Studierenden sowie auf die Moderation von Konflikten auf dem Campus". Wie hatte er in seiner Erklärung gesagt: "Wir dulden keine Gewalt, weder verbal noch physisch, keinen Antisemitismus, keinerlei Ausgrenzung – auch nicht gegen Studierende und Mitarbeitende palästinensischer Herkunft, die sich aktuell ebenfalls Sorgen machen." Und er fügte hinzu: Das Miteinander an einer Hochschule und die produktive Diskussion auf und neben dem Campus beruhten auf wechselseitigem Respekt, der Wahrung wissenschaftlicher Grundsätze, auf der freiheitlich-demokratischen Grundordnung und der Einhaltung der Gesetze.
Doch statt produktiven Diskussionen und wechselseitigem Respekt gibt es seit Wochen hitzige Töne und gegenseitige Vorwürfe. Etwa als die Staatsekretärin im Bundesministerium für Bildung und Forschung (BMBF) Sabine Döring auf "X" kritisierte, die international bekannte US-Philosophin Judith Butler kontextualisiere in einem Meinungsbeitrag das "Opfer" Hamas, aber nicht den "Täter" Israel. "So kommt – trotz ‚Ich verdamme den Terror der Hamas‘ — am Ende eben doch eine Relativierung desselben heraus". Und Döring, zugleich Philosophieprofessorin an der Universität Tübingen, fügte hinzu: Wenn man Butlers "hehre Vision" umsetze, würde der Staat Israel empirisch aufhören zu existieren und jüdisches Leben würde aus der Region rückstandsfrei getilgt.
Dörings Post löste Zustimmung, aber auch empörte Reaktionen in der Wissenschaftsszene aus. Der Historiker Ben Miller bezeichnete es ebenfalls auf "X" als "intellektuell grotesk, wenn jemand, insbesondere eine Deutsche, auf die Arbeit einer jüdischen Philosophin, die in der jüdischen intellektuellen Tradition arbeitet, mit dem Vorwurf reagiert, sie würde das jüdische Leben nicht genug wertschätzen". Was Döring pessimistisch resümieren ließ: "Sehen Sie, das ist genau der Grund, warum wir keine Chance mehr haben, miteinander einen fruchtbaren Diskurs zu führen."
Ein praktisches Ausrufezeichen der Verbundenheit mit Israel setzte derweil die Deutsche Forschungsgemeinschaft (DFG) und vereinbarte mit ihrer israelischen Partnerorganisation Israel Science Foundation (ISF) eine weitere Stärkung ihrer Zusammenarbeit. Zu den Zielen gehört, die gemeinsame Förderung deutsch-israelischer Forschungsprojekte zu ermöglichen und die Ausarbeitung eines bilateralen Begutachtungsverfahrens. DFG-Präsidentin Katja Becker betonte, das sogenannte Memorandum of Understanding sei bereits vor dem Terrorangriff der Hamas ausgearbeitet worden. "Vor dem Hintergrund der aktuellen Situation in Israel und in der Region bekommt die Stärkung der wissenschaftlichen Zusammenarbeit nun zusätzliche Bedeutung, auch als Zeichen der Solidarität."
Dieser Artikel erschien zuerst im DSW Journal 4/2023.
Kostenfreien Newsletter abonnieren
In eigener Sache: Blog-Finanzierung
Wie dieser Blog finanziell aufgestellt ist, warum er Ihre Unterstützung braucht – und welche Artikel im November am meisten gelesen wurden.
Die Inhalte der verlinkten Blogs und Blog Beiträge unterliegen in vielen Fällen keiner redaktionellen Kontrolle.
Warnung zur Verfügbarkeit
Eine dauerhafte Verfügbarkeit ist nicht garantiert und liegt vollumfänglich in den Händen der Blogbetreiber:innen. Bitte erstellen Sie sich selbständig eine Kopie falls Sie einen Blog Beitrag zitieren möchten.
Die "VolkswagenStiftung" reagiert auf eine Studie zu veränderten Wissenschaftskulturen und zieht Konsequenzen für ihr Fördergeschäft. Ein Interview über mehr Gerechtigkeit auf dem akademischen Arbeitsmarkt, neue Forderungen an Antragsteller und ein Hinterfragen geltender Bewertungssysteme.
Henrike Hartmann ist stellvertretende Generalsekretärin und leitet die Abteilung Förderung der "VolkswagenStiftung". Georg Schütte ist Generalsekretär und führt die Geschäftsstelle der Stiftung.
Fotos: Nico Herzog/ Philip Bartz, jeweils für VolkswagenStiftung.
Frau Hartmann, Herr Schütte, die "VolkswagenStiftung" hat eine Studie "Wissenschaftskulturen in Deutschland" in Auftrag gegeben, deren Ergebnisse jetzt veröffentlicht werden. Grundlage waren Fokusgruppen, Interview und Workshops mit Wissenschaftlern aller Karrierestufen und Wissenschaftsexperten aus dem In- und Ausland. Bevor wir über deren Inhalte sprechen: Ich hätte gedacht, als größter privater Forschungsförderer in Deutschland kennen Sie die Wissenschaftslandschaft auch ohne Studie in- und auswendig.
Georg Schütte: Sozialwissenschaftliche Forschung bietet immer den Vorteil, Aussagen, die man als gegeben hinnimmt, noch einmal kritisch zu hinterfragen. Wir waren motiviert durch eine Studie, die im Jahr 2020 von den Kolleginnen und Kollegen des Welcome Trust in Großbritannien durchgeführt wurde, Titel: "What researchers think about the culture they work in." Wir wollten wissen: Was kommt dabei raus, wenn wir dieselbe Frage in Deutschland stellen? Gibt es verbreitete Annahmen über unser Wissenschaftssystem, die sich, wenn man mit Wissenschaftlerinnen und Wissenschaftlern spricht, als längst überholt herausstellen? Es ging uns um das stille Wissen, das alle Insider in sich tragen, aber nur selten nach außen artikulieren.
Und, gibt es solche Annahmen?
Schütte: Und ob. Das zeigte sich, noch bevor wir die Studie überhaupt gestartet hatten, in den Gesprächen, die wir mit den Mitgliedern unseres Beraterkreises geführt haben. Schon da wurde uns klar: Wir reden nicht nur über eine Wissenschaftskultur im Wandel, wir reden über viele Wissenschaftskulturen, die abhängig von den einzelnen Disziplinen geprägt sind von jeweils ganz eigenen Regeln, Annahmen, Standards und Verhaltensweisen.
Das ist noch nicht wirklich überraschend.
Schütte: Ja, aber wie genau unterscheiden sich diese disziplinären Kulturen, entwickeln sie sich auseinander oder aufeinander zu? Da haben wir tief hineingeschaut und festgestellt, dass sich aus den Besonderheiten der einzelnen Fächer durchaus Schlussfolgerungen für allgemeine, gemeinsame Problemlagen ziehen lassen. Ein Beispiel: In den Geisteswissenschaften werden Doktorandenstellen mit einem Umfang von 65 oder 75 Prozent als gängig angesehen und man meint, dass die Stelleninhaber gleichwohl Vollzeit arbeiten sollen. In den Technikwissenschaften oder in der Informatik werden dagegen 100-Prozent-Stellen angeboten. Begründung: weil der Arbeitsmarkt außerhalb der Wissenschaft, Stichwort Konkurrenz, das eben so erfordere. Diese auffällige Diskrepanz zwischen den Fächern wurde nicht groß hinterfragt. Unsere Schlussfolgerung als Stiftung aber lautet: Gleicher Lohn für gleiche Arbeit. Hier sehen wir unsere Aufgabe als Forschungsförderer: Wie können wir dazu beitragen, einen akademischen Arbeitsmarkt zu schaffen, der gerade zu Karrierebeginn gerecht ist und fächerunabhängig hinreichende Zukunftsaussichten bietet?
"Die Bereitschaft zur Selbstausbeutung und dazu, schlechte Arbeitsbedingungen in Lehre und Forschung als gegeben zu akzeptieren, ist geschwunden"
Henrike Hartmann: Das war für uns von Anfang an das Ziel hinter der Studie: Wir wollten nicht nur herausfinden, wie es um die Wissenschaftskulturen in Deutschland bestellt ist, wir wollten Konsequenzen für unser Förderhandeln ableiten. Was in der Befragung klar herauskommt, ist der grundlegende Wechsel des Selbstverständnisses zwischen früheren Wissenschaftlergenerationen und der heutigen. Früher wurde Wissenschaft als Berufung gesehen, heute als Beruf. Die Bereitschaft zur Selbstausbeutung und dazu, schlechte Arbeitsbedingungen in Lehre und Forschung als gegeben zu akzeptieren, ist geschwunden.
Und was bedeutet das für die "VolkswagenStiftung"?
Schütte: Wir haben zwei konkrete Konsequenzen gezogen. Erstens: Wir wollen verstärkt semi-stabile Forschungsgruppen unterstützen, also Teams, deren Mitglieder sich teilweise aus den Inhabern von Dauerstellen rekrutieren. Diese wechseln nur für die Laufzeit ins Projekt und werden nur so lange aus den Projektmitteln bezahlt. Oft heißt es in den Universitäten, die Anforderung, Drittmittel einzuwerben, liege quer zu dem Ziel, die Befristungsquote unter den Mitarbeitern zu senken. Darauf reagieren wir. Zweitens wollen wir die bereits laufende Debatte über die Bewertungssysteme in der Wissenschaft befördern.
Bleiben wir zuerst bei den, wie Sie es nennen, "semi-stabilen" Teams. Wie wollen Sie mehr davon an die Hochschulen bekommen?
Schütte: Indem wir alle, die Fördergelder bei uns beantragen, stärker in die Verantwortung nehmen. Mit jedem Förderantrag muss künftig nicht nur ein Stellenkonzept eingereicht werden, sondern auch überzeugend begründet und dargelegt werden, wie und warum einzelne Personen auf welcher Qualifikationsstufe dauerhaft beschäftigt werden oder nicht und welche Perspektiven es für Beschäftigte auf Projektstellen gibt. Wir wollen so einen Denkprozess anstoßen.
Hartmann: Wenn ein Doktorand eingestellt wird für ein Projekt, passiert das oft nicht aus einer inhaltlichen Begründung heraus, sondern weil Postdocs teurer sind. Wir verlangen nun aber, dass genau begründet wird, ob und wie eine bestimmte Beschäftigung zur Weiterqualifizierung der vorgesehenen Person passt. Bei Postdoc-Stellen wollen wir genauso wissen: Ist die geplante Aufgabe wirklich ein sinnvoller Start in eine wissenschaftliche Karriere hinein? Wie sieht es mit der Betreuung aus? Erhält jemand Fertigkeiten, die ihm oder ihr auch den nichtakademischen Arbeitsmarkt weiterhelfen? Oder wird da jemand speziell für den akademischen Markt qualifiziert – und wenn ja, wie steht es um seine Anschlussoptionen? Klar ist der Postdoc auch selbst für sein Fortkommen verantwortlich. Aber wer übernimmt Mitverantwortung für seine Zukunft? Und wie wird das im Projekt abgebildet?
"Begründet aus euren Fachkulturen heraus, welche Stellenkonstellationen und Perspektiven ihr für junge Wissenschaftlerinnen und Wissenschaftler schaffen wollt."
Ziemlich viele Fragen, die auf einen gemeinsamen Mindeststandard bei den akademischen Karrierewegen abzielen. Wie aber passt ein gemeinsamer Standard für alle zu der zuvor von Ihnen betonten Unterschiedlichkeit der Wissenschaftskulturen? Haben Sie keine Angst vor einem Gleichmacherei-Vorwurf?
Schütte: Ich kann da keinen Widerspruch erkennen, weil wir auf einer übergeordneten Ebene argumentieren und den einzelnen Fachgebieten keine Vorschriften machen, wie es zu sein hat. Wir stellen aber die Anforderung: Begründet aus euren Fachkulturen heraus, welche Stellenkonstellationen und Perspektiven ihr für junge Wissenschaftlerinnen und Wissenschaftler schaffen wollt. Für einige Disziplinen mag das stärker eine neue Herangehensweise sein als für andere.
Und für einige Fächer erhöhen Sie so womöglich entscheidend die Barrieren für einen Antrag um Fördergelder der "VolkswagenStiftung".
Hartmann: Das kann schon sein. Aber für uns darf nicht die absolute Zahl der Anträge entscheidend sein, sondern dass sie wirklich durchdacht sind im Interesse aller Beteiligten. Wenn dann im Ergebnis der eine oder die andere entscheidet, dass sie unseren Bedingungen nicht entsprechen können, hilft das zur Klärung.
Die Aufrufe, dass die Hochschulen aus Drittmitteln mehr Dauerstellen schaffen sollen, hörte man zuletzt häufiger, auch aus der Politik. Bei den verantwortlichen Kanzlern lösen solche Appelle mitunter Kopfschütteln aus. Das würde man ja gern, sagen sie, aber die konkreten Verwendungsvorschriften, das Kleingedruckte, lasse genau das meist nicht zu.
Schütte: Wir versuchen, in unserer Förderung möglichst ohne Kleingedrucktes auszukommen. Das heißt natürlich, dass wir auch riskante Forschungsprojekte ermöglichen. Die Hochschulen und Wissenschaftseinrichtungen sollen Freiräume zum Ausprobieren haben. Aus Dingen, die nicht klappen, lernt man. Allerdings muss man, wenn es um Menschen geht, besonders vorsichtig sein und darf nicht zu weit ins Risiko gehen. Das ist das Spannungsfeld, und das versuchen wir zu bearbeiten.
Hartmann: Das entspricht dem Selbstverständnis der Stiftung, Impulse zu geben, Strukturbildung zu betreiben. Das umfasst zwangsläufig nicht nur die Forschung selbst, sondern auch die administrativen Vorgänge drumherum. Das Ziel ist zu zeigen, dass es auch anders gehen kann.
"Viele Fragestellungen. Die Studie ermutigt uns, sie weiter anzugehen."
Sie sprachen vorhin von der zweiten Schlussfolgerung, die Debatte über die Bewertungssysteme in der Wissenschaft zu befördern. Was haben Sie vor?
Hartmann: Wir haben nicht nur vor, wir machen bereits. Wir haben eine Ausschreibung gestartet, um das Wissen über die vorhandenen Bewertungssysteme und ihre Funktionsweisen zu erhöhen. Die Anträge liegen jetzt auf dem Tisch, und sie zeigen eine erfreuliche Vielfalt mit diversen nationalen und internationalen Konsortien, die sich mit allen Dimensionen von Bewertung beschäftigen wollen: vom Publikationswesen über die Frage, welche Themen besonders gut laufen, bis hin zum Umgang mit Wissenschaftspreisen. Wir gehen jetzt in die Begutachtung, in einem halben Jahr wissen wir, wer in die Förderung kommt. Die Resonanz auf die Ausschreibung zeigt schon einmal die Relevanz der Frage.
Schütte: Das war eine glückliche Koinzidenz. Wir hatten die Ausschreibung gestartet, bevor die Ergebnisse der Studie vorlagen. Beides passt jetzt sehr gut zusammen. Wir müssen, das wird aus der Studie sehr deutlich, fragen: Wie wird Reputation zugeschrieben in der Wissenschaft? Wie werden Erfolge und Misserfolge gemessen, und wie ist das System organisatorisch und prozedural aufgestellt, um mit der Vielfalt der Anträge noch qualitativ angemessen umzugehen? Also viele Fragestellungen. Die Studie ermutigt uns, sie weiter anzugehen.
Zur Wahrheit gehört, dass auch die "VolkswagenStiftung" dieses Bewertungssystem durch die Vielzahl von Antragsverfahren und Begutachtungen weiter füttert. Viele Wissenschaftler fühlen sich durch das ständige Begutachtetwerden, aber auch durch das ständige Begutachten überlastet.
Hartmann: Weshalb wir schon länger gegensteuern. Neu ist, dass alle Begutachtenden bei uns an einer Verlosung teilnehmen. Als Gewinn gibt es 25mal 10.000 Euro Fördergeld zum Aufbau und zur Pflege internationaler Wissenschaftskooperationen.
Damit ändern Sie nicht das System, sondern verschaffen sich lediglich einen Vorteil im Konkurrenzkampf um die zu wenigen Gutachter.
Hartmann: Dieser Vorwurf wäre berechtigt, wenn wir einfach die Honorare für alle erhöhen würden und dadurch den Wettbewerb der Förderer anheizen würden. Genau das tun wir aber nicht. Sondern wir greifen bewusst die verbreitete Kritik auf, die Arbeit, die Begutachtende leisten, werde nicht ausreichend gesehen. Durch die Verlosung machen wir sie sichtbar. Und durch die vorgegebene Verwendung der Gelder profitiert nicht ein einzelner, die begutachtende Person, sondern, wenn es weise eingesetzt wird, eine Gruppe von Wissenschaftlern, darunter auch die am Beginn ihrer Karriere. Aber zugegebenermaßen handelt es sich um ein Experiment. Wir machen das jetzt für ein Jahr und vergleichen dann die Quote der Ab- bzw. Zusagen potenzieller Gutachter mit der Zeit vor der Verlosung. Bislang ist die Resonanz, die wir bekommen, positiv.
Das mit dem Verlosen machen Sie bei der "VolkswagenStiftung" an anderer Stelle schon länger. Bei manchen Ausschreibungen wählt die Jury zunächst nur die allerbesten Vorhaben aus, die übrigen brauchbaren Anträge gehen in einen Topf, und aus dem wird nach dem Zufallsprinzip eine weitere Anzahl zur Förderung gezogen. Hat sich das bewährt?
Hartmann: Nach anfänglicher Kritik und Zurückhaltung hat sich in der Community die Erkenntnis durchgesetzt, dass Losverfahren in bestimmten Ausschreibungen durchaus sinnvoll sein können. Inzwischen wurde die Idee von vielen Förderern aufgegriffen, auch großen öffentlichen wie dem FWF in Österreich oder dem Schweizer Nationalfonds.
"Manchmal besteht unser Lernen auch darin, etwas Neues wieder zu lassen."
In welchen Situationen sind Losverfahren denn sinnvoll?
Hartmann: Immer da, wo die Gefahr besteht, dass die Peer-Review-Begutachtung allein unkonventionelle und risikoreiche Projektanträge benachteiligen könnte.
Aus einer ähnlichen Motivation haben Sie vor Jahren auch sogenannte Förderjoker eingeführt. Die ermöglichen es einzelnen Jurymitgliedern, ein Projekt für die Förderung durchzusetzen, auch wenn die Mehrheit der Gutachter nicht dafür ist.
Hartmann: Und da haben wir gemischte Erfahrungen gemacht, abhängig von den Disziplinen. In den Lebenswissenschaften hat sich der Förderjoker bewährt, um neues Forschungsterrain zu erschließen, mit sogenannten High-Risk-High-Gain-Anträgen. Wo also das Risiko eines Scheiterns sehr hoch ist, der mögliche Ertrag aber eben auch. Anders sieht es in den diskursintensiven Wissenschaften aus, da haben wir erlebt, dass über den Förderjoker Schulenstreits ausgetragen wurden. Das schafft unnötig Kontroversen, weshalb wir den Förderjoker in diesen Wissenschaften nicht mehr einsetzen. Manchmal besteht unser Lernen auch darin, etwas Neues wieder zu lassen.
Kostenfreien Newsletter abonnieren
In eigener Sache: Bitte unterstützen Sie meine Arbeit
Nutzerzahlen und Finanzierung: Wie steht es um den "Wiarda-Blog"?
Precipitation is a crucial driver for many environmental processes and exhibits a high spatiotemporal variability. The traditional, widely-used point-scale measurements by rain gauges are not able to detect the spatial rainfall distribution in a comprehensive way. Throughout the last decades, weather radars have emerged as a new measurement technique that is capable of providing areal precipitation information with high spatial and temporal resolution and put precipitation monitoring on a new level. However, radar is an indirect remote sensing technique. Rain rates and distributions are inferred from measured reflectivities, which are subject to a series of potential error sources. In the last years, several operational national radar data archives exceeded a time series length of ten years and several new radar climatology datasets have been derived, which provide largely consistent, well-documented radar quantitative precipitation estimate (QPE) products and open up new climatological application fields for radar data. However, beside uncertainties regarding data quality and precipitation quantification, several technical barriers exist that can prevent potential users from working with radar data. Challenges include for instance different proprietary data formats, the processing of large data volumes and a scarcity of easy-to-use and free-of-charge software, additional effort for data quality evaluation and difficulties concerning data georeferencing. This thesis provides a contribution to improve the usability of radar-based QPE products, to raise awareness on their potentials and uncertainties and to bridge the gap between the radar community and other scientific disciplines which are still rather reluctant to use these highly resolved data. First, a GIS-compatible Python package was developed to facilitate weather radar data processing. The package uses an efficient workflow based on widely used tools and data structures to automate raw data processing and data clipping for the operational German radar-based and gauge-adjusted QPE called RADOLAN ("RADar OnLine Aneichung") and the reanalysed radar climatology dataset named RADKLIM. Moreover, the package provides functions for temporal aggregation, heavy rainfall detection and data exchange with ArcGIS. The Python package was published as an Open Source Software called radproc. It was used as a basis for all subsequent analyses conducted in this study and has already been applied successfully by several scientific working groups and students conducting heavy rainfall analysis and data aggregation tasks. Second, this study explored the development, uncertainties and potentials of the hourly RADOLAN and RADKLIM QPE products in comparison to ground-truth rain gauge data. Results revealed that both QPE products tend to underestimate total precipitation sums and particularly high intensity rainfall. However, the analyses also showed significant improvements throughout the RADOLAN time series as well as major advances through the climatologic reanalysis regarding the correction of typical radar artefacts, orographic and winter precipitation and range-dependent attenuation. The applicability of the evaluation results was underpinned by the publication of a rainfall inter-comparison geodataset for the RADOLAN, RADKLIM and rain gauge datasets. The intercomparison dataset is a collection of precipitation statistics and several parameters that can potentially influence radar data quality. It allows for a straightforward comparison and analysis of the different precipitation datasets and can support a user's decision on which dataset is best suited for the given application and study area. The data processing workflow for the derivation of the intercomparison dataset is described in detail and can serve as a guideline for individual data processing tasks and as a case study for the application of the radproc library. Finally, in a case study on radar composite data application for rainfall erosivity estimation, RADKLIM data with a 5-minute temporal resolution were used alongside rain gauge data to compare different erosivity estimation methods used in erosion control practice. The aim was to assess the impacts of methodology, climate change and input data resolution, quality and spatial extent on the R-factor of the Universal Soil Loss Equation (USLE). Moreover, correction factors proposed in other studies were tested with regard to their ability to compensate for different temporal resolutions of rainfall input data and the underestimation of precipitation by radar data. The results clearly showed that R-factors have increased significantly due to climate change and that current R-factor maps need to be updated by using more recent and spatially distributed rainfall data. The radar climatology data showed a high potential to improve rainfall erosivity estimations, but also a certain bias in the spatial distribution of the R-factor due to the rather short time series and a few radar artefacts. The application of correction factors to compensate for the underestimation of the radar led to an improvement of the results, but a possible overcorrection could not be excluded, which indicated a need for further research on data correction approaches. This thesis concludes with a discussion of the role of open source software, open data and of the implementation of the FAIR (Findable, Accessible, Interoperable, Re-usable) principles for the German radar QPE products in order to improve data usability. Finally, practical recommendations on how to approach the assessment of QPE quality in a specific study area are provided and potential future research developments are pointed out. ; Niederschlag ist ein wesentlicher Antrieb vieler Umweltprozesse und weist eine hohe räumliche und zeitliche Variabilität auf. Die traditionellen, weit verbreiteten punktuellen Messungen mit Ombrometern sind nicht in der Lage, die räumliche Niederschlagsverteilung flächendeckend zu erfassen. Im Laufe der letzten Jahrzehnte hat sich mit dem Wetterradar eine neue Messtechnik etabliert, die in der Lage ist, flächenhafte Niederschlagsinformationen mit hoher räumlicher und zeitlicher Auflösung zu erfassen und die Niederschlagsüberwachung auf ein neues Niveau zu heben. Radar ist jedoch eine indirekte Fernerkundungstechnik. Niederschlagsraten und -verteilungen werden aus gemessenen Reflektivitäten abgeleitet, die einer Reihe von potenziellen Fehlerquellen unterliegen. In den letzten Jahren überschritten mehrere nationale Radardatenarchive eine Zeitreihenlänge von zehn Jahren. Es wurden mehrere neue Radarklimatologie-Datensätze abgeleitet, die weitgehend konsistente, gut dokumentierte Radarprodukte zur quantitativen Niederschlagsschätzung liefern und neue klimatologische Anwendungsfelder für Radardaten eröffnen. Neben Unsicherheiten bezüglich der Datenqualität und der Niederschlagsquantifizierung gibt es jedoch eine Vielzahl technischer Barrieren, die potenzielle Nutzer von der Verwendung der Radardaten abhalten können. Zu den Herausforderungen gehören beispielsweise unterschiedliche proprietäre Datenformate, die Verarbeitung großer Datenmengen, ein Mangel an einfach zu bedienender und kostenloser Software, zusätzlicher Aufwand für die Bewertung der Datenqualität und Schwierigkeiten bei der Georeferenzierung der Daten. Diese Dissertation liefert einen Beitrag zur Verbesserung der Nutzbarkeit radarbasierter quantitativer Niederschlagsschätzungen, zur Sensibilisierung für deren Potenziale und Unsicherheiten und zur Überbrückung der Kluft zwischen der Radar-Community und anderen wissenschaftlichen Disziplinen, die der Nutzung der Daten immer noch eher zögerlich gegenüberstehen. Zunächst wurde eine GIS-kompatible Python-Bibliothek entwickelt, um die Verarbeitung von Wetterradardaten zu erleichtern. Die Bibliothek verwendet einen effizienten Workflow, der auf weit verbreiteten Werkzeugen und Datenstrukturen basiert, um die Rohdatenverarbeitung und das Zuschneiden der Daten zu automatisieren. Alle Routinen wurden für die operationellen deutschen RADOLAN-Kompositprodukte ("RADar OnLine Aneichung") und den reanalysierten Radarklimatologie-Datensatz (RADKLIM) umgesetzt. Darüber hinaus bietet das Paket Funktionen für die zeitliche Datenaggregation, die Identifikation und Zählung von Starkregen sowie den Datenaustausch mit ArcGIS. Das Python-Paket wurde als Open-Source-Software namens radproc veröffentlicht. Radproc bildet die methodische Grundlage für alle nachfolgenden Analysen dieser Studie und wurde zudem bereits erfolgreich von mehreren wissenschaftlichen Arbeitsgruppen und Studenten zur Analyse von Starkregen und zeitlichen Aggregierung von Radardaten eingesetzt. Des Weiteren wurden in dieser Arbeit die Entwicklung, Unsicherheiten und Potentiale der stündlichen RADOLAN- und RADKLIM-Kompositprodukte im Vergleich zu Ombrometerdaten analysiert. Die Ergebnisse haben gezeigt, dass beide Radarprodukte die Gesamtniederschlagssummen und inbesondere Niederschläge hoher Intensität tendenziell unterschätzen. Die Analysen zeigten jedoch auch signifikante Verbesserungen im Verlauf der RADOLAN-Zeitreihe sowie deutliche Qualitätsverbesserungen durch die klimatologische Reanalyse, insbesondere im Hinblick auf die Korrektur typischer Radarartefakte, orographischer und winterlicher Niederschläge sowie der entfernungsabhängigen Abschwächung des Radarsignals. Die Anwendbarkeit der Auswertungsergebnisse wurde durch die Veröffentlichung eines Geodatensatzes zum Niederschlagsvergleich für die RADOLAN-, RADKLIM- und Ombrometer-Datensätze untermauert. Der Vergleichsdatensatz ist eine Sammlung von Niederschlagsstatistiken sowie verschiedener Parameter, die die Qualität der Radardaten potenziell beeinflussen können. Er ermöglicht einen einfachen Vergleich und eine Analyse der verschiedenen Niederschlagsdatensätze und kann die Entscheidung von Anwendern unterstützen, welcher Niederschlagsdatensatz für die jeweilige Anwendung und das jeweilige Untersuchungsgebiet am besten geeignet ist. Der Workflow für die Ableitung des Vergleichsdatensatzes wurde ausführlich beschrieben und kann als Leitfaden für individuelle Datenverarbeitungsaufgaben und als Fallstudie für die Anwendung der radproc-Bibliothek dienen. Darüber hinaus wurde eine Fallstudie zur Anwendung von Radar-Komposits für die Abschätzung der Erosivität des Niederschlags durchgeführt. Dazu wurden RADKLIM-Daten und Ombrometerdaten mit einer zeitlichen Auflösung von 5 Minuten verwendet, um verschiedene Methoden zur Abschätzung der Niederschlagserosivität zu vergleichen, die in der Erosionsschutzpraxis Anwendung finden. Ziel war es, die Auswirkungen der Methodik und des Klimawandels sowie der Auflösung, Qualität und der räumlichen Ausdehnung der Eingabedaten auf den R-Faktor der Allgemeinen Bodenabtragsgleichung zu bewerten. Darüber hinaus wurden von anderen Studien vorgeschlagene Korrekturfaktoren im Hinblick auf ihre Fähigkeit getestet, unterschiedliche zeitliche Auflösungen von Niederschlagsdaten und die Unterschätzung des Niederschlags durch Radardaten zu kompensieren. Die Ergebnisse haben deutlich gezeigt, dass die R-Faktoren aufgrund des Klimawandels erheblich zugenommen haben und dass die aktuellen R-Faktor-Karten unter Verwendung neuerer, flächendeckender und räumlich höher aufgelöster Niederschlagsdaten aktualisiert werden müssen. Die Radarklimatologiedaten zeigten ein hohes Potenzial zur Verbesserung der Abschätzung der Niederschlagserosivität, aber aufgrund der vergleichsweise kurzen Zeitreihe und einiger Radarartefakte auch gewisse Unsicherheiten in der räumlichen Verteilung des R-Faktors. Die Anwendung von Korrekturfaktoren zur Kompensation der Unterschätzung des Radars führte zu einer Verbesserung der Ergebnisse, allerdings konnte eine mögliche Überkorrektur nicht ausgeschlossen werden, wodurch weiterer Forschungsbedarf bezüglich der Datenkorrektur aufgezeigt wurde. Diese Arbeit schließt mit einer Diskussion der Rolle von Open-Source-Software, frei verfügbarer Daten und der Umsetzung der FAIR-Prinzipien (Findable, Accessible, Interoperable, Re-usable) für die deutschen Radar-Produkte zur Verbesserung der Nutzbarkeit von Radarniederschlagsdaten. Abschließend werden praktische Empfehlungen zur Vorgehensweise bei der Bewertung der Qualität radarbasierter quantitativer Niederschlagsschätzungen in einem bestimmten Untersuchungsgebiet gegeben und mögliche zukünftige Forschungsentwicklungen aufgezeigt.
Modern agriculture is the basis of human existence, a blessing, but also a curse. It provides nourishment and well-being to the ever-growing human population, yet destroys biodiversity-mediated processes that underpin productivity: ecosystem services such as water filtration, pollination and biological pest control. Ecological intensification is a promising alternative to conventional farming, and aims to sustain yield and ecosystem health by actively managing biodiversity and essential ecosystem services. Here, I investigate opportunities and obstacles for ecological intensification. My research focuses on 1) the relative importance of soil, management and landscape variables for biodiversity and wheat yield (Chapter II); 2) the influence of multi-scale landscape-level crop diversity on biological pest control in wheat (Chapter III) and 3) on overall and functional bird diversity (Chapter IV). I conclude 4) by introducing a guide that helps scientists to increase research impact by acknowledging the role of stakeholder engagement for the successful implementation of ecological intensification (Chapter V). Ecological intensification relies on the identification of natural pathways that are able to sustain current yields. Here, we crossed an observational field study of arthropod pests and natural enemies in 28 real-life wheat systems with an orthogonal on-field insecticide-fertilizer experiment. Using path analysis, we quantified the effect of 34 factors (soil characteristics, recent and historic crop management, landscape heterogeneity) that directly or indirectly (via predator-prey interactions) contribute to winter wheat yield. Reduced soil preparation and high crop rotation diversity enhanced crop productivity independent of external agrochemical inputs. Concurrently, biological control by arthropod natural enemies could be restored by decreasing average field sizes on the landscape scale, extending crop rotations and reducing soil disturbance. Furthermore, reductions in agrochemical inputs decreased pest abundances, thereby facilitating yield quality. Landscape-level crop diversity is a promising tool for ecological intensification. However, biodiversity enhancement via diversification measures does not always translate into agricultural benefits due to antagonistic species interactions (intraguild predation). Additionally, positive effects of crop diversity on biological control may be masked by inappropriate study scales or correlations with other landscape variables (e.g. seminatural habitat). Therefore, the multiscale and context-dependent impact of crop diversity on biodiversity and ecosystem services is ambiguous. In 18 winter wheat fields along a crop diversity gradient, insect- and bird-mediated pest control was assessed using a natural enemy exclusion experiment with cereal grain aphids. Although birds did not influence the strength of insect-mediated pest control, crop diversity (rather than seminatural habitat cover) enhanced aphid regulation by up to 33%, particularly on small spatial scales. Crop diversification, an important Greening measure in the European Common Agricultural Policy, can improve biological control, and could lower dependence on insecticides, if the functional identity of crops is taken into account. Simple measures such as 'effective number of crop types' help in science communication. Although avian pest control did not respond to landscape-level crop diversity, birds may still benefit from increased crop resources in the landscape, depending on their functional grouping (feeding guild, conservation status, habitat preference, nesting behaviour). Observational studies of bird functional diversity on 14 wheat study fields showed that non-crop landscape heterogeneity rather than crop diversity played a key role in determining the richness of all birds. Insect-feeding, non-farmland and non-threatened birds increased across multiple spatial scales (up to 3000 m). Only crop-nesting farmland birds declined in heterogeneous landscapes. Thus, crop diversification may be less suitable for conserving avian diversity, but abundant species benefit from overall habitat heterogeneity. Specialist farmland birds may require more targeted management approaches. Identifying ecological pathways that favour biodiversity and ecosystem services provides opportunities for ecological intensification that increase the likelihood of balancing conservation and productivity goals. However, change towards a more sustainable agriculture will be slow to come if research findings are not implemented on a global scale. During dissemination activities within the EU project Liberation, I gathered information on the advantages and shortcomings of ecological intensification and its implementation. Here, I introduce a guide ('TREE') aimed at scientists that want to increase the impact of their research. TREE emphasizes the need to engage with stakeholders throughout the planning and research process, and actively seek and promote science dissemination and knowledge implementation. This idea requires scientists to leave their comfort zone and consider socioeconomic, practical and legal aspects often ignored in classical research. Ecological intensification is a valuable instrument for sustainable agriculture. Here, I identified new pathways that facilitate ecological intensification. Soil quality, disturbance levels and spatial or temporal crop diversification showed strong positive correlations with natural enemies, biological pest control and yield, thereby lowering the dependence on agrochemical inputs. Differences between functional groups caused opposing, scale-specific responses to landscape variables. Opposed to our predictions, birds did not disturb insect-mediated pest control in our study system, nor did avian richness relate to landscape-level crop diversity. However, dominant functional bird groups increased with non-crop landscape heterogeneity. These findings highlight the value of combining different on-field and landscape approaches to ecological intensification. Concurrently, the success of ecological intensification can be increased by involving stakeholders throughout the research process. This increases the quality of science and reduces the chance of experiencing unscalable obstacles to implementation. ; Die moderne Landwirtschaft ist die Grundlage menschlichen Lebens, ein Segen, aber auch ein Fluch. Sie stellt Nahrung und Wohlstand für die immerfort wachsende menschliche Bevölkerung bereit, und zerstört gleichzeitig Biodiversitäts-geförderte Prozesse, welche die Produktivität unterstützen: Ökosystemdienstleistungen wie Wasseraufbereitung, Bestäubung und biologische Schädlingsbekämpfung. Ökologische Intensivierung ist eine vielversprechende Alternative zur konventionellen Landwirtschaft, und zielt darauf aus, Erträge und die Gesundheit von Ökosystemen zu erhalten indem Biodiversität und essentielle Ökosystemdienstleistungen aktiv gemanagt werden. In meiner Doktorarbeit untersuche ich die Chancen und Hürden Ökologischer Intensivierung. Das Hauptinteresse meiner Forschung liegt bei 1) der relativen Bedeutung von Boden, Bewirtschaftung und Landschaftsaspekten für Biodiversität und Weizenerträge (Kapitel II); 2) dem Einfluss regionaler Anbauvielfalt auf verschiedenen räumlichen Skalen auf die biologische Schädlingsbekämpfung in Weizen (Kapitel III) und 3) auf die gesamte und funktionelle Artenvielfalt von Vögeln (Kapitel IV). Zum Schluss 4) stelle ich einen Leitfaden vor, der Wissenschaftlern hilft die Wirkung ihrer Forschung zu erhöhen, indem die fundamentale Rolle von Stakeholdern für die Umsetzung Ökologischer Intensivierung besser genutzt wird (Kapitel V). Ökologische Intensivierung bedarf der Identifizierung von natürlichen Prozessen, die zum Erhalt landwirtschaftlicher Erträge beitragen. Zu diesem Zweck verknüpften wir eine Beobachtungsstudie, in der Schädlinge und natürliche Gegenspieler in 28 realen Weizen Anbausystem aufgenommen wurden, mit einem orthogonalen Feldexperiment (Insektizid und mineralische Düngung). Anhand einer Pfadanalyse quantifizierten wir den Einfluss von 34 Faktoren (Bodencharakteristiken, gegenwärtige und vergangene Bewirtschaftung, Landschaftsheterogenität), die direkt oder indirekt (über Räuber-Beute-Interaktionen) Einfluss auf den Winterweizenertrag ausüben. Reduzierte Bodenbearbeitung und vielfältige Fruchtfolgen erhöhten die Erträge unabhängig von der Ausbringung von Agrochemikalien. Gleichzeitig könnte die biologische Schädlingsbekämpfung durch räuberische Insekten wiederhergestellt werden, indem durchschnittliche Schlaggrößen auf der Landschaftsebene verringert, Fruchtfolgen erweitert und die Bodenbearbeitung reduziert wird. Des Weiteren senkte der Verzicht auf Agrochemikalien das Schädlingsaufkommen einiger Arten, und trug zu einer höheren Ertragsqualität bei. Regionale Anbauvielfalt ist ein vielversprechendes Mittel zur Ökologischen Intensivierung. Doch die Erhöhung der Artenvielfalt durch Diversifizierungsmaßnahmen führt nicht immer zu Vorteilen in der Landwirtschaft, vor allem auf Grund antagonistischer Wechselwirkungen zwischen verschiedenen Arten (intraguild predation). Weiterhin können positive Effekte der Anbauvielfalt durch die Wahl der falschen räumlichen Skala oder durch Korrelationen mit anderen Landschaftsvariablen (z.B. halbnatürliche Habitate) überdeckt werden. Aus diesem Grund bestehen Unklarheiten über die Wirkung von Anbauvielfalt auf Biodiversität und Ökosystemdienstleistungen in unterschiedlichen räumlichen Skalen und Kontexten. Durch Ausschlussexperimente mit Getreideblattläusen untersuchten wir die biologische Schädlingsbekämpfung durch räuberische Insekten und Vögel in 18 Winterweizenfeldern innerhalb eines Landschaftsgradienten der Anbauvielfalt. Vögel hatten keinen Einfluss auf die biologische Schädlingsbekämpfung durch Insekten. Anbauvielfalt (nicht das Vorkommen halbnatürlicher Habitate) erhöhte die Schädlingsbekämpfung um bis zu 33%, vor allem auf kleinen räumlichen Skalen. Somit kann die Steigerung der Anbauvielfalt, eine wichtige Säule der Europäischen Gemeinsamen Agrarpolitik, die biologische Schädlingsbekämpfung verbessern und den Einsatz von Agrochemikalien verringern, solange die funktionelle Gruppe der Anbaupflanzen berücksichtigt wird. Einfache Maßeinheiten wie die 'effektive Anzahl an Kulturpflanzengruppen' helfen in der Kommunikation wissenschaftlicher Ergebnisse. Obwohl die Schädlingsbekämpfung durch Vögel nicht durch regionale Anbauvielfalt beeinflusst wurde, könnten Vögel, abhängig von der Zugehörigkeit zu bestimmten funktionellen Gruppen (Ernährung, Gefährdungsstatus, Lebensraum, Nistplatzwahl), dennoch von erhöhten Ressourcen auf landwirtschaftlichen Flächen profitieren. In einer Beobachtungsstudie wurde die funktionelle Vielfalt von Vögeln auf 14 Winterweizenfeldern aufgenommen. Die Studie zeigte, dass die nicht agrarisch genutzte Landschaftsheterogenität im Vergleich zur regionalen Anbauvielfalt eine übergeordnete Rolle für die Artenvielfalt spielte, vor allem für Insektenfresser, Vögel die außerhalb landwirtschaftlicher Flächen siedeln oder nicht in ihrem Bestand gefährdet sind. Effekte waren auf allen Skalen sichtbar (bis zu 3000m). Nur Acker-nistende Agrarvögel zeigten negative Beziehungen zu Landschaftsheterogenität. Der Nutzen der Anbaudiversifizierung scheint weniger Bedeutung für den Vogelschutz zu haben als die übergeordnete Vielfalt der Landschaft, welche den Artenreichtum häufiger Vogelarten erhöhte. Spezialisierte Vogelarten dagegen bedürfen eines gezielten, angepassten Managements. Um Ökologische Intensivierung voranzutreiben und ein Gleichgewicht zwischen Naturschutz- und Produktivitätszielen zu erreichen, bedarf es der Identifikation ökologischer Prozesse, die zur Steigerung von Biodiversität und Ökosystemdienstleistungen beitragen. Doch der die Wende zu einer nachhaltigeren Landwirtschaft wird nur langsam voran schreiten, wenn Forschungsergebnisse nicht global umgesetzt werden. Während der Öffentlichkeitsarbeit im EU Projekt Liberation konnte ich Informationen über die Vor- und Nachteile Ökologischer Intensivierung und deren Umsetzung sammeln. Hier stelle ich einen Leitfaden ('TREE') vor, der Wissenschaftlern helfen soll die Wirkung ihrer Forschung zu erhöhen. TREE verdeutlicht wie wichtig es ist, Stakeholder in den Planungs- und Forschungsprozess eines Projektes mit einzubeziehen, und aktiv die Verbreitung von Wissen und die Umsetzung wissenschaftlicher Ergebnisse voranzutreiben. TREE fordert Wissenschaftler dazu auf, die eigene Komfortzone zu verlassen und sozioökonomische, praktische und rechtliche Aspekte zu berücksichtigen, welche oft in der klassischen Forschung unbeachtet bleiben. Ökologische Intensivierung ist ein bedeutender Schritt in Richtung nachhaltige Landwirtschaft. In dieser Arbeit identifiziere ich neue Wege zur ökologischen Intensivierung. Bodenqualität, Störungsgrad des Bodens und die räumliche oder zeitliche Anbauvielfalt zeigten starke positive Korrelationen mit natürlichen Gegenspielern, biologischer Schädlingsbekämpfung und Erträgen auf, wodurch die Abhängigkeit von Agrochemikalien verringert wird. Unterschiede zwischen funktionellen Gruppen verursachten gegensätzliche Beziehungen zu Landschaftsvariablen auf verschiedenen räumlichen Skalen. Entgegen unserer Erwartungen nahmen Vögel in unserem System keinen Einfluss auf die biologische Schädlingsbekämpfung durch Insekten. Die Vogelvielfalt war außerdem unbeeinflusst von der regionalen Anbauvielfalt. Doch dominante funktionelle Vogelgruppen profitieren von der Vielfalt nicht agrarisch genutzter Landschaftsaspekte. Diese Ergebnisse betonen den Wert einer Mischung aus unterschiedlichen lokalen und landschaftsbezogenen Ansätzen zur Ökologischen Intensivierung. Gleichzeitig kann der Erfolg Ökologischer Intensivierung vor allem dadurch erhöht werden, dass Stakeholder in den Forschungsprozess eingebunden werden. Dies steigert die Qualität der Forschung und reduziert die Wahrscheinlichkeit, während der Umsetzung auf unüberwindbare Hürden zu stoßen.
In den letzten Jahren besteht ein zunehmendes Interesse an innovativen landwirtschaftlichen Systemen, um die nachteiligen Auswirkungen intensiver Produktionssysteme, wie z. Nähr-stoffauswaschung in Grund- und Oberflächengewässer, auf die Umwelt zu minimieren. Eine mögliche Lösung in Grünlandsystemen könnte Agroforstwirtschaft sein, die Integration von Bäumen z.B. in Reihen. Durch ökologische Wechselwirkungen zwischen den holzigen und nicht holzigen Pflanzen können Agroforstsysteme die oben genannten nachteiligen Auswir-kungen einer intensiven Produktion minimieren. Agroforstsysteme gelten daher generell als nachhaltigere und umweltfreundlichere Produktionssysteme im Vergleich zu Monokulturen. In den gemäßigten Zonen ist derzeit jedoch nicht bekannt, ob dieses spezielle Agroforstsys-tem mit abwechselnden Reihen von Grünland und Bäumen (alley-cropping) eine nachhaltige und umweltfreundliche Alternative zu offenem Grünland im Hinblick auf die Nährstoff- und Wassernutzung darstellt. Das übergeordnete Ziel dieser Dissertation war es daher zu untersu-chen, ob Grünlandagroforst (abwechselnde Reihen von Grünland und schnell wachsenden Bäumen) eine nachhaltige Alternative zu offenem Grünland darstellt. Dafür wurden die In-dices nutrient response efficiency (NRE), die Nährstoffverluste durch Auswaschung und der N-Kreislauf im Boden untersucht. In den Jahren 2016 und 2017 wurden in Mittel-deutschland offene und Agroforstgrünlandsysteme auf drei Bodentypen (Histosol, Anthrosol und Cambisol) untersucht. Messungen in den Agroforstsystemen wurden in den Baumreihen und in verschiedenen Abständen zu den Baumreihen innerhalb der Grasreihen in vier (Histo-sol- und Anthrosol-Böden) oder drei (Cambisol-Böden) Wiederholungsparzellen durchge-führt. Die erste Studie hatte zum Ziel Unterschiede in der nutrient response efficiency (NRE, Ver-hältnis von Biomasseproduktion zu pflanzenverfügbaren Nährstoffen) und den pflanzenver-fügbaren Nährstoffen zwischen Grünlandagroforst und offenem Grünland zu bewerten. Pflanzenverfügbares N und P wurden während der Vegetationsperiode mehrmals mit der Bu-ried-Bag-Methode für N und einer Resin- und Bicarbonatextraktion für P gemessen. Die Ka-tionen Ca, K und Mg wurden einmal gemessen. Die Biomasseproduktion wurde entweder gemessen (Gras) oder mittels allometrischer Funktionen (Bäume) berechnet. Pflanzenverfüg-bare N, P, Makronährstoffe und NREs waren im Allgemeinen zwischen Grünlandagroforst und offenem Grünland vergleichbar, was darauf hindeutet, dass es weder Konkurrenz noch Komplementarität zwischen Bäumen und Gräsern um Nährstoffe gab. Eine Ausnahme bilde-ten die geringfügig niedrigeren Ca- und Mg-NREs im Grünlandagroforst im Vergleich zu of-fenem Grünland im Cambisol. Dies war auf die schmalen Grasreihen (9 m breit) zurückzufüh-ren, die in 1 m Entfernung von der Baumreihe eine geringere Biomasse der Gräser aufwiesen, möglicherweise aufgrund der Beschattung der Bäume. Im Jahr 2017, als die Baumproduktion im zweiten Jahr nach der Baumernte höher war, wies Grünlandagroforst für Histosol- und Anthrosol höhere P- und K-nutrient response efficiencies als offenes Grünland auf. Es wird daher der Schluss gezogen, dass Agroforstwirtschaft eine nachhaltige Alternative zu offenem Grünland darstellen kann, ohne dass die Verfügbarkeit von Bodennährstoffen oder die NREs beeinträchtigt wird. Dies ist insbesondere in Systemen mit breiten Grasreihen (48 m breit) der Fall und wenn die Bäume älter werden. Die zweite Studie sollte die Verluste von Nährstoffen durch Auswaschung in Grünlanda-groforst mit abwechselnden Reihen von schnell wachsenden Weiden und Grünland quantifi-zieren. Die Nährstoffverluste wurden berechnet, indem die monatlich gemessenen Nährstoff-konzentrationen im Bodenwasser in 0,6 m Tiefe von jedem Probenahmepunkt mit modellier-ten monatlichen Abflüssen multipliziert wurden. Bei allen Bodentypen wiesen die Baumreihen eine hohe Interzeption auf, was zu Wasserverlusten führte, die im Vergleich zu den Grasreihen erheblich niedriger waren. An allen drei Standorten waren die Auswaschungsverluste von NO3-, Phosphat und Kationen (Ca, K, Mg) während des gesamten Untersuchungsjahres sehr variabel und unterschieden sich aufgrund der erheblichen zeitlichen Variabilität nicht zwi-schen Baum- und Grasreihen. Die Untersuchung der Na/Nährstoff-Verhältnisse ergab jedoch, dass die Bäume Nährstoffverluste durch die bevorzugte Nährstoffaufnahme und möglicher-weise durch vermehrte mikrobielle Prozesse wie die Denitrifikation unter Baumreihen positiv beeinflussten. Die Studie liefert somit Belege dafür, dass schnell wachsende Bäume zur Ver-ringerung der Auswaschungsverluste auf Grünland und zur Verbesserung der Grundwasser-qualität beitragen können. Die dritte Studie zielte darauf ab, Unterschiede im N-Kreislauf im Boden zwischen Grün-landagroforst und offenem Grünland sowie dessen Einflussfaktoren zu bewerten. Zur Be-stimmung der Bruttoraten von Boden-N-Kreislaufprozessen (d. H. Brutto-N-Mineralisierung, Brutto-Nitrifizierung, N-Immobilisierung und dissimilatorische Nitritreduktion zu Ammoni-um) wurde die 15N-Poolverdünnungstechnik verwendet. Es gab keine signifikanten Unter-schiede bei den Bruttoraten der N-Produktion (Mineralisierung und Nitrifizierung) zwischen den Probenahmestellen in Agroforst und offenen Grünland innerhalb der drei Bodentypen. Die Bewirtschaftung (Grünlandagroforst im Vergleich zu offenem Grünland) oder der Vege-tationstyp (Baum oder Gras) wirkten sich nicht auf den Boden-N-Kreislauf aus, was der Hy-pothese widerspricht, dass die Bruttoraten des Boden-N-Kreislaufs in den Baumreihen höher sind als in den Grasreihen oder im offenen Grünland. Stattdessen wurden der N-Kreislauf und die mikrobielle Biomasse eher von den Bodentypen beeinflusst. Grünlandagro-forst kann daher in Bezug auf die Verfügbarkeit von N und den gesamten N-Kreislauf im Boden im Vergleich zu offenem Grünland gleichermaßen effizient sein und ein nachhaltiges alternatives Managementsystem darstellen. Insgesamt zeigt diese Arbeit, dass Agroforstwirtschaft ein nachhaltiges alternatives Manage-mentsystem zu Grünland in Bezug auf NRE, Nährstoffauswaschung und die Aufrechterhal-tung eines aktiven N-Kreislaufs sein kann. Es sind jedoch mehrjährige Bewertungen sowohl des wirtschaftlichen Nutzens als auch der ökologischen Funktionen erforderlich, um langfris-tige Trends zu quantifizieren, die dann eine solide Grundlage für die Einbeziehung der Agro-forstwirtschaft in einen breiteren politischen Rahmen bilden könnten. ; In recent years, there is an increasing interest in innovative agricultural systems as an alterna-tive to open grassland systems in order to minimize the detrimental effects of intensive pro-duction systems on the environment such as nutrient leaching to ground and surface waters. One possible solution could be agroforestry, i.e. the implementation of trees into grassland in the form of alternating rows, also known as alley cropping system. By fostering ecological interactions between woody and non-woody components, agroforestry systems can minimize the detrimental effects of intensive production mentioned above. These systems are therefore seen as more sustainable and environmentally friendly production systems than intensive pro-duction systems or monocultures. At present, however, regarding temperate agroforestry, it is unknown whether this particular agroforestry system is a sustainable and environmentally friendly alternative to open grassland in terms of nutrient and water use. The overall aim of this thesis therefore was to test whether grassland agroforestry (alley cropping of grasses and fast growing trees) is a sustainable alternative to open grassland by investigating the index of nutrient response efficiency, nutrient leaching losses and the soil-N cycle. Agroforestry and open grassland systems were investigated on three soil types (Histosol, Anthrosol and Cambi-sol soils) in central Germany in 2016 and 2017. Measurements in the agroforestry systems were conducted in the tree rows and at various distances to the tree rows within the grass rows in four (Histosol and Anthrosol soils) or three (Cambisol soil) replicate plots. The first study aimed to assess differences in nutrient response efficiency (NRE, ratio of biomass production to soil available nutrient) and plant-available nutrients between grassland agroforestry and open grassland. Plant available N and P were measured several times during the vegetation period using the buried bag method for N and a resin- and bicarbonate-extraction for P. The cations Ca, K and Mg were determined once. Biomass production was either measured (grass) or calculated by using allometric functions (trees). Plant-available N, P, macronutrients and NREs were generally comparable between agroforestry and open grass-land, suggesting no net effect of competition or complementarity for nutrients between trees and grasses. One exception were the marginally lower Ca and Mg response efficiencies in ag-roforestry compared to open grassland in the Cambisol soil. This was due to the narrow grass rows (9-m wide), which showed lower biomass of grasses at 1 m from the tree row, possibly due to the trees' shading. In 2017, when tree production was higher in the second year after tree harvest, agroforestry had higher P and K response efficiencies than open grassland for Histosol and Anthrosol soils. It is therefore concluded that alley cropping agroforestry can be a sustainable alternative to open grassland without sacrificing NRE and soil nutrient availabil-ity, particularly in systems with wide grass rows (48-m wide) and when trees are getting older. The second study aimed to quantify nutrient leaching losses in temperate alley cropping sys-tems of alternating rows of fast growing willows and grassland. Nutrient leaching losses were calculated by multiplying monthly measured nutrient concentrations in soil water at 0.6 m depth from each sampling point with modelled monthly leaching fluxes. For all soil types tree rows displayed high interception rates resulting in water drainage fluxes that were considera-bly lower compared to the grass rows. At all three sites NO3-, phosphate and base cation (Ca, K, Mg) leaching losses were highly variable throughout the study year and did not differ be-tween tree rows and grass rows because of considerable temporal variability. However, look-ing into ratios of Na/nutrient showed that trees positively influenced nutrient losses by prefer-ential nutrient uptake and possibly due to increased microbial processes such as denitrification under tree rows. The study thus provides evidence that fast growing trees in temperate grass-land alley cropping systems can contribute to reduction of leaching losses and to better ground water quality. The third study aimed to assess differences in gross rates of soil-N cycling between agrofor-estry and open grassland, and their controlling factors. To determine gross rates of soil-N-cycling processes (i.e. gross N mineralization, gross nitrification, N immobilization and dis-similatory NO3- reduction to ammonium) the 15N pool dilution technique was used on intact soil cores. There were no significant differences in gross rates of mineral N production (miner-alization and nitrification) between sampling locations in grassland agroforestry and open grasslands within soil types. Management (grassland agroforestry vs open grassland) or vege-tation type (tree or grass) did not affect soil-N cycling, thus opposing the hypothesis that gross rates of soil-N cycling are higher in the tree rows than in the grass rows or open grassland. Instead, N-cycling rates and microbial biomass were rather affected by soil types. Grassland agroforestry can thus be equally efficient in terms of soil N availability and soil-N cycling compared to open grassland and can be a sustainable alternative management system. This thesis overall shows that temperate grassland agroforestry can be a sustainable alternative management system to open grassland in terms of NRE, nutrient leaching and by sustaining an active N-cycling. However, multi-year evaluations, both of the economic benefit and the eco-logical functions, are needed in order to quantify long-term trends, which could then provide a robust basis for inclusion of agroforestry into a broader framework of policy.
In telecommunication sector, the term Access Control (AC) was defined in the standard from 1997 and included multiple meanings, one of which is used in this context: Access Control is the function performed by the resource controller that allocates system resources in order to satisfy (user) requests. In this context, the resources are: (i) Internet Protocol (IP) (RFC0791) connectivity from a Fifth Generation Wireless (5G) Core Network and (ii) communication to dynamically spawned Machine to Machine (M2M) Applications server instances. At a functional level, the mobile networks communication stratum can be separated into three distinct planes and the associated type of components, as defined by the International Telecommunication Union (ITU) in the Technical Report from 2004: (i) Data Plane - components which transfer the data between the different entities, (ii) Control Plane - components which control the operation of the specific layer entities and the support components and (iii) Management Plane - components used to manage the specific layer entities and the support components. Following the Next Generation Mobile Networks (NGMN) list of 5G system requirements, the 3rd Generation Partnership Project (3GPP) is in the process of standardizing the 5G system core network architecture. In more details, the resulting 5G system architecture is the first mobile core network architecture having the Control Plane and Data Plane handled by different components. The management plane resides in multiple components that handle policies for access control or detect malfunctions. In the architecture the component interfacing with the applications was already included in the core network of Long Term Evolution (LTE), called Evolved Packet Core (EPC), and is now transcending an increase of exposed capabilities. Application Area: Machine to Machine Applications One of the application areas supported by 5G is Machine to Machine (M2M) communication. In recent years the M2M technologies have reached a certain level of acceptance due to sensors, actuators and other smart devices communication flexibility increase and affordability, making the M2M deployment attractive in several domains like eHealth, Environmental monitoring, Smart metering, Automotive and transport, Agriculture, Manufacturing. Research Issue: Limited M2M specific Access Control At the same time, the concepts of (i) Network Function Virtualization (NFV), in which network components become software based and dynamically spawned by NFV Management and Orchestration (NFV MANO) components, and (ii) Software Defined Networking (SDN), introducing the concepts of controller and switch for separating the control plane from data plane, have revolutionized the networking by introducing flexibility and complexity. As these concepts are adopted by standards like 3rd Generation Partnership Project and the European Telecommunications Standards Institute (ETSI), the interest is to make use of the full power of the technology and scale the infrastructures dynamically according to the needs and keeping the communication across the devices, the network and service instances reliable. Solutions using IP pools for service instance allocation are only suitable for communication paradigms like request-response, thus not suitable for state-full services using sessions. The Access Control between M2M device and Server across multiple Server instances and multiple 5G Core Network instances (also known as Slices) requires a higher level approach for enabling trustworthy and dynamic coupling of M2M communication peers. Own Approach: M2M Device Management deeply linked to 5G Slice Components There are several protocols defined for Device Management, e.g. Open Mobile Alliance Lightweight M2M and Broadband Forum (BF) Technical Report 069 (TR-069), in which a device management server can monitor the registered devices status (battery lifetime, logs, connectivity). The solution proposed here extends such a protocol for enabling access control of M2M infrastructures. The solution has three types of access control. The first one is related to service instance information allocation with the device management server making use of knowledge on the dynamically deployed instances of M2M Application Servers and sending recommendations to the M2M device on the available instances. The second one is the trustful bootstrap of M2M devices so that the devices are managed by new management servers when they are performing handover between 5G slices. The third one refers to connectivity management and consists of increasing the flexibility of the core network subscriber information server in order to enable dynamically allocated subscriber information on devices that join the M2M infrastructure. Scientific Contributions The main contribution of this work is the specification of a Cross-Layer Access Control Framework for M2M Infrastructures using 5G Core Networks by interconnecting the Management Plane of the M2M Communication and the one of the Mobile Core Networks for Trustful Handover of the M2M devices between Security Domains that are running on Core Network Slices. The concept and design of the prototype implementation address common requirements from different M2M vertical domains and are general enough to be further used in other ones. The performance evaluation of the associated components and comparison with other academic, open-source and industry-owned solutions provides a perspective of the future suitability. Validation and Outlook The work has been validated and evaluated within several European Union granted projects as well as one industry funded project. The interoperability and performance have been evaluated. The implementation is part of the Fraunhofer FOKUS Open5GMTC toolkit, an extension for M2M application domain of the Open5GCore toolkit, and acts as basis for future research and development projects. ; In der Telekommunikation Bereich wurde der Begriff Zugangskontrolle (AC) in der Norm von 1997 definiert und umfasste mehrere Bedeutungen, von denen eine im vorliegenden Kontext verwendet wird: Zugangskontrolle ist die Funktion ausgeführt vom Ressourcenkontrolleur, der teilt die Systemressourcen zur Befriedigung von (Nutzer-)Anfragen. In vorliegenden Kontext sind die Ressourcen: (i) die Internetprotokoll(IP) -konnektivität, bereitgestellt von einem drahtlosen Kernnetz der fünften Generation (5G Fifth Generation Wireless Core Network) und (ii) die Kommunikation mit dynamisch erzeugten Maschine-Maschine(M2M)-Anwendungsserverinstanzen. In funktionaler Hinsicht kann die Schicht der mobilen Kommunikationsnetze in drei klar voneinander abgegrenzte Ebenen einschließlich der dazugehörigen funktionalen Komponenten gemäß Definition durch die Internationale Fernmeldeunion (ITU) unterteilt werden: (i) die Datenebene - Komponenten, die die Daten zwischen den verschiedenen Einheiten übertragen, (ii) die Steuerungsebene - Komponenten, die den Betrieb der Einheiten der einzelnen Schichten und der unterstützenden Komponenten steuern und (iii) die Verwaltungsebene - Komponenten, die zur Verwaltung der Einheiten der einzelnen Schichten und der unterstützenden Komponenten verwendet werden. Ausgehend von der vom Verband Next Generation Mobile Networks (NGMN) aufgestellten Liste der Anforderungen an ein 5G-System arbeitet das 3rd Generation Partnership Project (3GPP) daran, die Architektur des 5G-Kernnetzes zu standardisieren. Genauer gesagt ist die sich ergebende 5G-Systemarchitektur die erste Architektur für Kernnetze der mobilen Kommunikation, bei der die Steuerungsebene und die Datenebene in unterschiedlichen Komponenten angesiedelt sind. Die Verwaltungsebene ist auf verschiedene Komponenten verteilt, die für Zugangskontrolle verantwortlich sind oder Fehlfunktionen feststellen. In der Architektur war die Komponente, die über Schnittstellen mit den Anwendungen verfügte, schon unter der Bezeichnung Evolved Packet Core (EPC) im Kernnetz des Long-Term-Evolution (LTE)-Netzes angelegt und zeigt jetzt eine Zunahme an Fähigkeiten. Anwendungsbereich: Maschine-Maschine-Anwendungen Einer der Anwendungsbereiche von 5G ist die Kommunikation Maschine-Maschine (M2M). In jüngster Zeit haben M2M-Technologien eine gewisse Akzeptanz erlangt, da die Kommunikation von Sensoren, Betätigungselementen und anderen smarten Geräten flexibler und erschwinglicher wurde, so dass die Nutzung von M2M in verschiedenen Bereichen wie dem Gesundheitswesen, Umweltmonitoring, Smarte Verbrauchszähler, Autoverkehr und Transportwesen, Landwirtschaft, Fertigungsindustrie immer attraktiver wird. Forschungsthema: Beschränkte spezifische M2M-Zugangskontrolle Gleichzeitig haben die Konzepte der (i) Virtualisierung von Netzfunktionen (NFV), bei der Netzwerkbestandteile auf Software beruhen und dynamisch von NFV-Verwaltungs- und Steuerungskomponenten (NFV-MANO-Komponenten)erzeugt werden, sowie (ii) software-basierten Netzwerken (Software Defined Networking (SDN)), bei denen die Konzepte von Steuerung und Schalter für die Trennung der Steuerungsebene von der Datenebene eingeführt wurden, die Netzkommunikation revolutioniert, indem sie Flexibilität und Komplexität in sie einführten. Aufgrund der Übernahme dieser Konzepte durch Standardisierungsorganisationen wie 3GPP und das Europäische Institut für Telekommunikationsnormen (ETSI) besteht Interesse daran, diese Technologien in vollem Umfang nutzen zu können und die Infrastruktur entsprechend der Bedarfsentwicklung dynamisch auszubauen sowie für eine zuverlässige Kommunikation zwischen den Geräten, dem Netz und den Dienstinstanzen zu sorgen. Lösungen, bei denen IP-Pools für die Zuweisung von Dienstinstanzen genutzt werden, sind nur bei Gültigkeit von Kommunikationsparadigmen wie Anfrage-Antwort geeignet und können daher nicht für statusbetonte Dienste, die mittels Sessions abgewickelt werden, angewandt werden. Die Zugangskontrolle zwischen M2M-Gerät und Server über mehrere Server-Instanzen und 5G-Kernnetzinstanzen (auch als Slices bezeichnet) erfordern einen Ansatz auf einem höheren Niveau, um eine vertrauenswürdige und dynamische Kopplung von M2M-Kommunikationsteilnehmern zu ermöglichen. Eigener Ansatz: M2M-Geräteverwaltung eng verknüpft mit 5G-Slice-Komponenten Es gibt mehrere Protokolle für Geräteverwaltung, z.B. Offen Mobile Allianz (OMA) Lightweight M2M und Breitband Forum (BF) Technicher Berichrt 069 (TR-069), bei denen ein Geräteverwaltungsserver den Status der registrierten Geräte (Batterielebensdauer, Logs, Konnektivität) überwachen kann. Die hier vorgeschlagene Lösung erweitert ein solches Protokoll in der Art, dass eine Zugangskontrolle von M2M-Infrastrukturkomponenten ermöglicht wird. Die Lösung bietet drei Arten von Zugangskontrolle. Die erste bezieht sich auf die Zuweisung von Dienstinstanz-Informationen, wobei der Geräteverwaltungsserver das in den dynamisch eingesetzten Instanzen der M2M-Anwendungsserver vorhandene Wissen nutzt und Empfehlungen über die vorhandenen Instanzen an der M2M-Geräte sendet. Die zweite ist das vertrauensvolle Bootstrapping der M2M-Geräte, so dass die Geräte von neuen Verwaltungsservern verwaltet werden, wenn sie eine Übergabe zwischen 5G-Slices ausführen. Die dritte bezieht sich auf das Konnektivitätsmanagement und besteht darin, dass die Flexibilität des Kernnetz-Teilnehmerinformationsservers erhöht wird, um eine dynamische Zuweisung von Teilnehmerinformationen auf Geräte, die in die M2M-Infrastruktur einbezogen werden, zu ermöglichen. Wissenschaftliche Beiträge Der Hauptbeitrag dieser Arbeit besteht in der Spezifizierung eines schichtenübergreifenden Zugangskontrollrahmens für M2M-Infrastrukturen mittels 5G-Kernnetze durch verbinden der Verwaltungsebene der M2M-Kommunikation mit der des mobilen Kernnetzes für die geschützte Übergabe der M2M-Geräte zwischen den Sicherheitsdomänen, die innerhalb der Kernnetz-Slices betrieben werden. Konzept und Auslegung der Prototyp-Umsetzung behandeln gemeinsame Anforderungen unterschiedlicher vertikaler M2M-Domänen und sind allgemein genug gehalten, um auch für andere verwendet werden zu können. Die Beurteilung der Leistung der eingebundenen Komponenten und ein Vergleich mit anderen Lösungen, die von wissenschaftlichen Einrichtungen, Open-Source-Anbietern und der Industrie angeboten werden, liefert eine Vorstellung von ihrer Zukunftsfähigkeit. Validierung und Ausblick Die Arbeit wurde im Rahmen mehrerer von der Europäischen Union geförderter Projekte sowie einem von der Industrie finanzierten Projekt validiert und bewertet. Es fand eine Auswertung der Interoperabilität und Leistung statt. Die Umsetzung ist Teil des Fraunhofer-FOKUS-Open5GMTC-Toolkits, der entwickelt als Erweiterung des Open5GCore-Toolkits für die M2M-Anwendungsdomäne würde und dient als Grundlage für künftige Forschungs- und Entwicklungsprojekte.
Infrared detectors allow the remote and contactless measurement of the temperature of an object through radiometry. By using an array of multiple IR sensors assembled into a camera, a thermal image of a scene can be collected without the need for illumination. The applications for early infrared photon detectors were limited, because their requirement for cryogenic cooling resulted in bulky systems. The evolution of micromachining technology enabled the development of uncooled bolometric detectors, which found more widespread use in both military and civilian settings. Typical use cases include vision enhancement, navigation and collision avoidance, process control, search and rescue operations, surveillance, building inspection, process control and medical diagnostics. However, the relatively high costs of infrared cameras have prevented a more widespread use in consumer-oriented applications. Part of the challenge is the complex set of requirements for materials used in resistive bolometers, which measure the incident IR radiation through the absorption-induced temperature change of a free-standing and thermally-isolated thermistor. The desired properties include a high IR absorption, a large magnitude and an excellent linearity of the temperature coefficient of resistance (TCR), a high electrical and thermal resistance as well as a low amount of intrinsic noise sources. Typically, a stack of layers is required to fulfill all the mentioned requirements, which results in a complex fabrication process. In this work, we instead developed a bolometer based on a single functional layer of sub-10 nm thin platinum. Reducing the thickness and number of layers has the immediate advantage of allowing for a better thermal isolation and a smaller thermal capacitance. Both measures help to improve the sensitivity, the temperature resolution and the thermal time constant, which represent the most important figures-of-merit of IR detectors. An additional benefit of this approach is a simple and cost-effective fabrication process, the complexity of which commonly scales with the number of mask layers and required lithography steps. Platinum has attractive properties and a long history of use as a thermistor material for temperature sensors. However, to achieve an effective absorption of IR radiation, a thickness in the nanometer-range is required to match the metal film's impedance to that of free space. A surface micromachining process was developed at the Stanford Nanofabrication Facility that enables the reliable fabrication of the resulting delicate detector structures with aspect ratios in excess of 8000:1. The process is compatible with post-CMOS integration and wafer level packaging. Plasma enhanced atomic layer deposition (PE-ALD) was selected for a repeatable and homogeneous deposition of the functional layers. A careful investigation of the thickness dependence of the relevant material properties was performed in order to establish the required knowledge for the design and modeling of the detectors structures. A steep increase in both the electrical and thermal resistivity was measured for a reduction of the Pt film thickness below 10 nm. The TCR of thin-film Pt was found to decrease simultaneously. The characterization of the optical properties of Pt showed an increase in both the real and imaginary part of the complex refractive index for smaller layer thicknesses. The risk of damage from high current densities in the Pt thin film due to electromigration was also evaluated and found to be unproblematic. Through the characterization of the mechanical properties of nanometer-thin PE-ALD layers, a reduction of the Young's modulus of Al₂O₃ of up to 50% compared to bulk values was determined, whereas only a slight degradation was found for Pt. All layers exhibited tensile residual stresses with an average value around 131 MPa. A detailed performance model was compiled based on these measured material properties and allowed the accurate prediction of the detector's characteristics as well as an understanding of trade-offs involved in its design. In order to fully exploit the unique features of a bolometer with a single functional layer, an improved geometry based on a self-supporting serpentine structure was subsequently developed, which provides an increase in the sensitivity by a factor of four. The properties of fabricated demonstrator structures were characterized using a vacuum chamber setup. Depending on the employed layer thicknesses, the thermal time constant of the detectors was found to be in the range of 0.7 ms to 4.5 ms. These values are up to an order of magnitude faster compared to state-of-the-art bolometric detectors thanks to the comparatively low thermal mass of the free-standing structure. The sensitivity to IR radiation improved drastically with a reduction in Pt thickness and responsivities of 4×10⁸ V/WA could be achieved for 6 nm thin Pt layers. This value corresponds to a temperature resolution (NETD) of 70 mK, which is based on the measured 1/f noise characteristics of Pt and the assumption of infrared optics with an F-number equal to one. While this new detector technology still leaves room for improvement, the achieved temperature resolution is only about a factor of two away from the performance of commercially available bolometers, which exhibit a significantly slower reaction time and have to rely on a more complicated fabrication process. In summary, we demonstrated an uncooled IR detector based on a single free- standing, sub-10 nm thin Pt layer for the first time. Its performance profits significantly from the reduction in film thickness enabled by the use of PE-ALD. The presented results and the lessons learned from this work can assist in the use of released, nanometer-thin layers for MEMS devices in other domains that can profit equally from such a development. ; Infrarotdetektoren ermöglichen das kontaktlose Messen der Temperatur eines entfernten Objekts durch Radiometrie. Durch die Verwendung einer Kamera, die aus einer Matrix aus mehreren Detektoren besteht, kann außerdem ein Wärmebild einer Szene aufgenommen werden, ohne dass hierfür eine Lichtquelle notwendig ist. Die Einsatzgebiete für die ersten auf halbleitenden Materialien basierenden Infrarot- Photodetektoren waren eingeschränkt, da die Notwendigkeit einer kryogenischen Kühlung zu aufwändigen und unhandlichen Systemen führte. Die Entwicklung der Herstellungsmethoden aus der Mikrosystemtechnik ermöglichte die Fertigung von ungekühlten bolometrischen Detektoren, die vielfältige Anwendungen in militärischen und zivilen Bereichen fanden. Typische Anwendungsgebiete umfassen z.B. die Verbesserung der Sicht (ähnlich zu Nachtsichtgeräten), die Unterstützung bei der Navigation und der Vermeidung von Kollisionen, die Überwachung von Objekten, die Suche nach vermissten Personen, die Diagnose und Überwachung von technischen Prozessen, die zerstörungsfreie Werkstoffprüfung, die Gebäudediagnostik oder den Einsatz bei medizinische Untersuchungen. Die hohen Kosten von Infrarot-Kameramodulen haben jedoch bisher eine weitere Verbreitung im privaten Bereich weitgehend verhindert. Ein Teil der Herausforderung bei der Entwicklung von IR-Detektoren ist in den komplexen Anforderungen begründet, die Materialien für den erfolgreichen Einsatz in Bolometern erfüllen müssen. Das Messprinzip dieser Art von Detektoren basiert typischerweise auf der Auswertung des elektrischen Widerstands eines freistehenden, thermisch-isolierten Thermistors, der sich aufgrund von absorbierter Infrarotstrahlung mit der Temperatur ändert. Zu den für diesen Einsatz gewünschten Eigenschaften zählen ein hoher Absorptionskoeffizient für Infrarotstrahlung, ein hoher elektrischer und thermischer Widerstand, eine hohe und möglichst lineare Änderung des Widerstands mit der Temperatur und ein geringes intrinsisches Rauschen. Häufig muss eine Kombination von verschiedenen Materialien verwendet werden, um alle Bedingungen zu erfüllen, was zu einem komplexen und kostenintensiven Herstellungsprozess führt. In dieser Arbeit wurde eine neue Bolometer-Technologie entwickelt, die als einziges funktionales Material auf einer sub-10 nm dicken Platinschicht basiert. Durch die Reduzierung der Anzahl der Schichten und deren Dicke entsteht der Vorteil einer hervorragenden thermischen Isolation und einer geringeren thermischen Masse der Detektorstruktur. Zusammen ergeben sich hieraus eine Verbesserung der Sensitivität, der Temperaturauflösung und der thermischen Zeitkonstante, den drei wichtigsten Kenngrößen für Bolometer. Ein weiterer Vorteil dieses Ansatzes ergibt sich durch einen einfacheren und damit preiswerteren Herstellungsprozess, dessen Komplexität üblicherweise mit der Anzahl der Ebenen und den benötigten Lithographie-Schritten skaliert. Platin besitzt attraktive Eigenschaften für die Verwendung als Thermistor-Material, was durch die weite Verbreitung von Platin-Widerstandsthermometern belegt ist. Für eine effektive Absorption von Infrarotstrahlung muss die Dicke der Platinschicht für die hier beschriebene Anwendung allerdings im Bereich von wenigen Nanometern liegen, damit eine Impedanz-Anpassung an den Freiraumwellenwiderstand erreichen werden kann. Um die wiederholbare und homogene Abscheidung von Schichten in dieser Größenordnung zu ermöglichen, wurde die Methode der plasmagestützten Atomlagenabscheidung (PE-ALD) gewählt. Hierauf basierend wurde an der Stanford Nanofabrication Facility ein Oberflächenmikromechanik-Fertigungsprozess entwickelt, der die zuverlässige Herstellung von nanometer-dünnen Bolometerstrukuren mit Aspektverhältnissen von über 8000:1 erlaubt. Die prinzipielle Kompatibilität des entwickelten Prozesses konnte sowohl für eine post-CMOS Integration als auch für eine Vakuum-Verkapselung der Sensoren durch Waferbonden gezeigt werden. Zunächst wurden die relevanten Materialeigenschaften der mit PE-ALD abgeschiedenen Schichten und deren Schichtdickenabhängigkeit evaluiert, damit ein ausreichendes Verständnis für den Entwurf und die Modellierung der Bolometerstrukturen erzielt werden konnte. Ein signifikanter Anstieg der spezifischen elektrischen und thermischen Widerstände wurde hierbei für Platin ab einer Schichtdicke kleiner als 10 nm festgestellt. Dieser Anstieg ging mit einer deutlichen Verringerung der Temperaturabhängigkeit des Widerstandes einher. Bei der Charakterisierung der optischen Eigenschaften der Platinschichten im Infrarotbereich wurde eine Erhöhung der realen und imaginären Anteile des Brechungsindexes bei einer Verringerung der Schichtdicke gemessen. Das durch den kleinen stromtragenden Querschnitt entstehende Risiko einer Beschädigung der Pt-Schicht durch Elektromigration wurde ebenfalls evaluiert und konnte als unbedenklich eingestuft werden. Des Weiteren wurden die mechanischen Eigenschaften der verwendeten Schichten bestimmt. Eine Verringerung des Elastizitätskoeffizienten um bis zu 50% wurde für Al₂O₃-Schichten mit einer Dicke von 9 nm festgestellt, während keine signifikante Veränderung der Steifigkeit von Pt beobachtete wurde. Alle charakterisierten Schichten wiesen Zugspannungen mit durchschnittlichen Werten um 131 MPa auf. Auf der Grundlage der gemessenen Materialeigenschaften wurde ein detailliertes analytisches Modell erstellt, mit dessen Hilfe die Eigenschaften der hergestellten Detektoren präzise vorhergesagt und die Abhängigkeit dieser Eigenschaften von den Designparametern verdeutlicht werden konnte. Mit der Entwicklung einer verbesserten Geometrie auf Basis einer freitragenden Serpentinenstruktur ließen sich die besonderen Merkmale des Detektoransatzes mit nur einer funktionalen Schicht ausnutzen, was zu einer Erhöhung der Sensitivität um eine Vierfaches führte. Die Eigenschaften der hergestellten Sensor-Prototypen wurden mit Hilfe eines Vakuumkammer-Aufbaus und eines Schwarzkörperstrahlers bestimmt. Die thermische Zeitkonstante der Detektoren lag – abhängig von der verwendeten Schichtdicke – im Bereich zwischen 0.7 ms und 4.5 ms. Dank der geringen thermischen Masse der nanometer-dicken, freitragenden Schicht sind diese Werte bis zu einer Größenordnung schneller im Vergleich zum Stand der Technik. Die Sensitivität der Sensoren gegenüber Infrarotstrahlung verbesserte sich drastisch für geringere Platin-Schichtdicken. So konnte eine Sensitivität von 4×10⁸ V/WA für Platin mit eine Dicke von 6 nm erreicht werden. Dieser Wert entspricht einer Temperaturauflösung (NETD) von 70 mK unter Berücksichtigung des gemessenen 1/f-Rauschens von Platin und unter der Annahme einer Infrarot-Optik mit einer Blendenzahl F#=1. Obwohl die neuentwickelte Technologie noch Verbesserungspotential besitzt, liegt die erreichte Temperaturauflösung nur um etwa Faktor zwei über der von kommerziell erhältlichen Bolometern, die eine langsamere Zeitkonstante besitzen und auf einen deutlich komplexeren Herstellungsprozess angewiesen sind. Zusammenfassend wurden in dieser Arbeit ungekühlte, bolometrische Infrarotdetektoren, die aus einer einzigen Platinschicht bestehen, entwickelt. Die Leistungsfähigkeit dieser Sensoren konnte durch die Reduktion der Schichtdicke auf wenige Nanometer signifikant verbessert werden, was mit der Verwendung von Atomlagenabscheidung ermöglicht wurde. Die in dieser Arbeit vorgestellten Ergebnisse schaffen eine hilfreiche Voraussetzung für die Verwendung von nanometer-dicken, freitragenden Strukturen bei Bauteilen aus anderen Bereichen der Mikrosytemtechnik, die auf ähnliche Weise von dieser Entwicklung profitieren können.
Over the past decade, the metal matrix nanocomposites (MMNCs) have been used in many applications, owing to their competing properties such as high strength to weight ratio, high corrosion resistance, and fatigue strength. The reduction in vehicle weight or increasing the strength to weight ratio of the materials used, provides both fuel efficiency and reducing the CO2 emissions. The fabricate of such composites should be carried out through fulfilling two main considerations; the constitutes (matrix and reinforcement nanoparticles) and the fabrication method. Aluminum alloys, as a matrix, possess remarkable properties of low density, good corrosion resistance, and low thermal expansion. Such characteristics make them attractive chose to perform as matrices in the world of MMNCs. The conventional aluminum alloys are usually used in automotive, aerospace industry, and structural materials owing to their higher performance either mechanically, or functionally. The aluminum features do not end at this point, but it is also characterized by excellent recyclability which makes aluminum a good environment friend by different means of reducing the energy consumption for their production, emissions accompanied with production, and the consumption of fresh raw materials. In this concern, Al6061 was utilized in this research as a matrix, due to its wide range of applications in automotive and ground transportation, thermal management, aerospace, industrial, recreational and infrastructure industries, as well as advanced military systems. Choosing the reinforcement nanoparticles too is subjected to many aspects of durability, cost considerations, ease of introducing into the matrix, and phase stability. With high strength elastic modulus, good wettability, and low thermal expansion coefficient, was Alumina (Al2O3) a promising candidate in the MMNCs synthesizing in this work. The reinforcing role of the nanoparticles raise from the fact of their small size which enables them to direct to the lattice defects like dislocations and reveal several strengthening mechanisms such as load bearing, Hall-Pitch, difference in elastic modulus and thermal expansion coefficient, and Orowan mechanisms. Consequently, the hybrid materials (Aluminum Matrix Nanocomposites (AMNCs)) attract attention to design lightweight materials with improved mechanical, metallurgical and physical properties. Choosing a compatible manufacturing technique is of the same importance degree as choosing the matrix and the reinforcement nanoparticles. Proper method for nanoparticles addition should guarantee uniform, simplicity, and homogenous destruction of the reinforcements over the matrix and ability of use on large scale. Therefore, stir casting is considered is probably the simplest and most economical technique used to produce MMNCs by a liquid state route. However, the process is restricted by the high agglomeration rates resulted from the poor wettability of the nanoparticles and the air entrapment, which occurred during stirring with a tendency of the nanoparticles to sink or float due to the density difference between the matrix and particles. The present study focuses on the fabrication and characterization of the AMNCs. The AMNCs synthesizing is carried out through stir casting using Al2O3 nanoparticles and Aluminum 6061 as a matrix. The proposed research provides robust empirical approaches to overcome the main restrictions of AMNCs fabrications such as poor wettability, agglomeration, porosity, inhomogeneous distribution, high production costs, and durability. The objective of this research is to investigate the process feasibility, the effective reinforcement weight fraction (over which the properties deteriorate), and the fabricated hybrid materials properties (at room and elevated temperature (300°C)) compared to the monolithic alloy. Furthermore, the metallurgical/mechanical/and functional behavior of the produced materials were evaluated utilizing different mechanical tests (tensile, hardness, fatigue and creep tests) and microstructure investigation techniques (optical and scanning electron microscopy). For further enhancement of the fatigue and the functional behavior of the AMNCs, the mechanical surface treatments (MSTs), namely shot peening and roller burnishing, were conducted. The impact of the shot peening and roller burnishing on the fatigue and the creep behavior was unveiled. The wear and corrosion behavior of the different composites were tested, as well. Furthermore, the weldability of the AMNCs was investigated using the rotary friction welding technique. The optimization of the welding parameters was carried out based on the design of experiment method using Minitab 17. Economically, the recyclability of the AMNCs was clarified by re-fabrication of the produced AMNCs through investigating the change of their behavior compared to unreinforced alloy. The nanocomposites exhibited finer grain size with enhanced mechanical behavior. The yield strength and ultimate tensile strength are improved by 50% and 32% respectively compared to the unreinforced alloy. Moreover, the nanocomposites represented an enhancement in the fatigue life (Electropolished) about 26% and 64% in air and 3.5% NaCl electropolished condition with improved creep rate and corrosion resistance, with further improvement after conducting mechanical surface treatments such as shot peening and roller burnishing to reach 37% and 127% after conducting shot peening in air and 3.5% NaCl compared to the electropolished unreinforced alloy, while it reaches 48% and 154% after conducting roller burnishing. Besides, the AMNCs show higher creep life than the unreinforced alloy not only without further mechanical surface treatments, but also after conducting shot peening. The tribological properties and corrosion resistance of the AMNCs are also enhanced compared to the unreinforced matrix. The AMNCs proved good durability not only by the good weldability, but also by the competed properties obtained after recycling. In conclusion, an analytic model is proposed to reach a simple equation which could describe and detect the expected behavior of the AMNCs based on the weight fraction and both matrix and reinforcements properties. The experimental results show good agreement and effectiveness of the model to predict the mechanical properties of the AMNCs. ; In den letzten zehn Jahren wurden die Metall-Matrix-Nanocomposites (MMNCs) aufgrund ihrer konkurrenzfähigen Eigenschaften, wie zum Beispiel der hohen spezifischen Festigkeit, der sehr guten Korrosionsbeständigkeit und Dauerfestigkeit, in vielen Anwendungen eingesetzt. Die Reduzierung des Fahrzeuggewichts durch die Erhöhung der spezifischen Festigkeit dieser Composite sorgt sowohl für eine höhere Kraftstoffeffizienz als auch für eine Reduzierung der CO2-Emissionen. Die Herstellung und Entwicklung solcher Verbundwerkstoffe sollte sich an den folgenden zwei Gesichtspunkten orientieren der Komponenten (Matrix- und Verstärkungsnanopartikel) und der Herstellungsmethode. Aluminiumlegierungen besitzen, als Matrix, bemerkenswerte Eigenschaften wie die gute Korrosionsbeständigkeit, die geringe Dichte und die geringe Wärmeausdehnung. Solche Eigenschaften machen sie attraktiv, wenn sie als Matrix in der Welt der MMNCs eingesetzt werden. Die konventionellen Aluminiumlegierungen werden aufgrund ihrer höheren mechanischen und funktionellen Leistungsfähigkeit in der Regel in der Automobil-, Luft- und Raumfahrtindustrie zur Herstellung von Strukturwerkstoffen eingesetzt. Weiterhin zeichnet sich Aluminium durch seine ausgezeichnete Recyclingfähigkeit aus, welche es zu einen umweltfreundlichen Werkstoff macht, da sich der Energieverbrauch bei der Herstellung, die mit der Produktion verbundenen Emissionen und der Verbrauch von frischen Rohstoffen reduziert. In diesem Zusammenhang wurde die Aluminiumlegierung Al6061 in dieser Forschungsarbeit als Matrix verwendet, da sie ein breites Anwendungsspektrum in den Bereichen Automobil, Wärmemanagement, Luft- und Raumfahrt, Industrie, Freizeit, Infrastruktur sowie fortschrittliche militärische Systeme bietet. Die Wahl der Verstärkungs-Nanopartikel unterliegt vielen dabei Aspekten. Diese können sein: Haltbarkeit, Kostenbetrachtung, einfache Einführung in die Matrix und die Phasenstabilität. Mit hohem Elastizitätsmodul, guter Benetzbarkeit und niedrigem Wärmeausdehnungskoeffizienten stellt Aluminiumoxid (Al2O3) eine viel versprechende Option dar um MMNCs in dieser Forschungsarbeit künstlich zu erzeugen. Die verstärkende Wirkung der Nanopartikel ergibt sich aus ihrer geringen Größe, die es ihnen ermöglicht sich auf Gitterdefekte wie Versetzungen zu platzieren und dort verschiedene Verstärkungsmechanismen wie zum Beispiel Tragfähigkeit, Hall-Pitch, Differenz von Elastizitätsmodul und thermische Ausdehnungskoeffizient und Orowan-Mechanismen zu bewirken. Die Hybridmaterialien (Aluminum-Matrix-Nano-Composites (AMNCs)) erlangen deshalb zunehmend Bedeutung, wenn es um Leichtbauwerkstoffe mit verbesserten mechanischen, metallurgischen und physikalischen Eigenschaften.geht Die Wahl eines kompatiblen Herstellungsverfahrens ist ebenso wichtig wie die Wahl der Matrix und der Verstärkungs-Nanopartikel. Die Methode für die Zugabe von Nanopartikeln muss eine gleichmäßige, einfache und homogene Verteilung der Verstärkungsnanopartikeln über die Matrix und die Fähigkeit zur Verwendung in großem Maßstab gewährleisten. Daher wird das Rührgießen als die wahrscheinlich einfachste und wirtschaftlichste Technik zur Herstellung von MMNCs betrachtet. Der Prozess wird jedoch durch die hohen Agglomerationsraten eingeschränkt, die aus der schlechten Benetzbarkeit der Nanopartikel und der Lufteinschlüsse resultieren. Aufgrund der Dichtedifferenz zwischen der Matrix und den Partikeln kam es beim Rühren nur teilweise zum Schweben, teilweise aber auch zum Herabsinken der Nanopartikel. Die vorliegende Studie konzentriert sich auf die Herstellung und Charakterisierung der AMNCs. Die Synthese der AMNCs erfolgt durch Rührgießen mit Al2O3-Nanopartikeln und Aluminiumlegierung 6061 als Matrix. Die vorliegende Arbeit bietet empirische Ansätze zur Überwindung der Hauptrestriktionen der AMNC-Fertigung wie schlechte Benetzbarkeit, Agglomeration, Porosität, inhomogene Verteilung, hohe Produktionskosten und geringe Haltbarkeit. Ziel dieser Forschung ist es, die Machbarkeit des Verfahrens, den effektiven Gewichtsanteil der Verstärkung (über den sich die Eigenschaften verschlechtern) und die Eigenschaften der hergestellten Hybridmaterialien bei Raum- und erhöhter Temperatur (300°C) im Vergleich zur monolithischen Legierung zu untersuchen . Darüber hinaus wurde das metallurgische, mechanische und funktionelle Verhalten der hergestellten Werkstoffe mittels verschiedener mechanischer Tests (Zug-, Härte-, Ermüdungs- und Kriechversuche) und Mikrostrukturuntersuchungen (Licht und Rasterelektronenmikroskopie) bewertet. Zur weiteren Verbesserung des Ermüdungs- und des Funktionsverhaltens der AMNCs wurden die mechanischen Oberflächenbehandlungen (MSTs) Kugelstrahlen und Festwalzen durchgeführt. Der Einfluss des Kugelstrahlens und des Festwalzens auf das Ermüdungs- und das Kriechverhalten wurde ermittelt. Auch das Verschleiß- und Korrosionsverhalten der verschiedenen Verbundwerkstoffe wurde getestet. Weiterhin wurde die Schweißbarkeit der AMNCs für das Rotations-Reibschweißverfahren untersucht. Die Optimierung der Schweißparameter erfolgte auf Basis der Versuchsplanung mit Minitab 17. Ökonomisch wurde die Recyclingfähigkeit der AMNCs durch ein erneutes Vergießen der produzierten AMNCs hinsichtlich Untersuchung der Veränderung ihres Verhaltens im Vergleich zu unverstärkten Legierungen untersucht. Die Nanocomposites zeigten eine feinere Korngröße mit verbessertem mechanischem Verhalten als die unverstärkte Legierung. Die Streckgrenze und die Zugfestigkeit wurden gegenüber der unverstärkten Legierung um 50 % bzw. 32 % verbessert. Darüber hinaus erzielten die Nanocomposites eine Erhöhung der Ermüdungslebensdauer in Luft um 26 % (elektropoliert) und um 64 % in 3,5 % NaCl (elektropoliert) mit einer zusätzlich verbesserten Kriechrate und Korrosionsbeständigkeit. Nach der Durchführung der mechanischen Oberflächenbehandlungen wie Kugelstrahlen und Festwalzen konnte eine weitere Verbesserung auf 37 % in Luft und 127 % in 3,5% NaCl nach dem Kugelstrahlen und dem entsprechend 48 % und 154 % nach dem Festwalzen erreicht werden. Zudem weisen die AMNCs nicht nur ohne weitere mechanische Oberflächenbehandlung, sondern auch nach dem Kugelstrahlen eine höhere Kriechfestigkeit auf, als die unverstärkte Legierung. Auch die tribologischen Eigenschaften und die Korrosionsbeständigkeit der AMNCs werden gegenüber der unverstärkten Matrix verbessert. Die gute Einsatzbarkeit der AMNC resultiert nicht nur aus der guten Schweißbarkeit, sondern auch aus den interessanten Eigenschaften nach dem Recycling . Abschließend wird ein analytisches Modell vorgeschlagen, um eine einfache Gleichung ableiten zu können, die das erwartete Verhalten der AMNCs auf der Grundlage des Gewichtsanteils und der Matrix- und Verstärkungseigenschaften beschreibt. Die experimentellen Ergebnisse zeigen eine gute Übereinstimmung und beweisen die Zuverlässigkeit des Modells zur Vorhersage der mechanischen Eigenschaften der AMNCs .
Wetlands provide important ecological, biological, and social-economic services that are critical for human existence. The increasing demand for food, arable land shortage and changing climate conditions in East Africa have created a paradigm shift from upland cultivation to wetland use due to their year-round soil water availability. However, there is need to control and manage the activities within the wetlands to ensure sustainable use while negating any negative effects caused by these activities. This is implemented through the decisions made by the land managers within the wetlands. Providing the users of the wetlands with scientific knowledge acts as a support tool for policy-making geared towards the sustainable use of the wetlands. The overall research contains two main components: First, the need for timely land cover maps at a reasonable scale, and secondly, the assessment of soil moisture as a major contributor to agricultural production. The objectives of the study were to generate land cover maps from multi-sensor optical datasets and to assess the performance of single-polarized Sentinel-1 Gray Level Co-occurrence Matrix (GLCM) texture and Principal Component Analysis (PCA) features by applying multiple classification algorithms in a floodplain in the Kilombero catchment. Furthermore, soil moisture spatial-temporal patterns over three hydrological zones was assessed, estimation of soil moisture from radar data and generation of soil moisture products from global products was investigated. The correlation of the merged products to Normalized Difference Vegetation Index (NDVI) measures was also investigated. RapidEye, Sentinel-2 and Landsat images were used in determining the areal extents of four major land cover classes namely vegetated, bare, water and built up. The acquisition period of the images ranges from August 2013 to June 2015 for the RapidEye images, December 2015 to August 2016 for the Sentinel-2 images and 2013 to 2016 Landsat-8 images were included in the land cover time series dynamic study. However, the major challenge arising was cloud coverage and hence Sentinel-1 images were tested in the application of Synthetic Aperture Radar (SAR) in wetland mapping. Variograms were used in spatial-temporal assessment of soil moisture data collected from three hydrological zones, riparian, middle and fringe. A roughness parameter was derived from a semi-empirical model. Soil moisture was retrieved from TerraSAR-X and RadarSAT-2 with the retrieved roughness parameter as an input in a linear regression equation. Triple collocation was applied in error assessment of the global soil moisture products prior to development of a merged product. Cross-correlation was applied in relating NDVI to soil moisture. Optical data (RapidEye, Landsat-8, and Sentinel-2) generated land cover maps used in assessing the land cover dynamics over time. The land cover ratios were related to depth to groundwater. As the depth to groundwater reduced in June the bare land coverage was 45-57% while that of vegetation was 34-47%. In December when the depth to groundwater was highest, bare land coverage was 62-69% while that of the vegetated area was 27-25%. This indicates that depth of groundwater and vegetation coverage responds to seasonality. During the dry season, 68-81% of the total vegetation class is within the riparian zone. In the classification of the SAR images, the overall accuracies for the single polarized VV images ranged from 54-76%, 60-81% and 61-80% for Random Forest (RF), Neural Network (NN) and Support Vector Machine (SVM) respectively. GLCM features had overall accuracies of 64-86%, 65-88% and 65-86% for RF, NN, and SVM respectively. PCA derived images had similar overall accuracies of 68-92% for NN, RF, and SVM respectively. The PCA images had the highest overall accuracy for the entire time series indicating that reduction in the number of texture features to layers containing the maximum variance improves the accuracy. The standard deviation of soil moisture was noted to increase with increasing soil moisture. Soil texture plays a key role in soil moisture retention. The riparian fields had a high water content explained by the high clay and organic matter content. A roughness parameter was derived and utilized in the retrieval of soil moisture from SAR resulting to R2 of 0.88- 0.92 between observed and simulated soil moisture values from co-polarized RadarSAT-2 HH and TerraSAR-X HH and VV. Merged soil moisture product from FEWSNET Land Data Assimilation System_NOAH (FLDAS_NOAH), ECMWF Re-Analysis Interim (ERA-Interim) and Soil Moisture and Ocean Salinity (SMOS) and FLDAS_Variable Infiltration Capacity (VIC), ERA-Interim and SMOS had similar patterns attributed to FLDAS_NOAH and FLDAS_VIC forced by the same precipitation product (RFE). Cross-correlation of Moderate-resolution Imaging Spectrometer (MODIS) NDVI and the merged soil moisture products revealed a 2-month lag of NDVI. Hence, the relationship is useful in determining the Start of Season from soil moisture products. In conclusion, the successful land cover mapping of the study area demonstrated the use of satellite imagery for wetland characterization. The vast coverage and frequent acquisitions of optical and microwave remotely sensed data additionally make the approaches transferable to other locations and allow for mapping at larger scales. Soil moisture assessment from point data revealed varied soil moisture patterns whereas global remotely sensed and modeled products rather provide complementary information about growing conditions, and hence a situational assessment tool of potential of physical availability dimension of food security. This study forms a baseline upon which additional monitoring and assessment of the Kilombero wetland ecosystem can be performed with the current results marked as a reference. Moreover, the study serves as a demonstration case of remote sensing based approaches for land cover and soil moisture mapping, whose results are useful to stakeholders to aid in the implementation of adapted production techniques for yield optimization while minimizing the unsustainable use of the natural resources. ; Feuchtgebiete erbringen wichtige ökologische, biologische und sozial-ökonomische Dienstleistungen, welche entscheidend für das menschliche Dasein sind. Der steigende Bedarf an Nahrung, der Mangel an landwirtschaftlichen Nutzflächen und die Veränderung der klimatischen Bedingungen in Ostafrika haben zu einem Paradigmenwechsel vom Anbau im Hochland hin zur Nutzung von Feuchtgebieten geführt. Allerdings sind Kontrolle und Management der Aktivitäten in Feuchtgebieten notwendig, um die nachhaltige Nutzung zu sichern und negative Effekte dieser Aktivitäten zu vermeiden. Die Implementierung erfolgt durch die Landverwalter in den Feuchtgebieten. Den Nutzern von Feuchtgebieten wissenschaftliche Erkenntnisse bereitzustellen dient als Hilfsmittel zur politischen Entscheidungsfindung für die nachhaltige Feuchtgebietsnutzung. Die Forschung im Rahmen der Dissertation beinhaltet zwei Hauptkomponenten: erstens den Bedarf an aktuellen Landbedeckungskarten auf einer angemessenen Skalenebene und zweitens die Erfassung der Bodenfeuchte als wichtiger Einflussfaktor auf die landwirtschaftliche Produktion. Das Ziel der Untersuchung war, Landbedeckungskarten auf Grundlage von multisensorischen optischen Daten zu erstellen und die Eignung der Textur der einfach polarisierten Sentinel-1 Grauwertmatrix (GLCM) sowie der einer Hauptkomponentenanalyse (PCA) bei Anwendung unterschiedlicher Klassifikationsalgorithmen zu beurteilen. Des Weiteren wurden raum-zeitliche Bodenfeuchtemuster über drei hydrologische Zonen hinweg modelliert, die Bodenfeuchte aus Radardaten abgeleitet sowie die Erstellung von Bodenfeuchteprodukten auf Basis von globalen Produkten untersucht. Die Korrelation der Bodenfeuchteprodukte mit dem Normalisierten Differenzierten Vegetationsindex (NDVI) wurde ebenfalls analysiert. RapidEye, Sentinel-2 und Landsat Bilder wurden genutzt um die räumliche Ausdehnung der vier Hauptklassen (Vegetation, freiliegender Boden, Wasser und Bebauung) der Landbedeckung zu ermitteln. Für die Zeitreihenanalyse der der Landbedeckungsdynamik wurden RapidEye-Daten von August 2013 bis Juni 2015, Sentinel-2-Bilder von Dezember 2015 bis August 2016 und Landsat-8-Bilder von 2013 bis 2016 verwendet. Die größte Herausforderung war jedoch die Wolkenbedeckung, weshalb die Anwendung von Synthetic Aperture Radar (SAR) für die Feuchtgebietskartierung getestet wurde. Die gemessene Bodenfeuchte wurde mittels Variogrammen für die drei hydrologischen Zonen (Uferzone, Mitte und Randgebiete) raum-zeitlich interpoliert. Ein Rauhigkeitsparameter wurde aus einem semi-empirischen Modell hergeleitet. Die Bodenfeuchte wurde aus TerraSAR-X und RadarSAT-2- Bildern unter Verwendung des Rauhigkeitsparameters als Eingangsgröße in einer linearen Regression abgeleitet. Vor der Zusammenführung der Produkte wurde das globale Bodenfeuchteprodukt mithilfe von dreifacher Kollokation auf Fehler überprüft. Die Kreuzkorrelation zwischen NDVI und Bodenfeuchte wurde berechnet. Optische Daten (RapidEye, Landsat-8 und Sentinel-2) wurden genutzt, um die zeitliche Dynamik der Landbedeckung zu bestimmen. Die Landbedeckungsverhältnisse wurde mit der Höhe des Grundwasserspiegels korreliert. Ein hoher Grundwasserstand im Juni resultierte in 45-57% unbedecktem Boden, während der Anteil der Vegetation 34-47% betrug. Im Dezember, als der Grundwasserspiegel seinen Tiefststand hatte, erhöhte sich der Anteil des freiliegenden Bodens auf 62-69% und der Anteil der Vegetation verringerte sich auf 27-25%. Das zeigt, dass Grundwasserspiegel und Vegetation saisonalen Schwankungen unterworfen sind. Während der Trockenzeit liegen 68-81% der gesamten als Vegetation klassifizierten Fläche innerhalb der Uferzone. In der Klassifikation der SAR-Bilder liegt die Gesamtgenauigkeit der einfach polarisierten VV-Bilder im Rahmen von 54-76%, 60-81% und 61-80%, entsprechend für Random Forest (RF), Neuronale Netze (NN) und Support Vector Machine (SVM). Die GLCM ergab eine Gesamtgenauigkeit von 64-86%, 65-88% und 65-86% für RF, NN und SVM. Die über eine PCA abgeleiteten Bilder erreichten eine ähnliche Genauigkeit von 68-92% für NN, RF und SVM. Die PCA-Bilder weisen die höchste Gesamtgenauigkeit der gesamten Zeitreihe auf, was darauf hinweist, dass eine Reduktion von Textureigenschaften auf Layer der maximalen Varianz enthalten, die Genauigkeit erhöht. Die Standardabweichung der Bodenfeuchte stieg mit zunehmender Bodenfeuchte. Die Bodentextur spielt dabei eine Schlüsselrolle für das Wasserhaltevermögen des Bodens. Die Uferzone wies einen hohen Wassergehalt auf, was durch den hohen Anteil von Ton und Humus zu erklären ist. Die beobachteten und simulierten Bodenfeuchtewerte von co-polarisierten RadarSAT-2 HH, TerraSAR-X HH und VV Daten korrelieren mit einem R2 von 0.88 - 0.92. Die zusammengesetzten globalen Bodenfeuchteprodukte von FLDAS_NOAH, ERA-Interim sowie SMOS und FLDAS_VIC, ERA-Interim und SMOS zeigen ähnliche Muster wie FLDAS_NOAH und FLDAS_VIC, was über die Verwendung desselben Niederschlagsproduktes (RFE) zu erklären ist. Die Kreuzkorrelation von MODIS NDVI und den zusammengeführten Bodenfeuchteprodukten ergab eine zeitliche Verzögerung des NDVI von zwei Monaten. Dieser Zusammenhang kann daher bei der Bestimmung des Saisonbeginns aus Bodenfeuchtigkeitsprodukten nützlich sein. Zusammengefasst hat die Studie gezeigt, wie Satellitenbilder zur Charakterisierung von Wetlands genutzt werden können. Die große Abdeckung und häufige Aufnahme der optischen und Mikrowellen-Fernerkundungsdaten ermöglichen darüber hinaus die Übertragung der Ansätze auf weitere Gebiete und Kartierung auf größeren Skalen. Die Punktmessungen zeigen kleinräumige Muster der Bodenfeuchte, während globale Fernerkundungsprodukte und Modelle Informationen über die Wachstumsbedingungen liefern und somit ein Bewertungsinstrument der Ernährungssicherheit darstellen können. Weiterhin bildet die Studie eine Basis, auf der ein weitergehendes Monitoring und eine Bewertung des Feuchtgebietsökosystems durchgeführt werden kann. Sie ist ein Beispiel für fernerkundungsbasierte Ansätze zur Landbedeckungs- und Bodenfeuchtekartierung; ihre Ergebnisse sind nützlich, um Akteuren bei der Implementierung von Produktionstechniken zu unterstützen, welche die Erträge maximieren und gleichzeitig die nicht nachhaltige Nutzung der natürlichen Ressourcen minimieren.