Europäischer Rat in Cardiff
In: Bulletin / Presse- und Informationsamt der Bundesregierung, Heft 55, S. 709-724
ISSN: 0342-5754
14519 Ergebnisse
Sortierung:
In: Bulletin / Presse- und Informationsamt der Bundesregierung, Heft 55, S. 709-724
ISSN: 0342-5754
World Affairs Online
Der Hansische Wirtschaftsraum ist definiert als der Raum zwischen England und Flandern im Westen und Westrußland im Osten, zwischen den skandinavischen Ländern im Norden und dem mitteldeutschen Raum im Süden, in dem das Gros der Hansekaufleute wirtschaftliche Interessen verfolgte.
(1) Das Verbundprojekt ´Wirtschaftliche Wechsellagen im hansischen Wirtschaftsraum 1300-1800´:
"Das Forschungsprojekt ´Wirtschaftliche Wechsellagen im hansischen Wirtschaftsraum 1300-1800´ wurde von der Volkswagen-Stiftung im Rahmen ihres Förderungsschwerpunktes ´Forschungen zur frühneuzeitlichen Geschichte: Das Alte Reich im europäischen Kontext´ gefördert. Es handelt sich um ein internationales Verbundprojekt mit Zentrum an der ´Forschungsstelle für Geschichte der Hanse und des Ostseeraums´ am Amt für Kultur der Hansestadt Lübeck. 35 WissenschaftlerInnen aus zehn europäischen Ländern und aus Kanada sind an diesem Forschungsprojekt beteiligt. (…)
Als wirtschaftliche Wechsellagen bezeichnet man die langfristigen Schwankungen ökonomischer Variablen wie z.B. die Bevölkerungsgröße, den Ertrag der Landwirtschaft und das Preisniveau. Durch die Schwankungen dieser Variablen veränderte sich deren Verhältnis zueinander, wodurch es zu einer Strukturveränderung der Wirtschaft kam. Im vorindustriellen, ´malthusianischen´ Zeitalter entstanden Auf- und Abschwünge durch das sich beständig verändernde Verhältnis von Produktion (vor allem im Agrarsektor) und Bevölkerungsentwicklung. (…)
Ziele des Projekts:
Das Projekt will für den hansischen Wirtschaftsraum die intertemporalen Bezüge seiner wirtschaftlichen Struktur und ihre Veränderungen in ihren regionalen und 'internationalen' Bezügen anhand historisch-ökonomischer Zeitreihen verfolgen.
I. Die Erfassung ökonomisch historischer Zeitreihen aus dem hansischen Wirtschaftsraum aus dem Zeitraum zwischen 1300 und 1800 (…), die ausführliche Kommentierung der Originaldaten sowie die Gold- und Silberäquivalente der relevanten Rechengeldsysteme zur Umrechnung der Nominaldaten.
II. Statistische Analysen der Zeitreihen im Hinblick auf Konjunktur und Wechsellagen. Ökonomisch-historische Zeitreihen werden als sichtbare Indikatoren wirtschaftlicher Prozesse gesehen. (…) Um diese Wechsellagen und Konjunkturen zu identifizieren, werden die herangezogenen Zeitreihen einer empirisch-statistischen Deskription unterzogen, (…). Erkenntnisziel ist die Zusammensetzung vorindustrieller Zeitreihen und die Klärung der Fragen, ob periodische Zyklen festgestellt werden können und ob diese Perioden - nach Raum und Zeit und Datenart verglichen - gleich- oder gegenläufig waren. (…)
III. Interpretationen dieser Zeitreihen unter ausgewählten historischen Fragestellungen. Mit Hilfe der Verlaufsformen der Zeitreihen soll vor allem ermittelt werden, welche Zeiträume gleicher und welche Zeiträume unterschiedlicher langfristiger konjunktureller Entwicklung es (bezogen auf vergleichbare Zeitreihen) im hansischen Wirtschaftsraum gab und in welchen Regionen diese gleich- und andersartigen Verläufe vorkamen. Auf dieser Grundlage sollen 'international' einheitliche Prozesse und regionale Entwicklungs- und Konjunkturmuster, möglicherweise auch Kausalbeziehungen zwischen diesen Zeitreihen ermittelt werden. In der modernen Wirtschaftsgeschichte spricht man dabei vom Interdependenzprinzip, das die gegenseitigen Einflüsse unterschiedlicher Regionen behandelt, und vom Homogenitätsprinzip, das Regionen (oder kleinere räumliche Einheiten) ähnlicher Struktur untersucht.
IV. Vergleich der erzielten Ergebnisse mit vorliegenden Agrarpreisreihen, um den Zusammenhang zwischen der agrarischen Produktion als der zentralen wachstumsbestimmenden Größe der vorindustriellen Zeit und den Produktionskurven gewerblicher Güter und den Handels- und Investionsgüterkonjunkturen festzustellen.
Zentrale Regionen:
Bis zum März 1997 sind rund 400 Zeitreihen erfaßt worden. In räumlicher Hinsicht bildeten sich drei zentrale Regionen heraus, die a) durch eine relativ dichte Überlieferung von Zeitreihen aus den anderen Regionen des Untersuchungsraumes hervorragen und b) sich aufgrund ihrer wirtschaftlichen Struktur voneinander unterschieden:
1. der niederländisch-englische Raum, gekennzeichnet durch eine dichte Gewerbelandschaft, die auf den Export von Tuchen, anderen Geweben sowie Metallfabrikaten ausgerichtet war;
2. der Bereich der wendischen Hansestädte (Hamburg, Lübeck, Lüneburg, Wismar, Rostock, Stralsund, Greifswald; einbezogen wird hier auch Stade), der primär vom Zwischenhandel geprägt war und nur wenig eigene Exportproduktion aufwies;
3. der preußisch/polnisch-livländische Raum, gekennzeichnet durch den Export von land- und waldwirtschaftlichen Rohstoffen und Halbfertigfabrikaten, die vor allem in die Zentren des Westens, nach beiden Niederlanden und nach England gingen.
(…) Da die genaue Kenntnis der lokalen und regionalen Verhältnisse Voraussetzung zur Deskription einer Zeitreihe und zur Bestimmung ihrer Indikatorqualität ist, werden die einzelnen Zeitreihen von HistorikerInnen bearbeitet, die mit den jeweiligen lokalen und regionalen Verhältnissen bestens vertraut sind. Daher reicht die geographische Spannweite der Mitarbeiter von Gent und London im Westen bis nach Tallinn und Moskau im Osten, von Stockholm und Visby im Norden bis nach Leipzig im Süden.
Funktionen:
Nach ihrer Funktion werden die Zeitreihen in die vier folgenden Kategorien gegliedert:
- landwirtschaftliche Produktion und Bergbau (Sektor 1),
- gewerbliche Produktion (Sektor 2),
- Handel und Dienstleistung (Sektor 3)
- und in Preisreihen.
Pro Kategorie sind folgende Zeitreihen erhoben worden.
Sektor 1: 50 Zeitreihen (Salz-, Silber-, Kupfer- und Bleiproduktion, Roherzförderung, Erträge der Bergwerke, Belegschaftszahlen; zeitlicher Schwerpunkt: spätes 16. Jahrhundert bis 1800)
Sektor 2: 20 Zeitreihen (Tuch-, Bier-, Essig- und Münzproduktion)
Sektor 3: 300 Zeitreihen (landesherrliche und städtische Zolleinnahmen unterschiedlicher Differenzierung, städtische Steuern auf den Verkauf unterschiedlicher Güter, Akziseeinnahmen unterschiedlicher Differenzierung, Wareneinfuhr und -ausfuhr, Warenumsätze, Schiffsfrequenzen, Geleitsgebühren, städtische Immobilien- und Rentenmärkte, Löhne u.v.a.m.).
Preisreihen: 70 Zeitreihen (Tuche, Mieten, Lebensmittel wie Getreide, Butter, Ochsen, Heringe u.a.m., andere Verbrauchsgüter wie Feuerholz und Talg)."
Gekürzter Auszug aus: Hammel-Kiesow, Rolf (1997): Wirtschaftliche Wechsellagen im hansischen Wirtschaftsraum 1300-1800. Ein internationales Projekt an der Forschungsstelle für Geschichte der Hanse und des Ostseeraumes der Hansestadt Lübeck. Arbeitsgemeinschaft außeruniversitärer historischer Forschungseinrichtungen in der Bundesrepublik Deutschland e.V., http://www.ahf-muenchen.de/
Forschungsberichte/Berichte/HammelKiesow.shtml.
(2) Teilprojekt: Quantitative Untersuchungen über den frühneuzeitlichen Bergbau in Skandinavien, 1623-1958., Studienleiter: Björn Ivar Berg
Die Studie umfasst insgesamt 49 Zeitreihen aus dem Zeitraum zwischen 1623 und 1844, für das Bergwerk in Kongsberg bis 1958. Ihrer Funktion nach handelt es sich um Zeitreihen aus dem Sektor 1: landwirtschaftliche Produktion und Bergbau.
Auflistung und Beschreibung der einzelnen Zeitreihen nach dem Schema
Reihe_ID: Titel der Reihe (Zeitraum von – bis)
Beschreibung:
Reihe Z001:
Silberproduktion beim Kongsberg Silberbergwerk, 1623-1958
Die Angaben betreffen Feinsilber, d.h. 100 % Ag oder rein metallisches Silber. "Feinsilber" war kein faktisches Produkt, aber ein Rechnungswert, der durch Analysen aus dem Brandsilber, dem Endprodukt des Hüttenprozesses, berechnet wurde. Mit Ausnahme von einer Periode in der letzten Hälfte des 18. Jahrhunderts wurde bis kurz nach 1800 fast alles Brandsilber zur Ausmünzung geliefert, seit 1628 in die königliche Münze in Christiania (Oslo), die 1686 nach Kongsberg übersiedelte, und die noch im Betrieb ist (2007).
Etwas Silber in der Statistik kam auch vom silberhaltigen Hüttenkupfer, das auch in der Hütte in Kongsberg erzeugt wurde, und meistens zur Münze ging.
Nicht alles Silber wurde geschmolzen und in den Feinsilberangaben eingeschlossen. Einzelne besonders schöne oder interessante Mineralienstücken – oft krystalliertes gediegenes Silber in Form von Drahtsilber u. dgl. – wurden in der Hütte zur Seite genommen und als Handsteine zu Besuchern, Königen usw. verkauft oder geschenkt. Der Silberinhalt der einzelnen Stücke wurde ggf. nach gewissen Regeln geschätzt, als Grundlage für die Festlegung des Verkaufspreises. In den hier publizierten Angaben ist Feinsilber sowohl von Brandsilber, Hüttenkupfer und Handsteinen eingeschlossen, so weit Daten davon bekannt sind.
Früher habe ich fast identische Angaben für die Zeit bis 1805 präsentiert und kommentiert (Berg 1988). Deichman, der auch Produktionsziffer von Röros publizierte (vgl. Z233), gibt die Quellen für seine Angaben nicht an. Entsprechende Listen befinden sich in seinem Privatarchiv (Deichmanske Bibliotek Oslo, fol. 45). Vielleicht basierte er sich wenigstens z. T. auf ziemlich leicht zugänglichen Angaben in den Hauptrechnungen des Silberbergwerk. Diese sogenannten Bergkassenrechnungen sind für die Zeit nach 1694 noch im Werksarchiv erhalten, zusammen mit verschiedenen anderen Rechnungen, die zurück bis zum Anfang des Bergbaus 1623 reichen. Eine parallelle und ausfüllende Serie mit Bergkassenrechnungen ist im Archiv der Rentekammer erhalten (im Werksarchiv fehlen bis 1761 12 Jahre, danach bis 1800 ist nur 1799 vorhanden). Die Basis für die Angaben in den Bergkassenrechnungen sind die monatlichen Produktionsrechnungen der Silberhütte in Kongsberg, die sog. Schmelzbücher, die zurück bis zum Anfang der Verhüttung des Kongsberger Silbers erhalten sind (1624), zwar auch nicht lückenlos. Hier sind die verschiedenen metallurgischen Prozesse in Einzelnheiten von Tag zu Tag dokumentiert, mit den abschliessenden Feinbrennungen des Silbers, wie auch Analysen vom Feinsilberinhalt der Brandsilberstücke. Angaben sowohl über Brandsilber als Feinsilber für die einzelnen Monaten sind danach in den jährlichen Bergkassenrechnungen eingeschlossen und summiert. Dazu wurde auch silberhaltiges Kupfer als Nebenprodukt verhüttet, und der Feinsilberinhalt im "Hüttenkupfer" ist als Ergänzung zu den monatlichen "Silberposten" auch in den Bergkassenrechnungen angegeben. Ich habe die Bergkassenrechnungen von 1711 und 1712 und von 12 Jahren in der Periode 1736-1757 untersucht. Die Angaben von Deichman stimmen für alle diese Jahre völlig übereins mit den Angaben in den Bergkassenrechnungen. Eine Besonderheit muss jedoch genannt werden. Deichmans Angaben sind in Mark – Lot – Quentchen – Ort gegeben. Dass ist auch der Fall in den Bergkassenrechungen 1711 und 1712, aber die Angaben in den von mir bekannten Schmelzbüchern und Bergkassenrechnungen um die Mitte des 18. Jahrhunderts sind in Mark - Lot – Grän, wie auch bei Thaarup für die Zeit nach 1772. Vielleicht nutzte trotzdem Deichman andere Quellen als diese Rechnungen? Ich habe auch Akten von einer mehr unsicheren Periode untersucht, nämlich 1673 bis 1687. Von 1673 bis 1683 war das Silberbergwerk im Privatbesitz von Heinrich Müller, danach erfolgte die endliche Übernahme vom dänisch-norwegischen Staat und eine Reorganisierung des Betriebs nach einer Krise im Anfang und in der Mitte der 1680er Jahren (in der Periode 1628 bis 1661 war das Werk auch privat, aber der König war damals einen Grossgewerke). Produktionsangaben sind in den Bergzehnterechnungen der Rentekammer für die Jahren 1680 bis 1687 gegeben. Diese Zahlen sind insgesamt etwa 1225 Mark oder 3,2 % geringer als die Angaben von Deichman, die trotzdem hier ungeändert publiziert werden, als wir nicht feststellen können, ob seine Datengrundlage besser war als die Alternative. (Die jährlichen Abweichungen variierten stark, ausschlaggebend war das Jahr 1685 mit 986 Mark höher bei Deichman.) Münzrechnungen von den Jahren 1673 und 1678-1679 stimmen besser übereins mit den Angaben von Deichman, die insgesamt für diese drei Jahren nur 0,5 % höher sind. Mit Ausnahme von einer dreissigjährigen Periode in der zweiten Hälfte des 18. Jahrhunderts (1763-94) wurde fast alles Silber (und Hüttenkupfer) zu Vermünzung abgeliefert, worüber fast lückenlose Rechnungen vorhanden sind (Rentekammeret, vgl. Rönning 1986: 211ff und passim).
Über den Handsteinhandel wurden besondere Rechnungen gemacht, und die jährlichen Summen des davon berechneten Feinsilberinhalts sind für viele Jahre – aber nicht für alle – in den Bergkassenrechnungen und danach in den statistischen Publikationen gegeben. Bei Deichman (1777) und nach ihm Thaarup (1794) fehlen Angaben über Handsteine für die Periode 1673-1693 und für Einzelnjahre (1699, 1703, 1708, 1716, 1718, 1719 – vielleicht wurden in diesen Jahren keine Handsteine verkauft), und entsprechende Angaben haben wir für die Periode nach Thaarups Publikation (d.h. nach 1792) nicht bearbeitet vorhanden. Nach den zugänglichen Angaben war der gesamte Feinsilberinhalt in den Handsteinen 1624-1792 etwa 1320 kg oder 0,26 % der gesamten Produktion. (Die Bergzehntrechnungen 1680-1687 geben auch Daten über Handsteine, die bei Deichman fehlen, mit insgesamt 97,7 Mark Feinsilber, 0,25 % der Gesamtproduktion nach diesen Angaben. Deichmans Angaben sind aber hier angegeben, ohne diese Daten über Handsteine.) Nicht alles Silber von Handsteinen ist in den Produktionsangaben gekommen. Z.B. bekam der König Friedrich V. bei seinem Besuch in Kongsberg 1749 viele Handsteine mit insgesamt über 26 Mark Feinsilber, und sein Oberhoffmarschall von Moltke bekam auch einige mit über 4 Mark, ohne dass dieses Silber in den Produktionsangaben kam.
Bei der Produktionsstatistik ergibt sich eine Unregelmässigkeit in der Periode etwa von 1730 bis 1770, als ein Bergwerk bei Konnerud nahe an die Stadt Drammen, 40 km von Kongsberg, betrieben wurde. Dieses kleines Bergwerk produzierte Silber, Blei und Kupfer, und musste laut seinen Privilegien das Hauptprodukt Silber zur Bergkasse in Kongsberg zu festgesetzten Preisen abgeben, und damit kam das Silber in den königlichen Bergkassenrechnungen. Nach Untersuchungen in einigen Bergkassenrechnungen kann nun festgestellt werden, dass dieses Silber in den Gesamtangaben eingeschlossen ist, die als unsere Datengrundlage dienen. Nach zeitgenössischen Angaben war die Silberproduktion von Konnerud von 1736 bis 1770 insgesamt 29 565 Mark 11 Lot oder 6915 Kilogramm, d.h. dass die eigentliche Produktion bei Kongsberg in dieser Periode von den Konnerud-Lieferungen in unserer Statistik mit 3,5 % erhöht worden ist. Die Zahlen variierten natürlich von Jahr zu Jahr. Unter vier untersuchten Jahren war die grösste Erhöhung der Silberproduktion durch das Konnerud-Silber 9,2 % (1739), die kleinste 1,8 % (1751). Auch Silber von einigen andere privaten Gruben in der Gegend wurde in den Bergkassenrechnungen eingeschlossen. Wir kennen nicht die genauen Zahlen von Metall von diesen Gruben, sie waren aber unbedeutend und die Quantitäten mussen offenbar sehr klein gewesen sein.
Im grossen und ganzen können wir feststellen, dass die hier publizierten Angaben ziemlich zuverlässig für die allgemeine Entwicklung der Produktion in Kongsberg bis 1805 sind. Die Angaben sind zwar nicht 100 % sicher für alle Jahre, besonders sind einige Jahre im 17. Jahrhundert etwas unsicher. Aber im 18. Jahrhundert haben Stichproben von den offiziellen Produktionszahlen in den Archiven die Angaben in der statistischen Literatur völlig bestätigt. Für eine Periode zeigte es sich zwar, dass nicht nur Silber von Kongsberg darin berechnet war.
Nach der offiziellen Stillegung des Silberbergwerks 1805 wurden doch eine Grube, einige Pochwerke und die Silberhütte weiter vom Staat in kleinem Masstab betrieben. Die Hütte bearbeitete auch Erze aus einigen privaten Silbergruben. Die Produktionszahlen von allen diesen Betrieben sind gesamt aufgegeben, als getrennte Angaben noch nicht vorhanden sind.
Nach der Wiederaufnahme des Silberbergwerks 1816 (offiziell, aber tatsächlich im Juli 1815) sind bis 1877 die offenbar gut bearbeiteten Angaben von dem Direktor des Silberbergwerks C. F. Andresen (1879) benutzt. Für diese Zeit gibt es auch andere publizierte Reihen z. B. in den Berichten von verschiedenen Untersuchungskommisionen, die z.T. abweichende Angaben erzeigen. Jährliche Produktionsdaten sind auch in den Jahresberichten des Silberbergwerks ab 1837 veröffentlicht. Ab 1879 sind statistische Angaben im Standardwerk zur Geschichte des Silberbergwerks von K. Moen (1967) benutzt. Diese Angaben sind gegen ältere statistische Angaben im Archiv des Bergwerksmuseums Kongsberg und andere Angaben z.B. von Kommissionen kontrolliert. Die Angaben basieren sich alle auf die Jahresberichte, doch sind sie unabhängig von einander ekstrahiert. Bei fehlender Übereinstimmung und in anderen Zweifelfällen sind Moens Angaben gegen die Jahresberichte kontrolliert und ggf. korrigiert. Es handelt sich in beiden Fällen um rechnungsführte Produktion. Für einzelne Jahre gibt es ziemlich grosse Abweichungen gegenüber der tatsächlichen, physischen Produktion. Solche Übertragungen von Teilen der Produktion von Jahr zu Jahr gründeten sich besonders auf Rücksichten zum Etat. In der zweiten Hälfte des 19. Jahrhunderts und im frühen 20. Jahrhundert wurde wiederum Erze von privaten Silbergruben in der Kongsberger Silberhütte verhüttet. Das davon stammende Silber ist diesmal nicht in den Angaben von Silber aus den eigenen Gruben des Silberbergwerks eingeschlossen. Angaben von Silber aus verkauften Handsteinen ist ab 1816 doch nicht eingeschlossen.
Zur Bergbaugeschichte Kongsbergs: Nach einigen kurzfristigen Versuchen mit Bergbau im 15. und 16. Jahrhundert, begann der Bergbau auf Silber in Kongsberg im Oktober 1623, und die Verhüttung das nächste Jahr. Die überlieferten Produktionsangaben fangen dann an, und laufen fast lückenlos bis zum letzten Silberschmelzen am 13. Februar 1958.
Der Verlauf der Produktion in der ersten Betriebsperiode 1623-1805 zeigt deutliche Phasen, die teilweis typisch für Bergbau sind, teilweis aber eigenartig. In groben Zügen folgt der Verlauf eine allgemeine Entwicklung solcher Wirtschaftszweige, mit einer langdauernden Steigerung der Produktion bis zu einer Kulmination (1768), gefolgt von einem ernsthaften Fall. Diese allgemeine Tendenz ist doch von zwei Niedergangsphasen oder sogar Krisenphasen unterbrochen, damit man auch sagen könnte, das der typische "Wachstum-Krisen-Verlauf" sich dreimal wiederholt, aber jedesmal auf einer höheren Ebene:
1) Langsames Wachstum 1623-63 (40 Jahre), Niedergang 1663-84 (21 Jahre)
2) Starkes Wachstum 1684-1717 (33 Jahre), Niedergang 1717-1732 (15 Jahre)
3) Wachstum 1732-1768 (36 Jahre), Niedergang 1768-1805 (37 Jahre, abgebrochen von einer "Plateauphase" 1775-85)
Bei der Interpretation dieser langen Phasen ist es wie immer schwierig den Einfluss allgemeiner Faktoren von speziellen und lokalitätsbedingten Ursachskomplexen klar zu unterscheiden. Für Silber als Münzmetall darf man vielleicht mehr als bei anderen Waren annehmen, dass Preisschwankungen nicht jedenfalls für kurzfristige Änderungen ausschlaggebend waren, obwohl man auch Silberwerte gegenüber allgemeine Preisänderungen relativisiern muss, und in einer längeren Perspektive muss man die Wirkung relativer Preisänderungen auch von Edelmetall berücksichtigen. Bei einem Bergbaubetrieb wie zu Kongsberg waren abere "innere Faktoren" wie technische Änderungen und die Struktur der Grubenbetriebe zu jeden Zeiten grossen Änderungen unterworfen, die ausschlaggebend für die Produktionsentwicklung waren. Besonders wichtig war die Einführung des Pulverschiessens im späten 17. und frühen 18. Jahrhundert, wobei die primäre Arbeitsoperation der Erzgewinnung eine weit mehr expansionsfähige Basis gegeben wurde, was vor allem die grosse Ausdehnung der Tätigkeit und der Produktion nach 1732 ermöglichte. Technische und lagerstättliche Faktoren waren auch zentral beim Niedergang der Produktion nach 1768, als viele von den wichtigsten Gruben eine Tiefe von 300-400 erreichten (die Tiefste 550 m, senkrecht vom Tage gemessen), wo die Wasserhaltung und die Erzförderung mit Wasserrad sehr schwierig war und eine weitere Verfolgung der Erzgänge in die Tiefe verhinderten. Die Lage wurde noch schlimmer als viele von den Erzgängen seinen Reichtum von Silber in etwa solchen Tiefen verloren.
In der letzten Betriebsperiode 1816-1958 ist die Entwicklung mehr unregelmässig. Seit den späten 1820er Jahren wurden sehr reiche Silbervorkommen in der Königs Grube entdeckt, die für viele ergiebige Jahre sorgten. Die Produktion überstieg 1833 mit 9329 kg den früheren Maximum aus 1768 (8261 kg), obwohl die Anzahl von Arbeitern auf nur etwa ein Zehntel (ca. 400 gegen ca. 4000 um 1770) reduziert war, und wesentliche technische Änderungen nicht eingeführt waren. Nach grossartigen Innovationen und Investitionen kurz nach der Jahrhundertwende 1900 (Elektrizität, Bohrmaschinen, Benzinlokomotive u.s.w.) konnte die Produktion nochmals erweitert werden und reichte seinen Gipfel im Betriebsjahr 1915/16 mit fast 13 000 kg (d.h. rechnungsführte Produktion, die tatsächliche Produktion kulminierte 1914/15 mit 15 617 kg).
Bisher hat die offizielle Geschichtschreibung mit einer Gesamtzahl für die Produktion von ca. 1 347 800 kg gerechnet (Moen 1967: 428), gewöhnlich abgerundet zu 1 350 Tonnen. Das wird sich kaum nach diesen neuen Untersuchungen ändern. Insgesamt ist beim Kongsberger Silberbergwerk nach den hier publizierten Produktionszahlen 1 352 206 kg Feinsilber (100 % Ag) produziert. Subtrahiert man davon die oben genannten angenommenen 6 915 kg aus Konnerud, bleibt eine Eigenproduktion von 1 345 291 kg Silber. Dazu kommen nicht eingeschlossene Mengen von privaten Silbergruben im alten Revier des Silberbergwerks nach 1816, die auch in der staatlichen Silberhütte verhüttet wurden. Die Verteiling zwischen staatlichen und privaten Betrieben von der in der Periode 1806-1815 insgesamt produzierten Menge von 9 008 kg Silber, die in unseren Angaben völlig eingeschlossen ist, bleibt unklar. Auf der anderen Seite fehlen Angaben von Silber in Handsteinen für die ganze Zeit nach 1792. Rechnen wir dass auch weiter wie vorher der Anteil des Silbers in Handsteinen sich auf 0,26 % beträgt, gäbe dass eine zusätzliche Menge von etwa 2 167 kg Silber. Dazu kommen in Prinzip unkalkulierbare Mengen von Silber, dass zu jeder Zeit gestohlen wurde.
Reihe Z002:
Verbrauch von Talch (Unschlitt) beim Kongsberg Silberbergwerk, 1686-1805
Talch oder Unschlitt wurde zur Beleuchtung in offenen Lampen benutzt. Das Silberbergwerk kaufte Talch wie andere Materialiensorten zum grossen Teil von Kaufleuten in Drammen, Christiania (Oslo) und anderen Städten. Einzelne Bauern konnten auch kleinere Quanta gelegentlich verkaufen, als sie bei den Märkten in der Bergstadt eintrafen, besonders am Sommermarkt. Im 18. Jahrhundert wurden grosse Lieferungen von den Bauern im westlichen Teil Norwegens organisiert. Die Bauern brachten das Talch auf Saumrossen über die Hochgebirgsebene Hardangervidda, wo auch Vieh und andere Waren zum Markt in der Bergstadt transportiert wurden. Die Entwicklung der Lieferungen von Talch zeigt deutliche Wachstums- und Niedergangsphasen:
1) 1686-1724 (38 Jahre): Wachstum – 3,5-mal Verdoppelung der Lieferung. Erweiterung des Bergbaus, aber nicht im gleichen Masstab. Vermutlich bessere Organisierung der Lieferungen.
2) 1724-1728 (4 Jahre): Starker Fall – Likviditätsprobleme und daher vermutlich Wegfall des Zutrauens unter den Lieferanten.
3) 1728-1749 (21 Jahre): Wachstum bis etwa zum früheren Gipfel.
4) 1749-1756 (7 Jahre): Starker Fall – schwierig zu interpretieren, der Umfang des Bergbaus hält sich ziemlich stabil, und es ist eigentlich keine Krise wie in den 1720er Jahren.
5) 1756-1770 (14 Jahre): Wachstum, die früheren Maximalwerten werden aber nicht überschritten. Der Bergbau expandierte in dieser Periode bis zur Kulmination um 1770.
6) 1770-1800 (30 Jahre): Gradueller Niedergang, mit Plateauphase inzwischen. Krise und Einschränkung des Bergbaus, der Bedarf an Talch wird weniger.
Als Alternative zu Talchlampen kamen im 18. Jahrhundert Fackel, die mehr oder weniger mutwillig – wegen der Brandgefahr – von der Leitung zugelassen wurden, aber nur auf brandsicheren Stellen. Als die Anzahl von Bergarbeitern in den zwei letzten Dritteln des Jahrhunderts weit über die früheren Zahlen anstieg, musste man offenbar mehr und mehr nach Fackeln greifen, weil man nicht Talch genug für alle beschaffen konnten, wie es aus der Statistik ziemlich klar lesbar ist.
Reihe Z003:
Verbrauch von Schiesspulver (Schwarzpulver) beim Kongsberger Silberbergwerk, 1659-1805
Angaben über Verbrauch von Schiesspulver sind in verschiedenen Rechnungen geführt. Seit Mitte der 1680er Jahre haben wir leicht zugängliche Angaben in den besonders geführten Materialienrechnungen (vgl. die Anmerkungen zu Z002). Als die Einführung und die spätere Nutzung von Schiesspulver zentrale Thema in der technikgeschichtlichen Forschung über Bergbau in Kongsberg sind, hat der Verfasser das Verbrauch von Schiesspulver auch vor 1683 in den Rechnungen nachgeforscht. Meistens mussten die Angaben aus den monatlichen Schichtmeisterrechnungen Grube für Grube ausgeholt werden (vgl. Berg 1994/1998 mit vollständigen Quellenangaben).
Die Gewinnung von Erz und Gestein ist eine Hauptoperation im Bergbau, und technische Änderungen in diesem Gebiet sind bedeutende Faktoren in der Entwicklung der ganzen Montanindustrie (wie später Dynamit, Bohrmaschinen). Pulverschiessen im Bergbau ist in Europa seit 1617 (Le Thillot, Frankreich) bekannt, diese wichtige neue Gewinnungstechnik hat sich aber nicht überall schnell etabliert. Wie Christoph Bartels gezeigt hat, wurde das Pulverschiessen am Harz relativ schnell nach seiner Einführung 1632 die dominierende Gewinnungstechnik, mit grossen Wirkungen für den Aufschwung des Bergbaus. Es waren mehrere hemmende Faktoren in der allgemeinen Rezeption dieser Technik. Das Sprengen selbst war destruktiv und gefährlich sowohl für die Menschen als für die Grubenanlagen und musste kontrolliert werden. Die Herstellung von Bohrlöchern durch Böhrer von Schmiedeeisen war arbeitsintensiv und schwierig, besonders im festen Gestein wie gewöhnlich z.B. zu Kongsberg. Die Grubenräume waren teilweis sehr eng, besonders bei Bergbau auf schmalen Erzgängen wie zu Kongsberg, eine besonders nachteilige Bedingung für die frühe Sprengtechnik hier. Die Alternative Gewinnungstechnik, das Feuersetzen, wurde im grossen Masstab hier benutzt und wurde lange offenbar vorgezogen. Handarbeit mit Schlegel und Bergeisen kam auch vor, wurde aber im ersten Drittel des 18. Jahrhunderts aufgegeben. In Norwegen planierte man Versuche mit Pulverschiessen schon im 1643, nach eingehenden Forschungen der Quellenmaterial lässt sich doch keine Realisierung dieser Pläne nachweisen. Die erste belegte Schiessarbeit in Norwegen ist 1655 bei einer kleinen Kupfergrube in Westnorwegen (Kvinnherad) nachgewiesen. Schiesspulver wurde in Kongsberg nachweislich erstmals 1659 benutzt, bei einer Sprengarbeit übertage, danach nur versuchsweise auch untertage in den folgenden zwei Jahrzehnten. 1681 versuchte die Leitung die neue Sprengtechnik auf eine festere Basis zu organisieren, es war aber nicht sehr erfolgreich. Die spätere Entwicklung zeigt auch wiederholte Versuche auf Expansion dieser Technik, gefolgt von Rückschlägen. Seit etwa 1713 war es immer schwieriger dem expandierenden Bergbau mit grösseren Mengen von Holz zum Feuersetzen zu versorgen, und immer mehrere Arbeiten mussten mit Pulverschiessen belegt werden. Die Sprengmethode war auch mehr sicher geworden, nachdem Lettenbesatz statt Schiesspflöcke von Holz 1711 eingeführt wurde. Der Bergbau expandierte bis 1724, danach folgte eine Krise. 1732-33 kam eine neue Betriebsleitung aus Deutschland, und Erweiterung des Pulverschiessens auf Kosten des Feuersetzens war ein Programm dieser neuen Beamten. Schlegel- und Eisenarbeit wurde zu dieser Zeit fast völlig aufgegeben. Eine Pulvermühle wurde 1734 gegründet, damit das Bergwerk sich selbst mit Schiesspulver versorgen konnte. Das Schmiedewesen wurde umorganisiert und das Feuersetzen praktisch verdrängt von vertikalen Arbeiten wie Gesenke und Strossen, und zu horizontalen Arbeiten wie Feldörten, Querschlägen und Stollen allein hingewiesen. Zu solchen Arbeiten wurde Feuersetzen z.T. bis 1890 benutzt, es verlor nur endlich im Wettbewerb mit der Sprengarbeit, nachdem Dynamit in den Jahren nach 1872 Schiesspulver ersätzte. Das Verbrauch von Schiesspulver kulminierte gleichzeitig mit der Anzahl von Arbeitern beim Silberbergwerk (4000 in 1770). Ein sehr starker Fall traf in den wenigen Jahren von 1778 bis 1783 ein – eine Halbierung in nur fünf Jahren. Das war ein Ergebnis einer Sparkampagne unter der Leitung eines dafür besonders eingesätzten Bedienten, des "Oberschiessers". Dazu wurden 1776 Beladung mit Räumnadel anstatt ausgebohrter Schiessröhre eingeführt. Die Einsparungen wurden doch schliesslich von der Leitung als übertrieben beurteilt. Viele Sprenglöcher waren so schwach mit Schiesspulver beladen, dass sie beim Abschiessen versagten und kein oder wenig Gestein lossprengten. Die schwere Arbeit mit dem Bohren war dann vergeblich gemacht. Nach Aufgebung der extremen Sparkampagne zeigt die Kurve über das Schiesspulververbrauch einen mehr stabilen Verlauf. (Berg 1994/1998)
Reihe Z004:
Verbrauch von Eisen (Schmiedeeisen) beim Kongsberger Silberbergwerk, 1686-1805
Zur Quellenlage, vgl. die Anmerkungen über die Materialienrechnungen zu Z002.
Eisen war einer der wichtigsten Materialien im Bergbau, und die Bergwerke waren grosse Abnehmer der Eisenproduktion in der frühen Neuzeit. Eisen wurde bei Werkzeugen zur Gewinnung von Erz und Gestein im grossen Masstab eingesetzt, und der tägliche Verschleiss bei der Bearbeitung des festen Gesteins war gross. Bergeisen und Bergböhrer mussten jeden Tag wieder zur Schmiede. Obwohl Holz und Stein die wichtigste Baumaterialien waren, wurde auch viel Eisen zu Bauzwecken in den Gruben und am Tage benutzt, zu Nagel, Beschläge usw. Besonders bei den grossen Maschinenanlagen wurden viel Eisen benutzt (Wasserradtechnik, Wasserkunst/Pumpenwerke, Kehrräder zur Schachtförderung von Erz und Gestein, usw.) Der Verlauf des Eisenverbrauchs folgt eine allgemeine Entwicklung: Zunächst relativ langsames Wachstum bis etwa 1712, danach ziemlich schnelles Wachstum bis 1724. Diese Entwicklung fällt mit der Erweiterung des Pulverschiessens zusammen und es ist zu vermuten, dass ein Verbrauch von weit mehr Bohreisen als vorher in dieser Entwicklung ausschlaggebend war. Dasselbe trifft zu nach 1732, es wurde aber in den folgenden zwei Jahrzehnten auch sehr viele neue Maschinen gebaut, die auch viel Eisen benötigten. Mit Ausnahme von ausserordentlichen Auslieferungen von Eisen 1737, wurde den Gipfel des Eisenverbrauchs schon 1750 erriecht – d.h. schon 20 Jahre vor der Kulmination des Betriebs. In der zweiten Hälfte des 18. Jahrhunderts ist diese Kurve weit mehr stabil als andere Materialienkurven. Die fehlende Kulmination diese Kurve in den Jahren um 1770 kann vielleicht durch fehlende Investitionen in Maschinanlagen usw. erklärt werden.
Reihe Z005:
Verbrauch von Stahl beim Kongsberger Silberbergwerk, 1683-1805
Zur Quellenlage, vgl. die Anmerkungen über die Materialienrechnungen zu Z002.
Stahl war zu diesen Zeiten ziemlich kompliziert herzustellen und daher sehr teuer im Vergleich mit Schmiedeeisen. Stahl wurde darum nur zu besonderen kleinen Teilen von Werkzeugen, Beschlägen usw. benutzt, die für Verschleiss sehr ausgesetzt waren. Z.B. wurden Kronen oder Bohrköpfe von Stahl zu Bohrstangen von Schmiedeeisen geschweisst, Stahl wurde in Lager für rotierende Wellen eingelegt, zu Spitzen in Bergeisen usw. Das Verhältnis zwischen Eisen und Stahl ist durch die ganze Periode im Durchsnitt 25:1. Der Verlauf der Kurve für Stahl folgt in grossen Zügen die Kurve für Eisen, auch für Stahl kulminierten die Auslieferungen weit vor der Betriebskulmination 1770 (Gipfel 1759). Eine Abweichung gegenüber der Kurve für Eisen ist der Niedergang nach 1781, der allerdings die übrige Krisenzeichen und der Kontraktion des Betriebs dieser Zeit im allgemeinen folgt.
Reihe Z006:
Verbrauch von Salpeter beim Kongsberger Silberbergwerk, 1735-1805
Zur Quellenlage, vgl. die Anmerkungen über die Materialienrechnungen zu Z002.
Salpeter war das Hauptmaterial zur Produktion von Schiesspulver, das seit 1734 mit der Gründung der Pulvermühle beim Silberbergwerk in Kongsberg erzeugt wurde. Die Kurve folgt logisch die Kurve des Schiesspulvers (vgl. Z003). Salpeter musste überwiegend aus dem Ausland durch Kaufleute gekauft werden.
Reihe Z007:
Verbrauch von Schwefel beim Kongsberger Silberbergwerk, 1723-1805
Zur Quellenlage, vgl. die Anmerkungen über die Materialienrechnungen zu Z002.
Schwefel wurde beim Anzünden von Sprenglöchern benutzt. Es ist vielleicht zufällig dass die ersten – kleinen – Angaben gerade in 1723 auftauchen. Wichtig wurde Schefel vor allem als Rohmaterial zur Produktion von Schiesspulver, das seit 1734 mit der Gründung der Pulvermühle beim Silberbergwerk in Kongsberg erzeugt wurde. Die Kurve folgt logisch die Kurve des Schiesspulvers und des Salpeters (vgl. Z003, Z006).
Reihe Z008:
Verbrauch von Schwefeldraht beim Kongsberger Silberbergwerk, 1749-1805
Zur Quellenlage, vgl. die Anmerkungen über die Materialienrechnungen zu Z002.
Schwefeldraht wurde beim Anzünden von Sprenglöchern benutzt. Die Entwicklung ist einen Indikator für die Anzahl von Sprenglöchern – mehr als z.B. für die Menge von Schiesspulver, als die durchschnittliche Beladung von Löchern sich freilich ändern konnte. Die Kurve ist seit etwa 1762 nicht sehr abweichend von der Kurve über Schiesspulververbrauch, und danach von den über Salpeter und Schwefel (vgl. Z003, Z006, Z007). Aber der Anfang der Kurve zeigt etwas besonderes, mit der Kulmination der ganzen Kurve schon 1750, mit einem folgenden starken Rückgang bis 1762. Diese Entwicklung ist nicht beim Schiesspulververbrauch zu spüren. Diese Tatsache zeugt wahrscheinlich von einer Umgestaltung des Bergbaus, mit Aufgebung des Tiefbaus und Erweiterung des Bergbaus in tagenahen Bauen, die sehr weit waren und daher förderten weniger Löcher per Kubikmeter, aber offenbar mehr Schiesspulver per Loch.
Reihe Z009:
Verbrauch von Schiesspapier beim Kongsberger Silberbergwerk, 1686-1805
Zur Quellenlage, vgl. die Anmerkungen über die Materialienrechnungen zu Z002.
Schiesspapier wurde beim Anzünden von Sprenglöchern benutzt. Das Papier wurde mit nassem Schiesspulver eingeschmiert und getrocknet. Es wurde oben ins Loch gesteckt, mit einem Faden von Schwefeldraht dazu befestigt. Die Entwicklung ist wie die Kurve für Schwefeldraht (vgl. Z009) ein Indikator für die Anzahl von Sprenglöchern. Der Verlauf ist vergleichbar mit der Kurve für Schwefeldraht, mit der Kulmination der ganzen Kurve in 1750, und mit einem darauf folgenden starken Rückgang. Dieser Rückgang bestätigt die Annahme bei Z008, die auf Basis der Umgestaltung des Bergbaus gegeben wurde.
Reihe Z010:
Verbrauch von Hanfseil (Förderseil) beim Kongsberger Silberbergwerk, 1730-1805
Zur Quellenlage, vgl. die Anmerkungen über die Materialienrechnungen zu Z002.
Hanfseil wurde als Förderseil in den Schächten benutzt, zunächst nur bei Haspeln, später auch bei den Kehrrädern – den dobbelt beschaufelten Wasserrädern. Gerade diese technische Entwicklung prägt vor allem dem Verlauf der Kurve. Bis zur Mitte der 1760er Jahren ist der Verbrauch von Hanfseil ziemlich stabil und sehr gering im Vergleich mit der folgenden Entwicklung, mit etwa einer vierfacher Verdoppelung in nur vier Jahren 1765-69 und mit einer späteren Verdoppelung nur von einem Jahr bis zum anderen 1776-77. Die vier benutzten Fördereinrichtungen in Kongsberg waren Haspel (seit dem Anfang 1623), Pferdegöpel (seit 1670), Kehrrad (seit 1727) und Trittrad (seit 1753). Die zwei kräftigeren Maschinen nutzten ursprünglich Eisenketten als Förderseil. Der Pferdegöpel wurde nur bis zu einer Tiefe von etwa 200 m benutzt. Als der Bergbau Schachttiefen von etwa 300 Meter erreichte, wurden die Eisenketten zu schwer und zerbrachen. Hanfseile wurden in Slovakien benutzt, Lederseile in Schweden. Sowohl Hanf als Leder waren am Harz um 1750 versucht, aber mit schlechten Ergebnissen. Drahtseile wurden erst im 19. Jahrhundert eingeführt. Versuche mit Hanfseilen bei Kehrrädern in Kongsberg kennen wir von den Jahren um 1770. Offenbar begannen sie etwa 1766-67. Der Durchbruch kam aber erst zehn Jahre später, nachdem der neue Oberberghauptmann seit 1775, Jörgen Hiort, eine erneute Konzentration um des Tiefbaus als einen wichtigen Punkt in seinem Krisenbewältungungsprogramm festlegte. Gleichzeitig konnte man Lieferungen von einer neuen Reperbahn in Christiania (Oslo) sichern. Tritträder wurden abgeschafft. Die Kurve folgt nicht dem allgemeinen Rückgang des Betriebs gegen Ende des 18. Jahrhunderts. Der Bergbau wurde grösserteils in die Tiefe fortgesetzt, und der Bedarf an Hanfseil in den Hauptgruben wurde damit eher grösser mit der Zeit. Der Maximalverbrauch wurde dann so spät als 1795 mit fast 20 Tonnen erreicht.
Reihe Z011:
Verbrauch von Leder beim Kongsberger Silberbergwerk, 1770-1805
Zur Quellenlage, vgl. die Anmerkungen über die Materialienrechnungen zu Z002.
Leder wurde vor allem als Ventilmaterial in den Saug- und Hebepumpen in den Grubenschächten benutzt. Leder wurde in verschiedenen Qualitäten und Formen eingekauft, gewöhnlich von Kaufleuten und zu dieser Periode nach Auktion. Die drei ausgelieferten Qualitäten beim Anfang der Periode waren Puntleder, Pumpenscheiben und "Tuggen", die zwei letzten Typen waren mehr oder wenig fertig bearbeitete Pumpenventilen und wurden in Anzahl und nicht nach Gewicht gerechnet. Dazu kommt seit 1774 sogenanntes "geschmiertes" Leder, das in Haute gerechnet wurde. In den hier publizierten Angaben ist seit 1770 nur Puntleder gegeben, das in Schalpfund gerechnet wurde, samt seit 1774 auch sogenanntes "norwegisches" Leder, und seit 1786 auch "aluniertes" Leder. Die Gesamtzahlen für die Periode verteilt sich in folgender Weise:
Puntleder: 29.725 Schalpfund
Norwegisches Leder: 41.412 Schalpfund
Aluniertes Leder: 28.629 Schalpfund
Geschmiertes Leder : 1.138 Haute
Tuggen: 70.383
Pumpenscheiben: 18.145
Die Kurve folgt wie die Kurve für Hanfseil nicht dem starken allgemeinen Rückgang des Betriebs gegen Ende des 18. Jahrhunderts. Zwar wurden einige Gruben stillgelegt, andere aber wurden immer tiefer. Einschränkungen von der Belegschaft erfolgten vor allem in der Erzaufbereitung durch Innovation – Einführung der "ungarischen Pochmethode". Der Bergbau wurde grösserteils in die Tiefe fortgesetzt. Das Maximum der Kurve wurde 1793 erreicht, d.h. etwa gleichzeitig mit dem Maximum des Hanfseilverbrauchs (1795).
Reihe Z012:
Einkäufe von Blei beim Kongsberger Silberbergwerk, 1684-1813
Zur Quellenlage, vgl. die Anmerkungen über die Materialienrechnungen zu Z002.
Blei wurde in der Verhüttungsprozess benutzt. Die Kurve zeigt sehr grosse jährliche Schwankungen, als Blei teilweis in grösseren Parteien eingekauft wurde, und die Einkäufe nach Gelegenheit gemacht werden mussten. Einige Jahren wurde überhaupt kein Blei eingekauft. Das Blei wurde meistens nach Auktion von Kaufleuten in Norwegen eingekauft, die es vermutlich zum grossen Teil von England beschafften, obwohl wir keine sichere Auskünfte darüber haben. Viele grosse norwegische Kaufhäuser hatten engen Beziehungen zu England wegen des Holzhandels. Von 1748 bis 1791 das Blei als "englisches Blei" bezeichnet (danach aber neue Hand in den Rechnungen!). Nur wenig Blei wurde in Norwegen produziert, in der Periode etwa 1730 bis 1770 bei Konnerud (Drammen), dieses Bergwerk lieferte aber nachweisbar nur kleinere Parteien in den Jahren 1739, 1740 und 1742. Die Kurve folgt aus natürlichen Gründen in grossen Zügen der Produktionskurve von Silber (vgl. Z001). Das Maximum wurde aber schon 1735 mit etwa 330 Schalpfund ( 165.000 kg) erreicht. In den Jahren 1728 bis 1737 war Fabricius in Kopenhagen der dominierende Lieferant. Diese Zeit um 1730 zeigt deutliche Abweichungen im Verhältnis zwischen Blei und Silber, die unter den Kommentaren zum Verbrauch (Z229) weiter diskutiert wird.
Reihe Z029:
Verbrauch von Blei beim Kongsberger Silberbergwerk, 1686-1815
Zur Quellenlage, vgl. die Anmerkungen über die Materialienrechnungen zu Z002.
Blei wurde im Verhüttungsprozess benutzt. Daher folgt die Kurve in grossen Zügen die Produktionskurve von Silber (vgl. Z001). Im Durchschnitt wurde in der Periode 1687 bis 1800, als die Daten vollständig vorliegen, eine relative Menge von 14,5 Kilogramm Blei per Kilogramm erzeugtes Feinsilber im Hüttenprozess verbraucht – obwohl vieles Blei in der Form von Bleiglätte und Herdblei im Prozess wiederverbraucht wurde. Das Verhältnis zwischen Blei und Silber war aber nicht konstant. Einige Jahren und Perioden zeigen grosse Abweichungen. Besonders hoch (über 20 kg per kg Silber) war der relative Bleiverbrauch in Einzelnjahren wie 1688, 1713, 1715, 1796 und 1797, und vor allem in der Periode 1724 bis 1737. Das Jahr 1734 erreichte der Bleiverbrauch fast genau dieselbe Höhe als bei der Kulmination der Silberproduktion 1768 (223.794 bzw. 224.175 Schalpfund), obwohl im erstgenannten Jahr nur 55% der Silberproduktion in 1768 erzeugt wurde. Diese Abweichungen sind schwer zu erklären, vielleicht liegt es an metallurgische Besonderheiten in diesen Jahren, die wir nicht kennen. Es mag sein, dass die Erzgrundlage in der Periode um 1730 etwas besonders war, aber es ist nicht wahrscheinlich. In jedem Fall ist es als eine Hypothese anzunehmen, dass die folgenden grossen Einsparungen im relativen Bleiverbrauch auf metallurgische Rationalisierungs¬massnahmen zurückzuführen seien. Diese Zeit stellt sich dann nach diesen quantitativen Analysen als eine interessante Untersuchungsperiode für künftige Forschung mit dem Hüttenwesen als Thema vor.
Reihe Z232:
Falun, Rohkupferproduktion in Schiffspfund Berggewicht, 1546/1568-1810
Rohkupfer ist das Produkt der vielen meist privaten Kupferhütten bei Falun, die mit Erz vom "Grossen Kupferberg" versorgt wurden. Man schätzt den Metallinhalt des Rohkupfers zu etwa 90% Cu. Seit dem frühen 17. Jahrhundert wurde das meiste Rohkupfer in Garhütten ausserhalb Falun raffiniert, und grosse Anteile der Produktion wurde exportiert. Vieles Kupfer wurde auch einheimisch abgesetzt, besonders zur Münzung. Seit 1546 sollte alles erzeugtes Rohkupfer beim Waage in Falun unter Aufsicht eines Beamten eingewogen werden, als Grundlage für neue Produktionsabgaben. Das Rohkupfer wurde in Schiffspfund Berggewicht gewogen, dieses Mass war etwas grösser als das Stockholmer Handelsgewicht, um Gewichtreduktionen bei Raffinierung und Transport zu berücksichtigen. Genaue Umrechnungswerte für die ganze Periode kann man nicht geben. Der Bergbau in Falun geht weit zurück, er ist urkundlich belegt seit dem Anfang unserer Untersuchungs¬periode (1288), zu welcher Zeit Bergbau und Verhüttung ordentlich organisiert wurden. Vermutlich wurde Kupfer schon Jahrhunderte früher gewonnen. Produktionsangaben sind vom Mittelalter unbekannt. Nur einige Angaben von lübischen Pfundzollisten 1368-69 und 1492-96 geben Andeutungen über die Grösse des Kupferausfuhrs, zum ersten Zeitpunkt etwa 500 bis 800 Schiffspfund, in den 1490er Jahren etwa 2000 Schiffspfund, die Jahren sind doch vermutlich nicht repräsentativ. Lübeck war Zentrum für den Kupferexport bis zu etwa den 1620er Jahren, als der Kupferhandel nach Westen verlegt wurde (Hamburg, Amsterdam). Nur seit 1546 gibt es ziemlich zuverlässige Produktionsangaben. Die Produktion war damals unbedeutend. Ein Produktionsanstieg kam im letzten Teil des 16. Jahrhunderts, und wieder im Anfang des 17. Jahrhunderts. Dann ging vermutlich das meiste Exportkupfer nach Spanien, der 1599-1626 zu praktisch reiner Kupferausmünzung übergangen war. Grosse Finanzierungskosten des schwedischen Staats als Kriegsbüsse zu Dänemark nach 1613 wurden teilweis mit Kupferexport gedeckt. Die anstiegende Produktion von Falun, mit seiner Kulmination um die Mitte und im zweiten Hälfte des 17. Jahrhunderts, füllte eine Lücke die von reduzierter Produktion des Mansfelder und des ungarischen Kupfers seit dem letzten Hälfte des 16. Jahrhunderts gebildet war. Später kam Kupfer von Japan und von anderen Quellen, aber im 17. Jahrhundert hatte das schwedische Kupfer weitgehend einen grossen Einfluss auf den europäischen Kupfermarkt, obwohl es diskutiert ist, welche Rolle es eigentlich spielte. Schweden war ohne Zweifel der grösste Kupferproduzent in Europa, und Falun war ganz dominierend in Schweden, niemals mit unter 90 % der Gesamtproduktion. In der schwedischen Wirtschaft war zwar immer die Eisenerzeugung wichtiger, im 16. Jahrhundert auch der Silberbergbau. Besonders im 17. Jahrhundert war doch die Kupferproduktion von internationaler Bedeutung und wichtig für die Finanzierung der schwedischen Staatsmacht, gerade bei der Etablierung Schwedens als Grossmacht während und im Gefolge des Dreissigjährigen Krieges. Der Kausalzusammenhang zwischen Politik und Wirtschaft ist nicht eindeutig. Gewiss ist, dass der Staat die Expansion der Kupfererzeugung in der ersten Hälfte des Jahrhunderts durch verschiedene Massnahmen förderte. Bergbau und Hüttenwesen wurden 1637 unter der Aufsicht und Leitung des staatlichen "Bergskollegium" (etwa eines Oberbergamts) gestellt. Technische Änderungen trugen auch zur Expansion bei, besonders in der Metallurgie. Das Rohkupfer wurde jetzt weiter raffiniert zu Garkupfer durch Etablierung von besonderen Garhütten, eine neue Messingindustrie wurde auch gegründet. Wichtig für die Produktion war immer die innere Entwicklung des Bergbaus. Das Kupfervorkommen in Falun ist stark raumlich konzentriert. Die Erzgewinnung ging vor in ziemlich naheliegenden Abbauräumen, die einander mit der Zeit teilweis verbunden wurden, teilweis durch grössere oder mindere Brüche, die schliesslich eine grosse Pinge bildeten. Die Geschichte des Bergbaus im 17. Jahrhundert ist stark von solchen Pingenbrüchen bestimmt, und das endliche Zusammenbruch von drei naheliegenden Pingen zu einem grossen in 1687 markierte auch das Ende der grossen Produktionsepoche. Die reichsten Erzparteien waren aber auch dann zu Ende. Nach einem starken Niedergang der Produktion etwa von 1690 bis 1720, hält sich die Produktion ziemlich stabil weiter durch das 18. Jahrhundert. Obwohl die Preise wie immer bei Kupfer zu Zeiten stark variierten, haben diese Änderungen wahrscheinlich wenig zu den Produktionsschwankungen beigeträgt. Der Bergbau war im ganzen 18. Jahrhundert schwierig, und stand unter grosser Aufmerksamkeit von den leitenden Bergbehörden und von hervorragenden Technikern wie Christopher Polhem, der das Maschinenwesen bei der Grube stark innovierte. Der Tiefpunkt der Produktion kam am Ende der 1760er Jahren, vor allem nicht wegen Erzmangels aber wegen äusserer wirtschaftichen Umständen, vor allem der allgemeine Preisentwicklung. In den letzten Jahren des Jahrhunderts erreichten die Bergleute das Ende des grossen Kupferkiesvorkommens. Als es schon einige Jahre lang sich eingeengt hatte, fiel die Produktion stark seit 1793. Die Zeit um 1800 markiert daher auch für Falun eine natürliche Zäsur in der Geschichte des Bergbaus.
Reihe Z233:
Röros, Kupferproduktion in Schiff-, Lis- und Schalpfund, 1646-1844
Das Kupferbergwerk in Röros wurde 1644 gegründet und war seit 1646 in regelmässiger Produktion. Seit diesem Jahr liegen Produktionsangaben vor, doch für die ersten sechs Jahren nur als Gesamtzahlen für zwei dreijährige Perioden. Seit 1652 laufen dann die Angaben jährlich, obwohl die Angaben für die ersten 6-7 Jahrzehnte etwas unsicher sind. Mit Kupfer ist hier fast vollständig das gewöhnliche Endprodukt Garkupfer gemeint, d. h. nicht 100% rein metallisch Kupfer, aber viel reiner als z. B. das Rohkupfer von Falun (vgl. Z232). Nur geringe Mengen von Kupferblech wurden auch zu Zeiten erzeugt. Der Verlauf der Kurve ist von kurzfristigen und längerfristigen Schwankungen geprägt. Mit Ausnahme von einem Jahr 1671 kam die Produktion erst nach 1686 über 1000 Schiffspfund. Eine Krise kam um 1680 wegen Kriegshandlungen, als die Schweden 1678 og wieder 1679 Röros besetzten und das Werk zerstörten. Wie bei Kongsberg, wurde das Kupferbergwerk in der Mitte bzw. am Ende der 1680er Jahren neu organisiert, eine Grundlage für die spätere Expansion. Seit dann waren meisten der Besitzer und die führenden Kräften Bürger in Trondheim. Ein Bergamt für die mittelnorwegischen Bergwerken wurde 1689 in Trondheim gegründet. Seit dem Ende des 17. Jahrhunderts war Röros das grösste Kupferbergwerk in Norwegen. Seit dann und im fast ganzen 18. Jahrhundert war Röros ein sehr gutes Geschäft für die Besitzer und durch den Produktionsabgaben auch für den dänisch-norwegischen Staat. Von 1711 bis 1720 war wieder Krieg in Skandinavien, und Kriegshandlungen 1718 zerstörten nochmals den Betrieb für viele Jahre, wie es in den Produktionsangaben lesbar ist. Nachdem die alten Vorkommen zum Teil ausgeschöpft wurden, fand man 1708 "Neue Storwartz", die Hauptgrube der nächsten zwei Jahrhunderte. Zwei andere wichtige Vorkommen wurden 1723 (Christianus Sextus) und 1735 (Königs Grube) entdeckt, diese Gruben waren auch wichtig für die weitere Expansion. Nachdem Pulverschiessen bei der Erzgewinnung schon seit 1657 benutzt war, wurde die neue Technik auch hier – wie zu Kongsberg (vgl. Z003) – nach etwa 1730 die dominierende Gewinnungstechnik, und die einheimische Produktion von Schiesspulver wurde gestärkt. Erzgewinnung durch Feuersetzen wurde mehr selten, und diese Technik wurde weniger benutzt als in Kongsberg. Holz war im Gebirgsgebiet um Röros schwierieger zu beschaffen und die zugänglichen Wälder im Revier mussten wegen des grossen Bedarfs an Holzkohle zu den Kupferhütten so viel wie möglich zum Köhlerei reserviert werden. Nach 1746 kam eine Periode mit Rückgang der Produktion, wahrscheinlich meistens von vorübergehenden Schwankungen des Erzlagers verursacht. Überschwammungen 1755 und 1760 trugen auch dazu bei. In der zweiten Hälfte des 18. Jahrhunderts waren viele Schürfer im Revier tätig, und neue Vorkommen wurden entdeckt. Investitionen in Maschinen wurden auch gemacht, wie auch Massnahmen zur Verbesserung der Metallurgie. Die Produktion kulminierte 1774, sie fiel später bis zur früheren Lage im Anfang der 1790er Jahren, und stieg dann wieder ziemlich hoch. Zu diesen Kriegszeiten war es ein Hochkonjunktur, der gunstig auf diesen Zweig der Wirtschaft wirkte, bis Dänemark-Norwegen 1807 selbst in den Krieg hereingezogen wurde und die englische Blokade grosse Schwierigkeiten für den Handel schaffte. Es fällt auf, das die Produktionskurve in grossen Zügen ziemlich gut vergleichbar mit der Kurve von Silberproduktion in Kongsberg ist, mit einigen Ausnahmen (vgl. Z001). Bei diesen zwei grössten Bergwerke Norwegens stieg die Produktion schwach durch das 17. Jahrhundert, abgebrochen von Krisenerscheinungen um etwa 1680, gefolgt von einer stärkeren Expansion bis zu einer Blütezeit im frühen 18. Jahrhundert, abgebrochen von einer Krise in den Jahren etwa um 1720-1730, gefolgt von einer noch stärkeren Expansion bis zur Kulmination der Produktion bei beiden Bergwerken um 1770. Der folgende Rückgang wurde nur bei Röros von einem neuen Anstieg gegen die Jahrhundertwende abgebrochen, Kongsberg aber stürzte noch weiter ab.
GESIS
Eine Hauptquelle des vom Menschen verursachten klimaschädlichen Distick-stoffoxids (N 2 O), das auch Lachgas genannt wird, sind landwirtschaftliche Böden. Im Hinblick auf die ansteigende Weltbevölkerung ist mit einer Erhöhung der landwirtschaftlichen Produktion zu rechnen - mit weitreichenden Auswirkungen auf den Stickstoffkreislauf. Allerdings sind noch immer nicht alle Stickstoffflüsse und Umbauprozesse in Böden bis ins Detail verstanden, im Speziellen die Denitrifikation als einer der Schlüsselprozesse. Bei der Denitrifikation wird Nitrat (NO 3 - ) über Nitrit (NO2-) und Stickstoffmonoxid (NO) zu N 2 O und schließlich zu Di-Stickstoff (N 2 ) umgesetzt, wobei N 2 O parallel entstehen und verbraucht werden kann. Die Politik befasst sich angesichts des Klimawandels und dessen Folgen mit Maßnahmen zur Reduzierung der Treibhausgase gerade im Agrarbereich. Um die Emissionen von Klimagasen vorhersagen zu können, werden prozessbasierte Modelle verwendet, die mit Hilfe von Feldstudien eingeschätzt und verbessert werden sollen. Weiterhin können beispielsweise Isotopomermessungen dazu beitragen, die N 2 O- Prozesse im Boden besser zu verstehen. Diese Arbeit beinhaltet verschiedene Untersuchungsergebnisse zum Thema "N 2 O- Emissionen landwirtschaftlicher Böden" und liefert hilfreiche Informationen, die dazu beitragen, die Wissenslücke bezüglich der N 2 O- Prozesse und deren Einflussfaktoren zu füllen. In einer ersten Teilstudie wird der Langzeiteffekt unterschiedlicher Bodenbearbeitung (pflugbasiert vs. pfluglos) einerseits auf die Vorräte und die Verteilung organischen Kohlenstoffs und des Gesamtstickstoffs und andererseits auf die Jahresemission von N 2 O und die jährliche Methanaufnahme beschrieben und diskutiert. Dabei sollte insbesondere untersucht werden, wie sich die Bearbeitung auch auf die Variation der Gasflüsse und auf die Faktoren, die die zeitliche und räumliche Variabilität bedingen, auswirkt. Zusätzlich wurden mit dem "Denitrification- Decomposition"-Modell (DNDC) die bei den Feldversuchen erfassten N 2 O-Emissionen und Ernteerträge der zwei Bearbeitungsvarianten modelliert. Damit sollte die Eignung des Modells im Hinblick auf die Beschreibung und Vorhersagbarkeit der Emissionen und Erträge der unterschiedlich bewirtschafteten Böden getestet werden. Des Weiteren werden zwei Laborexperimente zur Identifizierung von Produktions- und Reduktionsprozessen des N 2 O während der Denitrifikation in Ackerböden mit Hilfe stabiler Isotope präsentiert. Der erste Versuch zielte durch die zeitgleiche Erfassung der N 2 O- Produktion und -Reduktion darauf ab herauszufinden, ob die Isotopensignaturen des emittierten N 2 O unter der nicht-homogenen NO 3 - - und Denitrifikationsverteilung im Boden geeignet sind, die involvierten Prozesse besser zu beschreiben. Der zweite Versuch sollte neben dem Einfluss der initialen Bodenfeuchte auf die N 2 - und N 2 O- Flüsse auch dazu dienen festzustellen, inwieweit die Isotopensignaturen des emittierten N 2 O und des NO 3 - im Boden die N 2 -Flüsse und das Verhältnis von N 2 O/N 2 widerspiegeln und ob die Isotopensignaturen des N 2 O als Werkzeug zur Untersuchung der Denitrifikation im Boden geeignet sind. Für die Untersuchung des Einflusses der Bodenbearbeitung wurden die Versuchsstandorte Garte Süd und Hohes Feld bei Göttingen ausgewählt. Die lössbasierten Parabraunerden unterliegen seit über 40 Jahren der konventionellen (pflugbasierten) und der reduzierten (pfluglosen) Bodenbearbeitung, mit den jeweiligen Bearbeitungstiefen von 25 bis 28 und 5 bis 8 Zentimetern. Über einen Zeitraum von zwei Jahren wurden die N 2 O- und Methan- Flussraten mittels Haubenmethode sowie einige Bodenparameter (Wassergehalt und mineralischer Stickstoffgehalt) wöchentlich gemessen und Wetterdaten (Temperatur und Niederschlag) täglich erfasst. Zusätzlich wurde zu Beginn der Untersuchung eine Bodeninventur durchgeführt. Ernteerträge wurden getrennt für die Flächen, Jahre und Bodenbearbeitungsvarianten bestimmt. Für die Modellierung wurde ein Testmodel, basierend auf der Parametrisierung einer Variante der ersten Teilstudie (Garte Süd, pflugbasiert) generiert, welches die erfassten Daten (N 2 O-Emissionen, Erträge, Bodenwasserdynamik) am besten beschrieben hat. Diese Parametrisierung wurde dann an den anderen Varianten als zurückblickende Simulation angewendet. Die beiden Laborversuche fanden in England am Institute of Grassland and Environmental Research, North Wyke, statt. Mit Hilfe eines speziellen Denitrifikations-Inkubationssystems unter Ausschluss des N 2 wurden zwölf mit Ackerboden gefüllte Zylinder eingebaut und nach Über- und Durchströmen mit einem Helium/Sauerstoff Gemisch wurde Glukose (400 kg C ha-1) und Kaliumnitrat (75 kg N ha-1) bei einem wassergefüllten Porenvolumen von 85% über ein mittig angebrachtes zweites Gefäß von oben zugegeben. Nach 7,5 Tagen wurde statt des Helium/Sauerstoff Gemisches reines Helium verwendet, um eine vollständige Denitrifikation zu gewährleisten. Die Gasflüsse (N 2 O, N 2 und Kohlenstoffdioxid) und Isotopensignaturen (δ 18 O-N 2 O, δ 15 N bulk -N 2 O, δ 15 N α , δ 15 N β und die 15 N Positionspräferenz) des emittierten N 2 O wurden über einen Zeitraum von 13 Tagen erfasst. Bei dem zweiten Laborversuch wurde ein Teil der Bodenproben bei trockenen (20% wassergefülltes Porenvolumen), der andere Teil bei deutlich feuchteren Bedingungen (75% wassergefüllter Porenvolumen) über einen Zeitraum von vier Wochen vorinkubiert. Anschließend wurden alle Proben auf denselben hohen Wassergehalt (85% wassergefülltes Porenvolumen) eingestellt, in die Versuchsanlage eingebaut, unter Helium/Sauerstoff Atmosphäre gesetzt. Nach Zugabe von Glukose (400 kg C ha-1) und Kaliumnitrat (75 kg N ha-1) (90% wassergefülltes Porenvolumen) wurden die Gasflüsse und Isotopensignaturen analog zum ersten Versuch zehn Tage lang untersucht. In diesem Versuch wurde nach sechs Tagen die Sauerstoffzufuhr gestoppt. Die Ergebnisse der ersten Studie ergeben, dass die jährlichen N 2 O-Flüsse und Methan-Aufnahmen der untersuchten Ackerböden mehr von den Bodeneigen-schaften, dem Klima und der Bewirtschaftung abhingen als vom Bearbeitungs- system. Winteremissionen machten bis zu 50 Prozent der jährlichen N 2 O-Emissionen aus und die Jahresemissionen spiegeln die Unterschiede der Jahresniederschläge wieder. Außerdem hat sich das jahrzehntelange Pflügen auf die Verteilung des organischen Kohlenstoffs im Bodenprofil ausgewirkt, jedoch nicht auf den Gesamtkohlenstoffvorrat der gepflügten und minimal bearbeiteten Flächen. Unterschiede der Gesamtkohlenstoffvorräte zwischen den Flächen lassen sich auf den unterschiedlichen Tongehalt zurückführen. Die standortspezifische Kalibration hat sich als essenzielle Voraussetzung für die Modellierung der N 2 O-Flüsse und Ernteerträge herausgestellt. Insgesamt zeigen die Ergebnisse, dass die Kalibration mit experimentellen Daten und verfügbaren Literaturangaben zu annähernder Übereinstimmung zwischen modellierten und gemessenen Erträgen und den jährlichen N 2 O- Emissionen geführt hat. Es wurden jedoch große Abweichungen bezüglich der modellierten und gemessenen N 2 O-Emissionen im Jahresverlauf festgestellt. Die Pedotransferfunktionen das Denitrifikationsteilmodell des verwendeten DNDC Modells bedürfen daher weiterer Verbesserungen. Die dritte Studie legt dar, dass die N 2 O- Isotopologen den zeitlichen Verlauf der beobachteten N 2 O- und N 2 -Flüsse widerspiegelten und hilfreiche Prozess-informationen lieferten. Die eindeutige Identifizierung der Quellprozesse wurde durch das Auftreten mehrerer Faktoren behindert und konnte abschließend nicht aufgeklärt werden. Dennoch wies der zeitgleiche Anstieg der 15N-Positions-präferenz und der δ 18 O-N 2 O-Signaturen auf die N 2 O-Reduktion zum N 2 hin. Der bedeutende Einfluss der Wiederbefeuchtung eines Bodens auf die N 2 O-Emissionen belegt die vierte Studie. Der Versuchsansatz zeigt, dass das zeitgleiche Erfassen von N 2 - und N 2 O-Flüssen und der Isotopensignaturen von NO 3 - und N 2 O zusammen mit der Modellierung der Isotopenfraktionierung Einblicke in die räumliche Verteilung von N Spezies und der mikrobiellen Aktivität im Boden erlaubt. Insgesamt bleibt festzuhalten, dass sich kein genereller Einfluss der betrachteten Bodenbearbeitungssysteme auf den Nettoaustausch des N 2 O gezeigt hat und dass die Modellierung der N 2 O-Gesamtemissionen der zwei Bodenbearbeitungs-systeme mit den gemessenen Werten übereinstimmte. Die Nutzung stabiler Isotope hat das Verständnis der N 2 O-Produktions- und -Verbrauchsprozesse verbessert und die initialen Feuchtebedingungen haben die Emissionen und die Isotopensignaturen während der Denitrifikation in einem Ackerboden beeinflusst. ; One of the main anthropic sources of nitrous oxide (N 2 O) emissions, being an important greenhouse gas (GHG), is arable soil. With respect to the increasing world population an enhanced agricultural production with large- scale impacts on the nitrogen (N) cycle is most likely. Anyway, not all N flows and transformations in soils are yet fully understood, in particular denitrification as one of the key processes. Denitrification transforms nitrate (NO 3 - ) via nitrite and nitric oxide to N 2 O and finally into dinitrogen (N2) and both production and consumption of N 2 O take place simultaneously. The policy is engaged in developing mitigation strategies especially with respect to the agricultural sector to reduce GHG. To predict those emissions process-based models were used and field studies help to evaluated and improve them. Furthermore, for instance isotopomer measure-ments contribute to a better understanding of N 2 O processes in soils. This thesis presents results with respect to N 2 O emissions from arable soils and provides information which contribute to fill the gap of knowledge with respect to pathways and influencing factors of N 2 O emissions from arable soils. Firstly, the long-term effect of different tillage (conventional vs. reduced) systems on the stocks and the distribution of soil organic carbon and total nitrogen and on the annual N 2 O emission and the methane (CH 4 ) uptake are described and discussed, particularly with regard to spatial and seasonal variation of N 2 O and CH 4 flux rates and the factors that control the spatial and temporal variability of the flux rates. Additionally, those N 2 O emissions and crop yields were modeled using the denitrification- decomposition (DNDC) model, in order to test the usefulness of the model in describing and predicting crop growth and N 2 O emissions of differently managed soils. Secondly, two laboratory experiments using stable isotope approaches are presented dealing with the production and consumption processes of N 2 O during denitrification in arable soils. The first laboratory study aimed to simultaneously measure production and consumption of N 2 O during denitrification in order to determine whether the N 2 O isotopologue signatures of emitted N 2 O under the condition of non-homogenous distribution of NO 3 - and denitrification in soil could be used to better define the processes involved. The second laboratory experiment intended to determine the impact of antecedent soil moisture on N 2 and N 2 O fluxes, to evaluate how N 2 fluxes and the N 2 O/N 2 ratio are reflected by the isotopic signatures of emitted N 2 O and of NO 3 - in soil and thus to test isotopologue signatures of N 2 O as a tool to study denitrification in soil. With respect to the effect of different tillage systems two long-term experimental sites Garte Süd (G) and Hohes Feld (H), both located near Göttingen, Germany, were selected. The loess derived Haplic Luvisols have been managed under conventional (CT) and reduced tillage (RT) for about 40 years with maximum tillage depths of 25 - 28 cm and 5 - 8 cm, respectively. N 2 O and CH 4 fluxes (closed chamber method), physical and chemical properties (e.g. water content, mineral N content) were measured weekly and climate data were collected on a daily basis for two subsequent years. Additionally, at the beginning of the investigation a soil inventory was accomplished. Crop yields were determined separately for sites, tillage systems and years. For the modeling a test was performed based on a model parameterization to best describe the case G-CT. This parameterization was then applied to the other cases as a retrospective simulation. Laboratory experiments were conducted at the Institute of Grassland and Environmental research, North Wyke, UK. Twelve replicate cylinders filled with arable soil were placed in a specialized denitrification incubation system (DENIS), where they were sealed inside chambers to avoid the influx of N 2 . Atmospheric N 2 was removed by flushing the headspace and cylinders with a helium-oxygen mixture and glucose (400 kg C ha-1) and potassium nitrate (75 kg N ha-1) were applied to the soil surface via a secondary vessel fitted to the center of each lid leading to a final water-filled pore space (WFPS) of 85%. After 7.5 days oxygen (O2) was shut off in order to achieve totally anaerobic denitrifying conditions. Gas fluxes (N 2 O, N 2 and carbon dioxide) and isotope signatures (δ 18 O-N 2 O, δ 15 N bulk -N 2 O, δ 15 N α , δ 15 N β and 15 N site preference) of emitted N 2 O were determined over a period of 13 days. For the second laboratory experiment one batch of soil samples was kept dry (20% WFPS) and another was incubated under wet conditions (75% WPFS) for a period of 4 weeks. Then both batches were adjusted to the same high water content of 85% WFPS, placed in the DENIS and incubated for 10 days under a helium-oxygen atmosphere. When atmospheric N 2 was removed by flushing the system, potassium nitrate (75 kg N ha-1) and glucose (400 kg C ha-1) were added leading to a final WFPS of 90% in each soil core. Gas fluxes and isotope signatures of emitted N 2 O were determined over a period of 13 days whereas after 6 days O2 was shut off. Results of the first study indicates that the annual N 2 O fluxes and CH 4 uptakes of the investigated arable soils were influenced rather by soil properties as well as climate and short-term management effects than by tillage systems. Winter emissions accounted for up to 50% of annual N 2 O fluxes and cumulative annual N 2 O fluxes were reflected by precipitation level. Moreover the two long-term tillage systems resulted in a different soil carbon distribution whereas total carbon stocks did not differ between tillage systems but due to different clay contents between sites. Site specific calibration within the second study has shown to be an essential requirement for the modeling of N 2 O emissions and crop yields. Altogether the results indicates that calibration with experimental data and available literature data may result in approximate agreement between modeled and measured crop yields and annual N 2 O emissions. Anyway, modeled and measured annual distributions of N 2 O emissions were not accurate. Thus, the pedotransfer functions and the denitrification sub-model of the used DNDC model may need further improvement. The third study shows, that the N 2 O isotopologue values reflected the temporal patterns observed in N 2 O and N 2 fluxes and gain helpful process information even if due to the occurrence of several factors the evaluation of identifying source processes is hampered and could thus not be fully explained. Anyway, the simultaneous increase in SP and δ 18 O-N 2 O was found to be indicative of N 2 O reduction to N 2 . The fourth study demonstrates the important effect of rewetting soil on N 2 O emissions. The approach of combining measurement of N 2 and N 2 O fluxes and isotopic signatures of NO 3 - and N 2 O with isotope fractionation modeling gives insight into the spatial distribution of N species and microbial activity in soils. Summarizing the results, the long-term effect of conventional and reduced tillage on the net exchange of N 2 O was low and the modeling of N 2 O emissions from arable soils with differing tillage quite good. Using stable isotope approaches improved the understanding of N 2 O production and consumption processes and antecedent soil moisture conditions effected emissions and isotopologue distribution of N 2 O during denitrification in an arable soil.
BASE
Landwirtschaftliche Märkte sowie die gesamte Ernährungswirtschaft unterliegen in vielen Entwicklungsländern enormen Transformationsprozessen hin zu modernen Wertschöpfungsketten und der Erzeugung hochqualitativer Produkte. Während in den Exportmärkten Produktstandards und Zertifizierung an Bedeutung gewinnen, spielen in Entwicklungsländern nationale und multinationale Super- und Hypermarktketten eine immer größere Rolle. Diese Entwicklungen haben Auswirkungen auf die verschiedenen Akteure der Ernährungswirtschaft, insbesondere auf Kleinbauern. Ein Land, in dem die Expansion von modernen Einzelhandelsstrukturen schon relativ früh begonnen hat, ist Thailand. In den 1980er und 1990er Jahren haben, neben anderen Faktoren, das steigende Pro-Kopf Einkommen, erhöhte Urbanisierungsraten sowie die zunehmende Arbeitstätigkeit von Frauen die Etablierung von modernen Einzelhandelsstrukturen beschleunigt. Während die fünf wichtigsten Super- und Hypermarktketten 1996 insgesamt 36 Filialen in Thailand hatten waren es 2009 bereits 295 Filialen. Zu Beginn der Entwicklung waren moderne Einzelhandelsgeschäfte darauf fokussiert, Konsumenten mit umfassenden Einkaufsmöglichkeiten sowie mit niedrigen Preisen für Grundnahrungsmittel und verarbeitete Produkte zu werben. Je mehr sich die Märkte allerdings etablieren, desto wichtiger werden auch frische Lebensmittel, wie z.B. Obst und Gemüse. Auch wenn die Ausweitung dieses Produktsegments durch bspw. die Notwendigkeit einer durchgängigen Kühlkette erschwert wird, steigt der Verkaufsanteil von frischen Lebensmitteln an den totalen Lebensmittelverkäufen von modernen Einzelhandelsmärkten an. Da diese Produktkategorie eine wesentliche Bedeutung für Kleinbauern hat, liegt der Fokus dieser Studie auf frischen Lebensmitteln, insbesondere auf Gemüse. Das erste Kapitel untersucht am Beispiel von Paprika, wie Kleinbauern in Entwicklungsländern besser von modernen Wertschöpfungsketten profitieren können. Paprika ist ein Gemüse das erst vor etwa 10 Jahren als Produktinnovation in Thailand eingeführt wurde, um auf Exportmärkten und im modernen Lebensmitteleinzelhandel verkauft zu werden. Im Laufe der Zeit hat Paprika bei den lokalen Konsumenten an Popularität gewonnen und er wird heute auch auf traditionelleren Lebensmittelmärkten gehandelt. Die Analyse basiert auf Daten einer Haushaltserhebung im Wassereinzugsgebiet Mae Sa in Nordthailand. Die Erhebung umfasst 246 Paprika produzierende Haushalte sowie 62 landwirtschaftliche Haushalte, die keinen Paprika produzieren. Ergebnisse der Regressionsmodelle zeigen, dass die Kultivierung von Paprika, und insbesondere ein früher Einstieg in die Paprikaproduktion, signifikant zu höherem Haushaltseinkommen beiträgt und damit eine wichtige Strategie für Kleinbauern darstellt, ihre Lebenssituation zu verbessern. Es gilt allerdings zu bedenken, dass fehlende Landrechte, eine schwache infrastrukturelle Anbindung sowie fehlender Zugang zu Informationen Barrieren für eine frühe Übernahme der Kultivierung von Paprika darstellen. Es ist daher eine ernsthafte Herausforderung für die Politik, diese Hindernisse zu überwinden um negative Einkommenseffekte für benachteiligte Landwirte zu verhindern. Die Integration in moderne statt in traditionelle Wertschöpfungsketten trägt bisher allerdings nicht zu einem erhöhten Einkommen bei. Dieses hebt noch einmal hervor, dass externe Effekte, die durch die Etablierung modernen Einzelhandelsmärkten entstehen, bei der Bewertung dieser Märkte nicht unterschätzt werden sollten und in zukünftigen Studien berücksichtigt werden müssen. Der moderne Lebensmitteleinzelhandel führt nicht nur zu neuen Produkten und Produktstandards, sondern auch zu substantiellen Veränderungen im Management von Wertschöpfungsketten, was die Vermarktungsentscheidungen von Landwirten ebenfalls beeinflussen kann. Super- und Hypermärkte modernisieren zunehmend ihr Beschaffungswesen, was unter anderem bedeutet, dass sie vermehrt auf vertragliche Absprachen mit ihren Lieferanten bestehen. Landwirte beliefern Supermärkte häufig nicht mehr direkt, sondern sind über Zwischenhändler mit diesen Märkten verbunden. Basierend auf den Daten der oben genannten Haushaltserhebung werden im zweiten Kapitel die (vertraglichen) Vereinbarungen zwischen Landwirten und Händlern in traditionellen und modernen Wertschöpfungsketten für Paprika verglichen. Darüber hinaus ist es von Interesse zu analysieren, inwiefern bestehende Unterschiede die Entscheidung eines Landwirtes für einen bestimmten Vermarktungsweg beeinflussen. Die Ergebnisse bestätigen die Annahme, dass zwischen den Vermarktungswegen signifikante Unterschiede in Vereinbarungen zwischen Landwirten und Händlern bestehen. Außerdem zeigen die Ergebnisse, dass einige dieser Unterschiede die Vermarktungsentscheidungen von Landwirten beeinflussen. Produktpreise spielen für Landwirte ebenso wie das Bereitstellen von Betriebsmitteln und Krediten und die eigene Unabhängigkeit und Flexibilität eine wichtige Rolle. Die Ergebnisse des Choice Experimentes stellen heraus, dass Landwirte im Allgemeinen eine Präferenz für Vermarktungswege haben, die keine vertraglichen Vereinbarungen beinhalten. Außerdem bestätigt das Experiment, dass einige der oben genannten Aspekte (z.B. die Bereitstellung von Krediten) die Attraktivität von Verträgen erhöhen. Der wichtigste Aspekt für Landwirte ist allerdings eine gute persönliche Beziehung zum Händler, was darauf schließen lässt, dass Landwirte ein gewisses Maß an Vertrauen wertschätzen. Zusammenfassend zeigen diese Ergebnisse, dass für die bessere Einbindung von Kleinbauern in moderne Einzelhandels struktur en nicht nur die Mängel landwirtschaftlicher Märkte überwunden werden müssen, sondern auch berücksichtigt werden sollte, wie Absprachen zwischen Landwirten und Händlern gestaltet werden. Die Einbindung von Kleinbauern in den modernen Einzelhandel hat das Potential, die Lebensumstände von Kleinbauern zu verbessern. Die vorherigen Ergebnisse verdeutlichen allerdings, dass verschiedenste Barrieren bestehen, die eine weitreichende Integration von Kleinbauern nach wie vor erschweren. Darüber hinaus zeigen die Ergebnisse, dass auch traditionelle Märkte finanzielle Anreize für Landwirte bieten können und dass traditionelle Vermarktungsstrukturen den Präferenzen von Landwirten teilweise besser entsprechen. Daher ist es ebenfalls wichtig abzuschätzen, inwiefern traditionelle Einzelhandelsstrukturen, insbesondere die Märkte für Frischwaren, von der Transformation der Ernährungswirtschaft betroffen sind. Dieser Aspekt wird im dritten Kapitel aufgegriffen, in dem die Wettbewerbsstrategie von Super- und Hypermärkten in bezug auf Preise und erkennbare Qualitätsattribute zweier Gemüsesorten, Morning Glory und Paprika, verglichen wurde. Dafür wurden Daten über bestimmte Qualitätsattribute und Preise auf 43 Märkten in 17 Distrikten von Bangkok erhoben. Die Stichprobe besteht aus insgesamt 14 Filialen der drei wichtigsten Supermarktketten und insgesamt 12 Filialen der drei wichtigsten Hypermarktketten sowie 17 traditionellen Märkten für Frischwaren. Der Vergleich der Preise und der Qualitätsattribute auf den verschiedenen Märkten zeigt, dass weder Super- noch Hypermärkte in Bezug auf die Preise wettbewerbsfähig mit traditionellen Märkten für Frischwaren sind. Im Gegensatz dazu bieten diese Märkte Produkte höherer Qualität an. Die Ergebnisse des hedonischen Preismodells legen dar, dass auf allen Märkten bestimmte Qualitätsattribute die Produktpreise signifikant beeinflussen. Darüber hinaus haben Super- und Hypermärkten einen signifikanten und positiven Einfluss auf die Produktpreise. Dieses Ergebnis lässt darauf schließen, dass moderne Lebensmittelmärkte als solches für Konsumenten einen gewissen Wert darstellen, da sie bereit sind unabhängig von Qualitätsunterschieden, höhere Produktpreise zu bezahlen. Allerdings sind die Konsumenten der mittleren und höheren Einkommensklassen eher Kunden moderner Einzelhandelsmärkte, so dass das allgemeine Wirtschaftswachstum vor allem dem modernen Lebensmittelsektor zugute kommt. Traditionelle Märkte für Frischwaren und damit der Großteil an Landwirten bleiben weitgehend außen vor. Aus den Ergebnissen dieser Studie lassen sich wichtige Politikempfehlungen für die Unterstützung von Kleinbauern in Entwicklungsländern ableiten. Einerseits sollte die Integration von Kleinbauern in moderne Einzelhandelsstrukturen weiter gefördert werden. Dafür müssen Regierungen sich aktiv engagieren, um das Funktionieren der landwirtschaftlichen Märkte zu verbessern, bspw. durch Investitionen in die Infrastruktur oder die Verbesserung des Zugangs von Kleinbauern zu Marktinformationen. Darüber hinaus müssen die Beziehungen zwischen Kleinbauern und den nicht lokalen Händlern verbessert werden. Ein Ansatz in diese Richtung ist eine bessere Einbindung von lokalen Händlern, die häufig schon lang andauernde Beziehungen mit Landwirten haben. Wo dieses logistisch nicht möglich ist, sollten Unternehmen in Vertrauensbildende Maßnahmen investieren, z.B. in häufigere persönliche Kontakte zu den Landwirten oder in transparente Preisbildung. Andererseits sollte die Bedeutung von traditionellen Märkten für Frischwaren nicht aus den Augen verloren werden. Um Kunden der mittleren und höheren Einkommensklassen zu gewinnen und dadurch auch vom allgemeinen Wirtschaftswachstum zu profitieren müssen sich diese Märkte an die sich verändernden Einkaufsgewohnheiten von Konsumenten anpassen. Dazu muss die allgemeine Attraktivität der Märkte, z.B. durch die Verbesserung der hygienischen Standards oder durch die Ausweitung des Angebots an Parkplätzen, verbessert werden. Darüber hinaus muss auch das Produktangebot angepasst werden. Diese Veränderungen können jedoch nur zum Teil von den Händlern selbst getragen werden. Vor allem bedarf es der Unterstützung der Regierung und/oder privater Investoren, die finanzielle Mittel und Know-how zur Verfügung stellen. ; In many developing countries, agricultural and food systems are undergoing a major transformation towards high-value, modern supply chains. In export markets, stan-dards and certification systems are gaining in importance, while within developing countries, the role of national and multinational super- and hypermarket chains is growing. These developments have important implications for various stakeholders in the agro-food system, including, in particular, smallholder farmers. One country where the expansion of modern retail structures started relatively early is Thailand. In the 1980s and 90s increasing per capita incomes, urbanization trends and female labor force participation spurred, among other things, the development of modern retail structures. In 1996, the five most important super- and hypermarket chains had a total of 36 branches, and by 2009, this number of branches had already increased to 295. While modern retail markets first focus on attracting consumers with an all-in-one shopping strategy and particularly low prices for processed foods and staples, their stores start to mimic wet market situations in an advanced development stage. Although some barriers exist, e.g. a continuous cool chain, the share of fresh produce sales (as a percentage of total food sales) is also increasing at modern retail markets. Taking into account the importance of fruit and vegetable production for smallholder farmers, our study focuses on the fresh fruit and vegetable sector. In the first chapter, we analyze how smallholder farmers in developing countries can benefit from modern supply chains. We take the example of sweet pepper, which was introduced as a product innovation in Thailand some 10 years ago, mainly for ex-ports and upscale domestic supermarkets. Over time, sweet pepper gained wide pop-ularity among domestic consumers, so that nowadays it is also traded at more tradi-tional wholesale and retail markets. Our analysis is based on original farm survey data from 246 sweet pepper producers and 62 non-sweet pepper farmers in the Mae Sa Watershed in northern Thailand. Results from our regression models show that sweet pepper cultivation, and in par-ticular an early adoption, contributes significantly to higher household incomes and is therefore an important potential avenue for smallholder farmers to improve their livelihood. However, the duration analysis indicates that missing land titles, weak infrastructure conditions and limited access to information constituted serious con-straints during the early phases of sweet pepper adoption. There must be a change in policy in order to overcome these initial adoption constraints for disadvantaged farmers, and to thus avoid negative income distribution effects. Strikingly, at this stage, participation in modern supply chains does not lead to higher incomes than when supplying sweet pepper to traditional markets. This finding underlies that spill-overs from modern retail markets should not be underestimated; they must be ac-counted for in future studies of the wider implications of modern supply chains. Modern retail markets not only bring new products and product standards - they also implement profound changes in supply chain management, thereby affecting farm-ers marketing decisions. Super- and hypermarkets increasingly modernize their pro-curement systems and switch from buying through spot-market transactions to con-tractual agreements with farmers, often through specialized intermediaries. In the second chapter, we used the data from the above-mentioned farm survey to compare institutional arrangements, including contracts, between farmers and traders in tradi-tional and modern supply chains of sweet pepper. Moreover, we assess the impact of those differences on the farmers market channel choice. Our descriptive comparison of institutional arrangements confirms that significant differences exist among mar-keting channels. Furthermore, we show that some of those differences influence the farmers market-ing behavior. While output prices matter, the farmers also value other aspects such as access to inputs, credit and information, as well as independence and flexibility. Re-sults from the choice experiment additionally point out the farmers general prefer-ence for marketing options that do not involve a contract, and confirm that the as-pects mentioned above can increase the attractiveness of contracts. Yet, the most important factor for the farmers is a personal relationship with the buyer, which seems to reflect their desire for mutual trust. These findings show that beyond ad-dressing market imperfections, designing institutional arrangements according to the farmers needs can also contribute to more widespread smallholder participation in modern retail markets. The integration of smallholder farmers in modern retail markets is one way to im-prove their livelihood. However, our previous analyses show that various barriers exist that continue to limit integration possibilities. We showed that traditional mar-kets can also offer financial incentives to smallholder farmers and, in many ways, traditional marketing structures correspond to the marketing preferences of small-holder farmers. It is therefore also important to know how much traditional retail structures, and in particular, wet markets, are affected by food system transforma-tions. We consider this issue in the third chapter when we analyze the competition strategy of modern retail outlets with regard to product prices and observable product quality attributes. We again focus on the fresh fruits and vegetables segment, and in particular, on two products: morning glory and sweet pepper. We collected data about these products quality attributes and prices on 43 market outlets in 17 districts of Bangkok. The sample comprises 14 branches of the three most important super-market chains and 12 branches of the three most important hypermarket chains, as well as 17 wet markets. Descriptive comparisons of product prices and quality among the three types of markets show that neither super- nor hypermarkets are price competitive with wet markets. However, super- and hypermarkets offer higher prod-uct quality. Results from hedonic price models show that certain quality attributes significantly increase product prices. Moreover, we find a price effect of modern retail outlets, which demonstrates that despite any potential differences in quality, prices in super- and hypermarkets are higher than in wet markets. This shows that consumers not only value specific qual-ity attributes, but also modern retail formats. The overall picture resulting from this analysis is that traditional and modern markets have been acting more as comple-ments to one another than as competitors. However, since modern retail formats pri-marily serve the middle and upper income classes, these markets are reaping the most benefits from overall economic growth. Wet markets - and the majority of smallholder farmers - are being left behind. All in all, the results of this study have important policy implications for the support of smallholder farmers in emerging economies. On the one hand, the integration of smallholder farmers should continue to be promoted. This would require government involvement with regard to overcoming widespread market imperfections, like weak infrastructure conditions and limited access to market information. Furthermore, the relationship between the farmers and buyers needs to be improved. This is especially important regarding company representatives and intermediaries, who are often non-locals. One possible approach could be to more explicitly involve local traders who have established long-term relationships with the farmers. In areas where this is not logistically possible, companies and intermediaries could try to improve their ties with the farmers through other trust-building mechanisms, such as increasing the number of personal interactions and making pricing and grading procedures more transparent. On the other hand, the importance of wet markets as a major market outlet for smallholder farmers should not be forgotten. In order to attract middle and high income classes, and thereby benefit from overall economic growth, wet markets need to adapt to changing consumer demands. This can only be achieved by increasing the overall attractiveness of wet markets, e.g. by improving the hygienic conditions and offering more parking lots, as well as by expanding the product assortment. However, traders have a limited capacity to influence market modernization; such measures need to be supported with financial means and know-how by the government and/or private investors.
BASE
In: Foreign affairs, Band 89, Heft 2, S. 104-119
ISSN: 0015-7120
World Affairs Online
Blog: www.jmwiarda.de Blog Feed
2019 hat Thomas Hofmann den scheinbar ewigen Präsidenten Wolfgang Herrmann an der Spitze der TU München abgelöst. Was macht er jetzt anders? Ein Gespräch über das bayerische Genderverbot, die Reform des Wissenschaftszeitvertragsgesetzes, die Beziehungen zu China – und Hofmanns Verständnis der unternehmerischen Universität.
Thomas Frank Hofmann, Jahrgang 1968, ist Lebensmittelchemiker und war von 2009 bis 2019 geschäftsführender Vizepräsident der Technischen Universität München (TUM) für Forschung und Innovation. Seit 2019 ist
er Präsident der TUM. Foto: Astrid Eckert / TUM.
Herr Hofmann, auf Betreiben von Ministerpräsident Markus Söder (CSU) ist Anfang April in Bayern das Genderverbot in Kraft getreten. Schulen, Hochschulen und Behörden ist die Verwendung
geschlechtersensibler Sprache von nun an ausdrücklich untersagt. Was bedeutet das für die Technische Universität München (TUM)?
Wir glauben, dass Diversität, ihre Förderung und Wertschätzung die Schlüssel sind für den Erfolg unserer Universität. Durch die Nutzung gendersensitiver Sprache versuchen wir seit Jahren eine
möglichst große Vielfalt an Talenten anzusprechen. Und das gelingt zunehmend gut, auch wenn wir wie auch andere technische Universitäten gerade bei weiblichen Studierenden und
Wissenschaftlerinnen weiterhin Aufholbedarf haben. Wir interpretieren das Verbot so, dass es für die Universität im Rahmen ihrer dienstlichen Aufgaben gilt, also beispielsweise bei der Erstellung
von Satzungen oder Promotionsordnungen etwa. In anderen Bereichen, wie beispielsweise in der Kommunikation innerhalb unserer Universitätsgemeinschaft verfahren wir im Bestreben einer weiteren
Steigerung unserer Vielfalt wie bisher.
Also sämtliche Lehrveranstaltungen, Lehrunterlagen und Forschungsarbeiten fallen nach Ihrem Verständnis nicht unter das Verbot?
Soweit ist unser Verständnis, und ich bin sicher, dass die noch ausstehenden Ausführungsempfehlungen des Freistaats in dieser Form die Autonomie der Hochschulen nicht unnötig einschränken.
"Dieser vermeintliche 'Genderzwang'
existiert doch gar nicht."
Ärgert es Sie, dass Wissenschaftsminister Markus Blume (CSU) als Beispiel für den vermeintlichen "Genderzwang" an bayerischen Hochschulen einen inzwischen gelösten Fall angeführt hat, der
sich, wie später herauskam, ausgerechnet an der TUM zugetragen hat?
Nein, zumal dieser vermeintliche "Genderzwang" doch gar nicht existiert. Dass die besagte Promotionsordnung gendersensitive Sprache nutzt, ist lediglich Zeichen unseres Inklusionsverständnisses.
Im Übrigen entspricht sie auch andernorts dem heutigen Standard. Wenn Sie die Promotionsordnung der TU Berlin oder auch der ETH Zürich anschauen, dann lesen die sich genauso. Die ganze Aufregung,
auch in den Medien, halte ich für unangemessen und vor allem für wenig zeitgemäß, zumal in diesen bewegten Zeiten Deutschland doch vor ganz anderen Herausforderungen steht. Wissenschaft,
Wirtschaft, Politik und Medien sollten ihre vereinten Kräfte besser auf innovative Lösungsansätze fokussieren, denn der laufende Wettbewerb um die Zukunftsstandorte der Welt wartet nicht auf
Deutschland!
Der Vorwurf lautete, dass einer Promovendin die Verleihung des Doktorgrades verwehrt worden sei, solange sie sich geweigert habe, auf dem Titelblatt das
Gendersternchen zu verwenden – was, wie Blume sagte, "sogar in der Promotionsordnung so vorgeschrieben ist". Laut dem Minister "ein klarer Fall von sprachlicher Übergriffigkeit".
Es gab den Fall, dass sich die Veröffentlichung einer Dissertation wegen Diskussionen um Formulierungen auf dem Titelblatt der Dissertation verzögerte. Die Promovendin hatte ihre Prüfungen zuvor
bereits erfolgreich bestanden. Daran gab es keinen Zweifel. Die Promovendin hatte sich zudem gewünscht, den Titel "Doktor" als Bezeichnung des generischen Maskulinums zu erhalten statt
"Doktorin". Dies war lediglich der erste derartige Fall an der TUM seit Inkrafttreten der Neufassung der Promotionsordnung 2021. Deshalb hat sich der Ablauf etwas verzögert, was auch nicht mehr
vorkommen sollte. Da wir an der TUM möglichst große individuelle Freiheiten bezüglich geschlechterspezifischer Bezeichnungen gewähren, haben weibliche Promovierende natürlich die Möglichkeit, den
akademischen Grad "Doktor" oder "Doktorin" zu wählen, so auch in diesem konkreten Fall. Also erneut: kein Grund zur Aufregung.
Ebenfalls von der Staatsregierung beschlossen wurde ein Entwurf für ein "Gesetz zur Förderung der Bundeswehr in Bayern", das nicht nur Zivilklauseln an bayerischen Hochschulen untersagt,
obwohl es gar keine gibt, sondern ein allgemeines Kooperationsgebot für die Hochschulen mit der Bundeswehr festschreibt. Stellt das Wissenschaftsministerium auf Antrag der Bundeswehr fest, dass
eine Kooperation für die nationale Sicherheit erforderlich sei, sollen die Hochschulen künftig sogar ministeriell zur Zusammenarbeit gezwungen werden. Eine Grenzüberschreitung?
Die grundgesetzlich verankerte Freiheit von Lehre und Forschung wird an der TUM mit höchster Wertigkeit gelebt und schließt aus meiner Sicht ein Verbot von Forschung zu Dual-Use-Technologien und
eine entsprechende Zivilklausel aus. Darum gab es an der TUM auch nie eine Zivilklausel. Außerdem bin ich der Überzeugung, dass wir uns keiner Technologie verschließen sollten, nur weil sie
gegebenfalls Dual-Use-Potential mit sich bringt, also neben zivilen auch für defensiv-militärische Zwecke genutzt werden könnte. Oft genug war es in der Vergangenheit doch sogar umgekehrt:
Zahlreiche Technologien wurden beispielsweise in den USA primär für militärische Zwecke entwickelt und führten dann, etwa in der Luftfahrt, zu innovativen Fortschritten in der zivilen Nutzung.
Unnötige Einschränkungen bei der Erforschung von Dual-Use-Technologien an der TUM wären somit zum Nachteil des Innovationsfortschritts im zivilen Bereich.
"Wenn der Staat seine Universitäten verstärkt für den Schutz der Bevölkerung in die Verantwortung nehmen will, hat dies aus meiner Sicht nichts mit einem
Verlust der Freiheit in der Wissenschaft zu tun."
Außerdem dürfen wir nicht leugnen, dass sich in den vergangenen zwei Jahren die Sicherheitslage in der Welt dramatisch verändert hat. Im Sinne einer friedlich ausgerichteten
Verteidigungspolitik sehe ich auch die Hochschulen gefordert, ihre technischen Entwicklungen und Innovationen auch zum Schutz unserer Bevölkerung, der freiheitlich demokratischen Grundordnung und
der nationalen Sicherheit zu nutzen. Wenn der Staat seine Universitäten nun verstärkt in die Verantwortung nehmen will, hat dies aus meiner Sicht nichts mit einem Verlust der Freiheit in der
Wissenschaft zu tun. Denn nicht für einzelne Forscher oder einzelne Forscherinnen soll das Gebot zur Kooperation gelten, sondern für die Hochschule als Institution. In die individuelle
Entscheidungsfreiheit wird aus meiner Sicht mit dem aktuellen Gesetzesentwurf an keiner Stelle eingegriffen.
Im Oktober 2019 haben Sie Wolfgang Herrmann nach 24 Jahren als TUM-Präsident abgelöst. Herrmann war eine Institution, er hat die Universität zu der gemacht hat, die sie heute ist. Und was
machen Sie jetzt anders als er, Herr Hofmann?
Wir sind seit 2019 noch besser geworden, in den Hochschulrankings weiter aufgestiegen und rapide gewachsen bei den Studierendenzahlen, während zahlreiche andere deutschen Hochschulen stagnieren
oder schrumpfen. Im aktuellen THE-Universitätsranking besetzen wir Platz 1 in Deutschland und der Europäischen Union. Diese Entwicklung der TUM ist auch Ergebnis mutiger Reformen seit 2019. Also
kein einfaches "Weiter so", sondern ständige Veränderung ist unser Gebot der Stunde im international galoppierenden Wettbewerb. In dieser Grundhaltung bin ich geistig sehr nahe bei Wolfgang
Herrmann. Wie er bin ich fest davon überzeugt, dass zur erfolgreichen Führung einer Universität Weitsicht, Veränderungsmut und Furchtlosigkeit gehören, immer wieder neu zu denken, innovative
Maßnahmen zu entwickeln und Überkommenes einfach zu lassen. Diese operative Agilität und Adaptierungsdynamik sind für zukünftigen Erfolg genauso wichtig wie eine möglichst große Diversität der
Talente. Und genau das macht die TUM als "unternehmerische Universität" aus. Aber natürlich gibt es Unterschiede zwischen Wolfgang Herrmann und mir. Viele sagen, dass der größte Unterschied in
unseren Führungsstilen liegt. Das mag sein und das ist gut so. Denn der Führungsstil muss zeitgemäß sein, um erfolgreich zu sein, und heute die kreative Kraft der gesamten
Universitätsgemeinschaft einbinden.
"Der
ewige Patriarch" lautete die Überschrift eines Porträts, das ich einmal über Ihren Vorgänger geschrieben habe.
Mein Führungsstil ist inklusiv und kooperativ. Ich gebe die grobe Richtung vor, höre zu, stimme mich ab und lasse mich hin und wieder mit guten Argumenten auch gerne überzeugen. Und natürlich
braucht es manchmal am Ende mutige Entscheidungen, denn wir dürfen unsere Ziele nicht aus dem Blick verlieren.
Mutig ist zum Beispiel, dass die TUM als einzige Universität in Bayern die gesetzlichen Möglichkeiten nutzt und Studiengebühren für Nicht-EU-Ausländer einführt, und zwar in beträchtlicher
Höhe: zwischen 2000 und 6000 Euro pro Semester. Beunruhigt es Sie nicht, dass keine andere Hochschule mitzieht?
Ich kann nichts zu den Gründen sagen, warum andere die Studiengebühren nicht einführen wollen. Entscheidend ist doch, warum wir uns dazu entschieden haben, Gebühren für Studierende außerhalb der
Europäischen Union einzuführen. Als Universität mit internationalem Exzellenzanspruch wollen wir uns nicht nur in der Forschung, sondern gerade auch in der Lehre mit den Besten der Welt messen.
Beim Blick auf unsere internationalen Wettbewerber fällt sofort auf, welche enormen Summen die Spitzenuniversitäten in die Erneuerung des gesamten Lehrumfelds investieren, in neue
Infrastrukturen, in innovative Lehrtechnologien und -formate oder auch in die weitere Verbesserung der Betreuungsrelationen, die vielerorts völlig anders aussehen als bei uns. Das bedeutet für
uns: Um mithalten zu können, um Studiengänge auf höchstem internationalen Qualitätsniveau anbieten zu können und unsere Studierenden wirklich zukunftsfähig auszubilden, braucht es viel mehr Geld
als uns staatliche Mittel dazu zur Verfügung stehen. In ganz Deutschland ist die staatliche Grundfinanzierung der Hochschulen dazu nicht ausreichend. Daher wollen wir unsere Finanzierungsbasis
verbreitern und eingenommene Studiengebühren gezielt für die Verbesserung der Lehre einsetzen. Davon profitieren alle Studierenden, die nationalen wie die internationalen, und von den
bestausgebildeten Talenten ihre späteren Arbeitgeber.
Und Sie haben keine Sorgen, Sie könnten mit der Einführung internationale Studierende abschrecken? Baden-Württemberg schafft die Gebühren gerade wieder ab mit dem erklärten Ziel, dann wieder mehr Talente aus dem Ausland anziehen zu können.
Es gibt da doch große Unterschiede zu uns. Erstens: Die Universitäten in Baden-Württemberg waren beim Anteil internationaler Studierender nicht ansatzweise auf unserem Niveau. Bei den
Master-Studiengängen liegen wir inzwischen bei 57 Prozent internationale Studierende. Zweitens war es ein politischer Fehler der Landesregierung in Baden-Württemberg, dass ein Großteil der
Gebühren gleich wieder eingezogen wurde, so dass eine spürbare Verbesserung der Lehrqualität eben nicht erreicht werden konnte. Doch nur spürbare Verbesserungen hin zu einem wirklich exzellenten,
modernen Lehr- und Lernumfeld werden internationale Studierenden trotz der (international ohnehin üblichen) Gebühren nach München bringen. Sicher wird es in den ersten zwei, drei Jahren
Schwundeffekte geben. Das zeigen die Erfahrungen aus den Niederlanden und anderen europäischen Ländern. Es hat sich aber gezeigt, dass an diesen Hochschulen anschließend die internationalen
Studierendenzahlen wieder hochgingen – und dann schnell über den Stand vor der Einführung der Studiengebühren hinausgeschossen sind.
"In international ausgerichteten Berufsfeldern
macht es heute keinen Sinn mehr,
einen Studiengang auf Deutsch anzubieten."
Aber rechtfertigen die Erträge überhaupt den Aufwand?
Das System fährt stufenweise hoch über mehrere Jahre, weil wir nur von neuen Nicht-EU-Studierenden Gebühren verlangen und nicht von denen, die schon bei uns sind. Außerdem wird es für bis zu 20
Prozent der Studierenden Erlass-Stipendien geben: für die absolut herausragenden Talente genauso wie für finanzschwächere Bewerber, weil wir andernfalls an Diversität verlören, wenn die soziale
Herkunft über den Universitätszugang entscheiden würde. Insofern tue ich mich schwer, einen konkreten Eurobetrag zu nennen. Aber wir rechnen mittelfristig schon mit einem signifikanten
zweistelligen Millionenbeitrag.
2014 hatte Wolfgang Herrmann angekündigt, bis 2020 alle Masterstudiengänge auf Englisch umstellen zu wollen. Was ist eigentlich daraus geworden?
Das wurde als Ziel diskutiert damals, aber in dieser Absolutheit nie beschlossen. Wir haben den Anteil englischsprachiger Studiengänge seitdem organisch wachsen lassen, heute liegt er im Master
bei über 70 Prozent. Darunter sind etliche Studiengänge, die Sie zu großen Teilen auch auf Deutsch studieren können, die also im Prinzip zweisprachig sind. Wir erleben aber, dass der
Nachfragetrend immer stärker Richtung Englisch geht. Vor kurzem haben wir sogar den ersten Bachelor-Studiengang auf Englisch, für Luft- und Raumfahrt, gestartet, und seitdem ist die Bewerberlage
mehrfach überzeichnet mit Bewerberinnen und Bewerbern aus der ganzen Welt. Wir sehen: In international ausgerichteten Berufsfeldern macht es heute einfach keinen Sinn mehr, einen Studiengang auf
Deutsch anzubieten, sondern nur auf Englisch.
Wie aber soll das funktionieren, wenn ein Großteil der Lehrenden deutsche Muttersprachler sind? Führt das nicht zwangsläufig zu einer intellektuellen Verflachung, weil sich die Lehrenden
und Lernenden in einer Fremdsprache nicht so präzise ausdrücken können wie in ihrer eigenen?
Wir lassen bei der Beantwortung von Fragen in Klausuren in der Regel beide Sprachen zu. Sie können also, wenn die Frage auf Englisch gestellt ist, auch auf Deutsch antworten. Wir sehen aber, dass
für die meisten jungen Leute – unabhängig von deren Herkunft – die Kommunikation auf Englisch überhaupt kein Problem mehr ist. Sie sind damit aufgewachsen und dank Social Media und Internet ganz
anders darauf getrimmt als frühere Generationen.
Für die Studierenden mag das stimmen. Aber was ist mit ihren Profs?
Ich kann wieder nur für uns an der TUM sprechen, aber unsere Professorinnen und Professoren sind weltweit unterwegs und auf ihren Dienstreisen, bei Vorträgen und auch der Lehre gewohnt,
Englisch zu sprechen. Viele kommunizieren mit ihrem gesamten Mitarbeiterkreis nur auf Englisch. Trotzdem bieten wir über unser Sprachenzentrum Kurse an für Dozenten, die ihr Englisch verbessern
wollen. Und diejenigen, die aus dem Ausland zu uns kommen, unterstützen wir beim Deutschlernen. Und das tun wir vor allem, damit sie in Deutschland auch außerhalb der Hochschule sprechfähig sind
und sich integriert fühlen. Ohne Sprachkompetenzen ist es einfach schwieriger, ausländische Talente und deren Familien in Deutschland zu halten.
Die TUM ist unter anderem mit einem Verbindungsbüro in der Volksrepublik China vertreten. Im Oktober 2020 haben Sie persönlich eine sogenannte Flaggschiffpartnerschaft mit der
Tsinghua-Universität in China besiegelt. Bereuen Sie den Schritt inzwischen?
Keineswegs! Auch wenn der politische Druck auf die deutsch-chinesischen Beziehungen massiv zugenommen hat, stehen wir zu einer Stärkung der wissenschaftlichen Beziehungen mit ausgewählten
chinesischen Partneruniversitäten. Erst vergangene Woche bin ich nach China geflogen zum Besuch des Präsidenten der Tsinghua University, nachdem vergangenes Jahr eine chinesische Delegation der
Universität bei uns war. Auch die Besuche an der Tongji University und der Shanghai Jiao Tong University waren äußerst spannend und inspirierend. Denn wer glaubt, dass diese Universitäten etwas
von deutschen Universitäten lernen können, irrt sich grundlegend. Ich glaube, dass viele deutsche Universitäten von diesen Spitzenuniversitäten aus China lernen können!
"Generalverdacht hilft niemanden weiter
und entzieht jeder Zukunft die Grundlage."
Also alles wie immer in den Beziehungen zu Ihren chinesischen Partner?
Unsere Ziele sind beständig, aber der Blick und die Rahmenbedingungen haben sich verändert. Wir gehen heute mit großem Bedacht in unsere internationalen Partnerschaften. Wir schauen uns schon
sehr genau an, mit welchem Partner wir zu welchen Themen zusammenarbeiten, unter welchen Konditionen und mit welchen Standards wir kooperieren und wann wir es eben nicht tun. Und wir bereiten
unsere Mitarbeitenden vor; wir unterstützen sie mit Coachings, Reisehandys und Reisecomputern, bevor sie auf Dienstreise gehen. Ich halte es für einen kapitalen Fehler zu glauben, Deutschland
könnte sich aus einer Zusammenarbeit mit China zurückziehen. Nur durch internationale Spitzenallianzen werden wir unsere heutigen Herausforderungen wie beispielsweise zu Gesundheit oder
Klimaschutz lösen können und auch den Wirtschaftsstandort Deutschland sichern können.
Was antworten Sie einer Bundesforschungsministerin, die sagt: "Hinter jedem chinesischen Forscher kann sich die kommunistische Partei verbergen"?
Generalverdacht hilft niemanden weiter und entzieht jeder Zukunft die Grundlage! Aus der Geschichte können wir lernen: Unwissenheit und Ignoranz trennen die Welt, nur der Austausch verbindet
Menschen und Kulturen – und dies ist die Grundlage für Partnerschaften. Natürlich müssen wir dazu unsere Sicherheitsprotokolle anpassen und achtsamer sein als früher, aber wir müssen auch
die über viele Jahre aufgebauten Brücken bewahren, mit denen wir deutsche und chinesische Partner in Austausch bringen. Denn sind diese Brücken einmal abgebrannt, wird es Jahrzehnte dauern,
wieder Vertrauen aufzubauen.
Bayerns Staatsregierung brüstet sich damit, wie kein anderes Bundesland in die Wissenschaft und die Hochschulen zu investieren, Überschrift: "Hightech Agenda Bayern" (HTA). Laut Wissenschaftsminister Blume sind darüber
über 1000 neue Professuren entstanden und verstetigt worden, außerdem sind die Rahmendaten für die Hochschulfinanzierung schon bis 2027 vereinbart. Glückliches Bayern?
Mit der HTA hat Ministerpräsident Söder einen echten und weit sichtbaren Impuls gesetzt für Innovationen aus Bayern; dieser sucht bundes- und europaweit seinesgleichen. Andererseits wird es
überall im Land enger, auch bei uns. Ein insuffizienter Bauunterhalt oder die gestiegenen Energiekosten setzen uns wie alle anderen Hochschulen zunehmend unter Druck. In Verbindung mit der
unzureichenden Grundfinanzierung presst die Inflation die Hochschulen in ein Korsett, welches jeglichen Atem für die im heutigen internationalen Wettbewerb so dringend erforderlichen
Neuausrichtungen in Forschung und Lehre nimmt. Auf der anderen Seite müssen wir einsehen, dass die Staatshaushalte sowohl im Bund als auch in den Ländern momentan sehr belastet sind. Anstatt nur
mehr Geld zu fordern, müssen wir daher als Hochschulen selbst agiler werden und alte Zöpfe abschneiden, um dem Neuen eine Chance zu geben, beispielsweise den Ausbau der Unterstützung von
Ausgründungen und Start-ups. Denn nur mit neuer Wirtschaftskraft in Deutschland werden auch die Staatskassen wieder besser gefüllt werden, und das Land kann wieder in seine Hochschulen
investieren. Also, nicht Jammern bringt uns weiter, sondern Machen!
Das mit der Agilität ist Ihnen, wie man merkt, sehr wichtig. Können Sie Ihren Anspruch mit ein paar Zahlen unterlegen?
Genau zu der Frage haben wir eine Studie durchführen lassen mit dem Ergebnis, dass jede Personalstelle, die der Freistaat bei uns an der TUM finanziert, im Schnitt 14 neue Arbeitsplätze in
unseren Start-ups generiert. Das kann sich doch sehen lassen und ist, neben tausenden Absolventen jedes Jahr und unseren Forschungsallianzen mit der Wirtschaft, ein ganz konkreter Return on
Investment.
Mit Verlaub: Solche Studien präsentieren viele Hochschulen und Forschungseinrichtungen, und jedes Mal kommen fast unglaubliche Zahlen dabei heraus.
Unsere Zahlen sind belastbar. In der Wissenschaft streben wir vor allem nach neuem Wissen und Erkenntnissen, aber in einem nächsten Schritt übernehmen wir die Verantwortung dafür, dass aus dem
Wissen auch marktfähige Innovationen und neue Arbeitsplätze entstehen. Deshalb ermutigen wir alle Universitätsmitglieder, von den Studierenden bis zu den Professorinnen und Professoren, wenn sie
eine tolle Geschäftsidee haben, diese auch zu verfolgen. Und wir unterstützen sie dabei. Mit dem Ergebnis, dass heute fast 500 Gründungsteams durch die TUM gefördert werden und weitere 180
studentische Initiativen, über alle Fächer und Disziplinen hinweg. Gerade war eine Gruppe von Studierenden bei mir, die an einer Methan-Sauerstoff-Rakete arbeitet, um sie Ende des Jahres über die
100-Kilometer-Grenze hinaus in den Orbit zu schießen.
"Die Reduzierung der Höchstbefristung in
der Post-Doc-Phase ist ungerecht, denn sie ist zum Schaden der jungen Menschen selbst."
Wenn Sie so viel Wert auf das Schaffen neuer Arbeitsplätze in der Wirtschaft legen, was tun Sie für gute Arbeit an der eigenen Universität? Schließlich sehen sich die Hochschulen selbst
mit dem stärker werdenden Fachkräftemangel konfrontiert.
Ich danke Ihnen ausdrücklich für diese Frage, denn damit sind wir an einem Schlüsselpunkt angelangt. Wir Hochschulen müssen als Arbeitgeber attraktiver werden, uns dafür am eigenen Schlafittchen
packen und viel mehr tun für verlässliche Karrierewege auch unterhalb der Professur. So sind auch zahlreiche Stückelverträge hintereinander unfair gegenüber den jungen Menschen, die sich uns
anvertrauen. Die Ampel will zu diesem Zweck das Wissenschaftszeitvertragsgesetz (WissZeitVG) novellieren, doch das wird ins Auge gehen, wenn sie das falsche Modell wählt. Laut aktuellem Entwurf
sollen künftig nach der Promotion vier Jahre Befristung erlaubt sein und dann nochmal zwei Jahre – aber nur, wenn klar ist, dass die Person danach einen Dauervertrag erhalten kann. Dies kann aber
nur in wenigen Fällen erfolgen, so dass de facto für die meisten nach maximal viel Jahren als Postdoc Schluss wäre. Vier Jahre sind aber oft zu kurz, um sich über exzellente Forschung und
hochkarätige Veröffentlichungen tatsächlich für eine Professur zu qualifizieren. So täuscht der Reformvorschlag für das Wissenschaftszeitvertragsgesetz eine falsche Gerechtigkeit vor. Tatsächlich
ist die Reduzierung der Höchstbefristung in der Post-Doc-Phase ungerecht, denn sie ist zum Schaden der jungen Menschen selbst. Und sie wird einen enormen Brain Drain auslösen, entweder heraus aus
der Wissenschaft insgesamt oder hinein in ausländische Universitäten, die sich kein solch wissenschaftsfeindliches Korsett anziehen.
Ihr Alternativvorschlag lautet also: Einfach die Regelung lassen, wie sie ist?
Nein, ich unterstütze prinzipiell ein Tenure-Track-System für den wissenschaftlichen Mittelbau mit Nachdruck. Der aktuelle Gesetzesvorschlag ist allerdings verlogen! Statt den Befristungszeitraum
von maximal sechs auf vier Jahre zu kürzen, wäre es im Sinne einer Karriereplanbarkeit sicher sinnvoller, die realen Vertragslaufzeiten für Postdocs generell an die Förder- oder
Zuwendungsbescheide für Projekte anzupassen, anstatt sie mit Stückelverträgen zu gängeln. Wie auch immer macht die Umsetzung des aktuellen Gesetzentwurfs nur dann Sinn, wenn im dimensionalen
Ausmaß neue entfristbare Stellen an die Universitäten kommen. Und dies halte ich vor dem Hintergrund der heute knappen Staatskassen für schieres Wunschdenken. Die Politik muss sich der
Konsequenzen ihres Handelns schon bewusst sein!
Sie sagen, die Hochschulen seien gefragt, sich intelligente Konzepte für Karrierewege auch unterhalb der Professur zu überlegen. Welche fallen Ihnen da konkret für die TUM ein?
Das Wissenschaftsmanagement wird immer wichtiger und ist ein hoch attraktives Aufgabenfeld. Diese Kolleginnen und Kollegen tragen maßgeblich dazu bei, dass an der TUM Spitzenleistungen in
Forschung und Lehre erzielt werden. Deswegen haben wir zum Beispiel das berufsbegleitende Qualifizierungsprogramm TUM Science Manager aufgelegt. Es dauert zwischen 12 und 24 Monate und die
Teilnahme am Kursprogramm erfolgt während der Arbeitszeit – wird also bezahlt.
"Als Franke müsste ich angesichts der Gründung
der TU Nürnberg jubeln, aber eine Spitzenuni lässt sich nicht mit der Brechstange schaffen."
Sie haben es vorhin gesagt: Die Hochschulfinanzierung wird auch in Bayern enger. Gleichzeitig hat der Freistaat vor wenigen Jahren die Technische Universität Nürnberg (UTN) neu gegründet,
übrigens mit tatkräftiger Unterstützung Ihres Vorgängers, und massive Investitionen versprochen.
Da sehen Sie, dass wir uns doch in einigen Dingen unterscheiden.
Inwiefern?
Als Franke müsste ich jubeln! Aber wenn wir in die Welt hinausschauen sehen wir, dass sich international führende Forschungsstandorte evolutionär und über lange Zeiträume hinweg entwickelt haben.
Eine Spitzenuni lässt sich nicht mit der Brechstange schaffen, sondern braucht Geld und vor allem Zeit – viel Zeit! Ein Professor in Stanford hat zu mir mal gesagt, eine wissenschaftliche
Top-Einrichtung zu schaffen, koste 100 Milliarden und dauere 100 Jahre.
Erst neulich hat Ministerpräsident Söder einen Strategiewechsel verkündet: die Fokussierung der UTN auf das Thema
Künstliche Intelligenz. Sogar einen schnittigen neuen Titel hatte er im Angebot: "Franconian University of Artificial Intelligence".
Ich habe das nicht zu entscheiden. Ich persönlich würde eine Universität nicht thematisch einschränken, selbst wenn es sich wie bei der KI um eine disruptive Querschnittstechnologie handelt. Aber
ich glaube, das ist so auch nicht gemeint.
Vielleicht sagen Sie das nur, weil Sie fürchten, dass die UTN ihnen demnächst Ihre KI-Talente abjagt.
Das erwarte ich nicht, und es wäre auch kein sinnvoller bayerischer Ansatz, dass wir jetzt das Wildern beieinander anfangen.
Wie aber wollen Sie überhaupt all die neuen KI-Lehrstühle besetzt bekommen, die in den vergangenen Jahren im Freistaat ausgelobt wurden?
Da sehe ich kein Problem. Wir haben praktisch alle Professuren der HTA besetzt – mit wirklich exzellenten Leuten. Es ist nicht so, dass alle 150 sogenannten KI-Professuren in Bayern jetzt
mit Mathematikern und Informatikern besetzt werden, die KI-Grundlagenforschung machen. Davon gibt es in ganz Europa vielleicht 50 ernstzunehmende Leute. Aber die KI hat viele Facetten und
Anwendungsdomainen, in denen dann auch die Wertschöpfung von KI entsteht. In solchen Feldern haben wir zahlreiche Berufungen gemacht, wie beispielsweise in der Robotik, der Medizin, in den
Sozialwissenschaften und vieles mehr.
Wie passt es eigentlich zusammen, dass Sie an der TUM Spitzentechnologien und KI derart in den Mittelpunkt stellen, gleichzeitig aber gerichtlich bestätigt einen Bewerber abgelehnt haben
mit der Begründung, dessen Motivationsschreiben sei mithilfe Künstlicher Intelligenz erstellt worden? Warum sind Sie da nicht offener?
Weil das Motivationsschreiben die individuelle Prägung des Kandidaten zeigen soll. Welchen Sinn hätte es sonst? Etwas völlig Anderes ist es, wenn unsere Studierenden und Lehrenden ChatGPT oder
andere sogenannte Large Language Models im Studium einsetzen, das stimulieren wir mit Nachdruck. So wie sich der Taschenrechner zum bewährten Hilfsinstrument entwickelt hat, wird das auch mit
KI-Anwendungen sein. Darum bauen wir sie proaktiv in unsere Lehre ein, damit unsere Studierenden vorbereitet sind. Aber erklären, warum sie zu uns an die TUM kommen wollen, sollen unsere Bewerber
schon noch selbst.
Kostenfreien Newsletter abonnieren
In eigener Sache
Dieser Blog hat sich zu einer einschlägigen Adresse der Berichterstattung über die bundesweite Bildungs- und Wissenschaftspolitik entwickelt. Bitte helfen Sie
mit, damit er für alle offen bleibt.
Wie Sie Blog und Newsletter unterstützen können, erfahren Sie
hier...
In: Studien der Hessischen Stiftung Friedens- und Konfliktforschung (Frankfurt, Bd. 32
World Affairs Online
In: Österreichische militärische Zeitschrift: ÖMZ, Band 53, Heft 1, S. 3-13
ISSN: 0048-1440
World Affairs Online
In: Blätter für deutsche und internationale Politik: Monatszeitschrift, S. 1194-1206
ISSN: 0006-4416
World Affairs Online
In: Deutschland Archiv, Band 35, Heft 5, S. 806-815
ISSN: 0012-1428
World Affairs Online
In: Blätter für deutsche und internationale Politik: Monatszeitschrift, Band 44, Heft 8, S. 984-990
ISSN: 0006-4416
World Affairs Online
The ongoing urbanization process all around the globe is likely to increase transport-related negative externalities e.g., congestion, air pollution, climate change etc. The situation is severe in rapidly expanding cities where the demand for motorized transport is increasing. This has increased the pressure on the policy makers to devise policies to tackle the problem. Derived from the urbanization process, this thesis considers following objectives. 1. Investigation of the policy measures in a simulation framework a) to abate the transport negative externalities while considering the inter-relationship between different externalities and b) to achieve the politically motivated goals. 2. Development of a computationally efficient model to simulated heterogeneous traffic conditions. With the first objectives, the idea is to investigate the policy measures in the context of industrialized nations; this is addressed in the first part of the thesis. In a simulation environment, marginal social cost pricing allows to correct for the inefficiencies due to exclusion of external costs from behavioral decision making process and to derive real-world policy recommendations. The first part investigates and compares the effect of congestion pricing on emissions levels and the effect of emission pricing on congestion levels while considering heterogeneity in the individual attributes and choice behavior. Derived from the inter-relationship between the two externalities, a joint internalization of vehicular congestion and emissions is proposed. It is applied to a real-world scenario of the Munich metropolitan area in Germany. It is found that the joint internalization moves the car transport system towards the optimum, measured by a strong decrease of congestion and emission costs. In this context, it has been shown for analytical models considering more than one externality, that the correlation between the externalities needs to be taken into account. Typically, in order to avoid overpricing, this is performed by introducing correction factors which capture the correlation effect. However, the correlation structure between, say, emission and congestion externalities changes for every congested facility over time of day. Additionally, the possible efficiency gains highly depend on the implicit price elasticity of demand, which again, depends on the availability of substitutes to car travel. For the Munich case study, it is shown that the iterative calculation of prices based on cost estimates from the literature allows to identify the amplitude of the correlation between the two externalities under consideration. Further, at the disaggregated level, the results show that pricing emissions moves individuals to shorter distance routes, whereas pricing congestion pushes towards longer distance routes. That is, despite the correlation between the two externalities, isolated pricing strategies influence route choice behavior by tendency into opposite directions. In real-world politics, policy setting often follows so-called 'backcasting' approaches where predefined goals are set, and policy measures are implemented to reach those goals. The first part also presents an parametric approach to identify the gap between toll levels derived from environmental damage cost internalization and toll levels to achieve the political goal of 20% reduction in GHG emissions of transport sector until 2020 with respect to 1990 levels. For this purpose, the damage costs internalization is applied to the scenario of Munich metropolitan area again and shown that the desired reduction in CO2 emissions is not reached. Further application of the parametric internalization approach with damage cost estimates from the literature yields toll levels that are by a factor of 5 too low in order to reach the predefined goal. When aiming at emission costs reductions of 20%, the damage cost estimates are even by a factor of 10 too low. It is shown that the major contribution to the overall emission reduction stems from behavioral changes of (reverse) commuters rather than from urban travelers; under some circumstances, the latter even increase their CO2 emission levels. An economic assessment indicates that a toll equivalent to 5 times of the toll from the damage cost internalization approach increases the system welfare 6 times. The second part treats the second objective mainly in the context of the industrializing nations where mixed traffic conditions prevail. In such conditions, it becomes necessary to develop a heterogeneous traffic flow model to include all vehicle classes while keeping the model equally computationally efficient. In this direction, the second part proposes a fast Spatial Queue Model (SQM) to produce realistic flow dynamics by introducing backward traveling holes for mixed traffic conditions. In the proposed approach, the space freed by a leaving vehicle on the downstream end of the link is not available immediately to the following vehicle, rather depends on the speed of backward traveling holes. This results in triangular Fundamental Diagrams (FDs) for traffic flow such that the slope of the left branch is approximately equal to the minimum of the vehicle speed and link speed whereas the slope of the right branch is approximately equal to the speed of the backward traveling holes. With the help of FDs from the simulation of several vehicle classes, it is demonstrated that as the maximum speed of the vehicle class decreases, the density at which the maximum flow is achieved, increases and the maximum flow decreases. In a similar direction, the second part also introduces the seepage link dynamics to the SQM. The seepage is predominately common on the urban streets of most of the industrializing nations. In this model, due to higher maneuverability and smaller size, smaller vehicles (e.g., bicycle, motorbike) move continuously across the gaps between the stationary or almost stationary vehicles and come in front of the queue to leave prior to other queued vehicles. The FDs from simulation of equal modal split of car and bicycle show that the flow characteristics of bicycle is marginally affected by the presence of cars but on the contrary, the flow characteristics of the car is significantly affected by the presence of bicycles. Further, it has been shown that in a traffic stream, seepage is more effective for faster seep mode (e.g., motorbike) than slower seep mode (e.g., bicycle). Finally, in the second part, a comparison of the computational performances from the simulations using various traffic and link dynamics of the queue model is presented. An additional data structure to maintain the backward traveling holes, increases the average simulation time marginally for all three sample sizes (1%, 10%, 100%). However, the look up for seep mode on every link of the network is appeared to be resource intensive with respect to the other link dynamics of the queue model. The rate of increase in the average simulation time using the seepage link dynamics for different sample sizes is significantly higher than the rate of increase in the average simulation time of other link dynamics of the queue model. The third part integrates the two objectives and presents a real-world scenario of Patna, India with a goal of reduction in emissions externality towards sustainable transport. This part exhibits the steps for demand generation and calibration of the scenario. The urban demand is generated using the trip diaries whereas the external demand is generated using hourly trip counts. For the latter, Cadyts is extended to mixed traffic conditions. To include the diverse income effects in the behavioral decision making process of the individual, the individual income is included in the scoring function. The scenario is calibrated to evaluate the Alternative (mode) specific constants (ASCs) for different modes. The calibrated scenario is used for policy testing. Based on the traffic characteristics and composition, a bicycle superhighway is proposed along the existing railway line. An iterative process is proposed to identify the optimum locations of the connectors between bicycle superhighway and existing network. A whatif policy measure is considered in which motorbike is also allowed on the bicycle superhighway. Both policy measures increase the share of the bicycle significantly. To estimate the emissions for the two policy measures, the Emission Modeling Tool (EMT) is extended to mixed traffic conditions. It is shown that if only bicycle is allowed on the bicycle superhighway, significant reduction in emissions are observed in the inner city. However, as soon as the motorbike is also allowed on it, significant increase in the emissions are observed along the bicycle superhighway in the inner city of Patna which emphasizes the need of enforcements to stop motorbikes on the bicycle superhighway. With this, the third part demonstrates that significant reduction in emissions can be obtained in the situations where a pricing measure is difficult to implement. To summarize, this thesis focuses on the evaluation of policy measures in a simulation framework to extract the valuable information for the policy makers to tackle the problem of negative transport externality in the industrialized nations as well as industrializing nations. For the latter, this thesis also extends a computationally efficient traffic flow model to simulate the heterogeneous traffic conditions. Finally, with several case studies, the thesis shows the scope of devising policy recommendations based on the scenario specifications. ; Es ist anzunehmen, dass die aktuell stattfindende globale Urbanisierung negative externe Effekte des Verkehrssektors wie z.B. Stau, Luftverschmutzung sowie den Klimawandel verstärkt. Die Situation ist besonders schwerwiegend in aktuell stark wachsenden Städten, in denen auch die Verkehrsnachfrage steigt. Somit steigt der Druck auf politische Entscheidungsträger Maßnahmen zu ergreifen, um den genannten Problemen entgegenzuwirken. Ausgehend von diesem Spannungsfeld, verfolgt die vorliegende Dissertation folgende Ziele: 1. Die Untersuchung von Maßnahmen in einem Simulationsmodell a) zur Verringerung der negativen externen Effekte unter Berücksichtigung der gegenseitigen Abhängigkeiten der verschiedenen externen Effekte sowie b) zum Erreichen politisch motivierter Ziele. 2. Entwicklung eines laufzeiteffizienten Modells zur Simulation heterogener Verkehrsbedingungen. In Bezug auf das erste Ziel, werden zunächst Maßnahmen im Kontext industrialisierter Länder untersucht; dies stellt den ersten Teil der Dissertation dar. Hierfür wird ein Simulationsmodell verwendet, in welchem eine Bepreisung auf Basis marginaler sozialer Kosten eine Korrektur der Ineffizienzen, die aufgrund der Nichtberücksichtigung von externen Kosten in Entscheidungsprozessen entstehen, ermöglicht und somit die Ableitung von Maßnahmenempfehlungen erlaubt. In diesem ersten Teil der Dissertation wird die Auswirkung von Staubepreisung auf Emissionen sowie die Auswirkung von Emissionsbepreisung auf Stau untersucht und verglichen, wobei die Heterogenität in den Attributen der Individuen sowie in deren Entscheidungsverhalten in Betracht gezogen wird. Auf Basis der beiderseitigen Abhängigkeit zwischen den genannten externen Effekten, wird eine gleichzeitige Internalisierung von Stau- und Emissionseffekten vorgeschlagen. Diese Maßnahme wird in einem realistischen Simulationsszenario für die Metropolregion München angewendet. Es kann gezeigt werden, dass die vorgeschlagene gleichzeitige Internalisierung das Verkehrssystem des motorisierten Individualverkehrs in Richtung des Systemoptimums bewegt, was durch einen starken Rückgang in Stau- und Emissionskosten charakterisiert ist. In diesem Zusammenhang wurde für analytische Modelle, die mehr als einen externen Effekt betrachten, gezeigt, dass die Korrelation zwischen den externen Effekten berücksichtigt werden muss. Um eine Überbepreisung zu vermeiden, werden typischerweise Korrekturfaktoren verwendet, die den Korrelationseffekt aufgreifen. Die Korrelationsstruktur zwischen Emissions- und Stauexternalitäten ändert sich jedoch für jede bestaute Infrastruktur im Laufe des Tages. Weiterhin hängen mögliche Effizienzgewinne stark von der impliziten Preiselastizität der Nachfrage ab, welche wiederum von der Verfügbarkeit von Alternativen zur Fortbewegung mit dem Auto abhängt. Für das München-Szenario wird gezeigt, dass die iterative Berechnung von Preisen auf Basis von Kostenschätzungen aus der Literatur eine Bestimmung des Ausmaßes der Korrelation der beiden berücksichtigten externen Effekte erlaubt. In einer disaggregierten Betrachtung zeigen die Ergebnisse weiterhin, dass eine Emissionsbepreisung die Verkehrsteilnehmer dazu veranlasst kürzere Routen zu wählen, während eine Staubepreisung zur Wahl längerer Routen bewegt. Dies bedeutet, dass trotz der Korrelation beider externer Effekte, isolierte Bepreisungsstrategien das Routenwahlverhalten tendenziell in gegensätzliche Richtungen beeinflussen. In realer Politik basiert die Festlegung von Maßnahmen häufig auf sogenannten Backcasting-Ansätzen, bei denen im Voraus Ziele definiert und Maßnahmen in Kraft gesetzt werden, um diese Ziele zu erreichen. Im ersten Teil der Dissertation wir ferner ein parametrischer Ansatz vorgestellt, mit dem der Unterschied zwischen der nötigen Mauthöhe zur Internalisierung der Umweltschadenskosten und der nötigen Mauthöhe zum Erreichen des politischen Ziels einer 20-prozentigen Reduktion von Treibhausgasemissionen (GHG) des Verkehrssektors bis 2020 gegenüber dem Niveau von 1990 ermittelt werden kann. Zu diesem Zwecke wir die Internalisierung der Schadenskosten abermals auf das Szenario für die Metropolregion München angewendet. Es wird gezeigt, dass die gewünschte Reduktion der CO2-Emissionen nicht erreicht wird. Eine weitere Anwendung des parametrischen Internalisierungsansatzes mit Schadenskostenschätzungen aus der Literatur führt zu Mauthöhen, die um einen Faktor 5 zu niedrig sind, um das gesetzte Ziel zu erreichen. Um Reduktionen der Emissionskosten von 20% zu erreichen, sind die Schadenskostenschätzungen sogar um einen Faktor 10 zu niedrig. Es wird gezeigt, dass der Hauptbeitrag zur Emissionsreduktion eher auf Verhaltensänderungen der Auspendler als auf jenen der innerstädtischen Verkehrsteilnehmer basiert; unter bestimmten Umständen erhöht sich sogar der CO2-Ausstoß der Letzteren. Eine ökonomische Untersuchung deutet darauf hin, dass eine Maut, die dem Fünffachen der Maut auf Basis der Schadenskosteninternalisierung entspricht zu einer sechsfachen Steigerung der Wohlfahrt im Gesamtsystem führt. Im zweiten Teil der Dissertation wird das zweite Ziel (Entwicklung eines laufzeiteffizienten Modells zur Simulation heterogener Verkehrsbedingungen) hauptsächlich im Kontext von Entwicklungsländern behandelt, in denen häufig heterogene Verkehrsverhältnisse vorherrschen. Diese Bedingungen erfordern die Entwicklung eines heterogenen Verkehrsflussmodells, um alle Fahrzeugklassen einschließen zu können, während die rechentechnische Effizienz des Modells erhalten bleibt. Daher wird im zweiten Teil der Dissertation ein schnelles Spatial Queue Model (SQM) vorgestellt, mit dem realistische Verkehrsflussdynamiken durch Berücksichtigung sich rückwärtsbewegender Lücken unter heterogenen Verkehrsbedingungen produziert werden. In diesem Ansatz steht der Raum, der frei wird, wenn sich ein Fahrzeug Richtung Ende der Netzwerkkante bewegt, nicht unmittelbar für nachfolgende Fahrzeuge zur Verfügung, sondern hängt vielmehr von der Geschwindigkeit der sich rückwärts bewegenden Lücken ab. Dies führt zu dreiecksförmigen Fundamentaldiagrammen Fundamentaldiagrammen (FDs) des Verkehrsflusses, sodass die Steigung des linken Asts näherungsweise gleich dem Minimum aus Fahrzeuggeschwindigkeit und Netzwerkkantengeschwindigkeit ist, während die Steigung des rechten Asts näherungsweise gleich der Geschwindigkeit der sich rückwärts bewegenden Lücke ist. Mit Hilfe der FDs der Simulation verschiedener Fahrzeugklassen wird gezeigt, dass mit abnehmender Höchstgeschwindigkeit der Fahrzeugklasse die Dichte, bei der der höchste Verkehrsfluss erreicht wird, steigt und der maximale Verkehrsfluss sinkt. Mit einem ähnlichen Ziel werden im zweiten Teil der Disseration ferner sog. Seepage Link Dynamics in das SQM integriert. Seepage (Durchschlängeln) ist ein typisches Phänomen auf urbanen Straßen in den meisten Entwicklungsländern. Seepage beschriebt das Phänomen, dass sich kleinere Fahrzeuge wie bspw. Fahrräder oder Motorräder aufgrund ihrer höheren Manövrierbarkeit und ihrer geringeren Größe kontinuierlich durch die Lücken zwischen stehenden oder fast stehenden anderen Fahrzeugen bewegen und somit zum Ende der Warteschlange vorrücken und diese vor den anderen Fahrzeugen verlassen. Die FDs von Simulationen mit gleichem Modal Split von Autos und Fahrrädern zeigen, dass die Flusseigenschaften der Fahrräder nur marginal durch das Vorhandensein von Autos beeinflusst werden, während die Flusseigenschaften von Autos signifikant durch das Vorhandensein von Fahrrädern beeinflusst werden. Weiterhin wurde für einen Verkehrsstrom gezeigt, dass Seepage effizienter für schnellere Verkehrsmittel wie z.B. Motorräder ist als für langsamere. Schließlich wird im zweiten Teil der Dissertation ein Vergleich der rechentechnischen Performanz aus verschiedenen Simulationen, in denen die unterschiedlichen Verkehrs- und Kantendynamiken des Queue-Modells verwendet werden, gezogen. Die zusätzliche Datenstruktur zur Behandlung der sich rückwärts bewegenden Lücken erhöht die durchschnittliche Simulationszeit nur marginal in allen drei verwendeten Simulationssamples (1%, 10%, 100%). Die nötigen Zwischenspeicherung zur Berücksichtigung von sich durchschlängelnden Fahrzeugen auf den einzelnen Kanten (Seepage) hingegen stellt sich als ressourcenintensiv im Vergleich zu den sonstigen Kantendynamiken des Queue-Modells dar. Die Steigerungsrate der durchschnittlichen Simulationszeit bei Berücksichtigung von Seepage Link Dynamics ist signifikant höher als die Steigerungsraten der durchschnittlichen Simulationszeit der anderen Linkdynamiken des Queue-Modells. Im dritten Teil der Dissertation werden die beiden Ziele zusammengeführt und anhand eines realistischen Simulationsszenarios für Patna in Indien veranschaulicht mit dem Ziel externe Effekte durch Emissionen zu reduzieren und ein nachhaltiges Verkehrssystem zu erreichen. In diesem Teil der Dissertation werden die Schritte zur Generierung der Verkehrsnachfrage sowie zur Kalibrierung des Szenarios dargelegt. Die städtische Verkehrsnachfrage wird auf Basis von Reisetagebüchern erstellt, während der Pendlerverkehr auf Basis stündlicher Verkehrszählungen generiert wird. Für Zweiteres wird das Kalibrierungstool Calibration od dynamic traffic assignments (Cadyts) zur Berücksichtigung heterogener Verkehrsbedingungen angepasst. Um unterschiedliche Einkommenseffekte in den verhaltensbasierten Entscheidungsprozess der Verkehrsteilnehmer einzubeziehen, wird das individuelle Einkommen in die Bewertungsfunktion integriert. Das Szenario wird kalibriert, um die alternativenspezifische (verkehrsmittelspezifische) Konstante Alternative (mode) specific constants (ASCs) für verschiedenen Verkehrsmittel auszuwerten. Das kalibrierte Szenario wird zur Maßnahmenuntersuchung verwendet. Ausgehend von den Charakteristika des Verkehrsgeschehens und der Zusammensetzung der Verkehrsmittel, wird ein Fahrradschnellweg (Bicycle Superhighway) entlang einer existierenden Eisenbahnlinie vorgeschlagen. Ein iterativer Prozess wird verwendet, um die optimalen Orte für Verbindungen zwischen dem Fahrradschnellweg und der existierenden Infrastruktur zu bestimmen. Dies wird mit einem Alternativszenario, in dem auch Motorräder auf dem Fahrradschnellweg zugelassen sind, verglichen. Beide Maßnahmen tragen zu einer signifikanten Erhöhung des Fahrradanteils bei. Um die Emissionen unter beiden Maßnahmen abzuschätzen wird das Emission Modeling Tool (EMT) für heterogenen Verkehrsbedingungen erweitert. Es wird gezeigt, dass signifikante Reduktionen der Emissionen in der Innenstadt zu verzeichnen sind, falls Fahrräder als einziges Verkehrsmittel auf den Fahrradschnellwegen erlaubt sind. Sobald jedoch auch Motorräder auf dem Fahrradschnellweg zugelassen werden, ist ein signifikanter Anstieg der Emissionen entlang des Fahrradschnellwegen in der Innenstadt von Patna zu beobachten, was die Notwendigkeit solche Verkehrsmittel von Fahrradschnellwegen zu verbannen verdeutlicht. Hierdurch wird im dritten Teil der Dissertation gezeigt, dass signifikante Emissionsreduktionen auch unter Bedingungen, in denen die Umsetzung von Bepreisungsmaßnahmen schwierig ist, erreicht werden können. Zusammenfassend liegt der Schwerpunkt dieser Dissertation auf der Bewertung von Bepreisungsmaßnahmen mittels eines Simulationsmodells mit dem Ziel nützliche Informationen für Entscheidungsträger abzuleiten, die geeignet sind, um negativen externen Effekten des Verkehrs sowohl in Industrie- als auch Entwicklungsländern entgegenzuwirken. Für letztere wird in dieser Arbeit ein effizientes Verkehrsflussmodell zur Simulation heterogener Verkehrsbedingungen vorgestellt. Schließlich wird in mehreren Fallstudien das Spektrum möglicher Maßnahmen auf Basis verschiedener Szenarien gezeigt.
BASE
Global climate change and land use change will not only alter entire ecosystems and biodiversity patterns, but also the supply of ecosystem services. A better understanding of the consequences is particularly needed in under-investigated regions, such as West Africa. The projected environmental changes suggest negative impacts on nature, thus representing a threat to the human well-being. However, many effects caused by climate and land use change are poorly understood so far. Thus, the main objective of this thesis was to investigate the impact of climate and land use change on vegetation patterns, plant diversity and important provisioning ecosystem services in West Africa. The three different aspects are separately explored and build the chapters of this thesis. The findings help to improve our understanding of the effects of environmental change on ecosystems and human well-being. In the first study, the main objectives were to model trends and the extent of future biome shifts in West Africa that may occur by 2050. Also, I modelled a trend in West African tree cover change, while accounting for human impact. Additionally, uncertainty in future climate projections was evaluated to identify regions with reliable trends and regions where the impacts remain uncertain. The potential future spatial distributions of desert, grassland, savanna, deciduous and evergreen forest were modelled in West Africa, using six bioclimatic models. Future tree cover change was analysed with generalized additive models (GAMs). I used climate data from 17 general circulation models (GCMs) and included human population density and fire intensity to model tree cover. Consensus projections were derived via weighted averages to: 1) reduce inter-model variability, and 2) describe trends extracted from different GCM projections. The strongest predicted effect of climate change was on desert and grasslands, where the bioclimatic envelope of grassland is projected to expand into the Sahara desert by an area of 2 million km2. While savannas are predicted to contract in the south (by 54 ± 22 × 104 km2), deciduous and evergreen forest biomes are expected to expand (64 ± 13 × 104 km2 and 77 ± 26 × 104 km2). However, uncertainty due to different GCMs was particularly high for the grassland and the evergreen forest biome shift. Increasing tree cover (1–10%) was projected for large parts of Benin, Burkina Faso, Côte d'Ivoire, Ghana and Togo, but a decrease was projected for coastal areas (1–20%). Furthermore, human impact negatively affected tree cover and partly changed the direction of the projected climate-driven tendency from increase to decrease. Considering climate change alone, the model results of potential vegetation (biomes) showed a 'greening' trend by 2050. However, the modelled effects of human impact suggest future forest degradation. Thus, it is essential to consider both climate change and human impact in order to generate realistic future projections on woody cover. The second study focused on the impact and the interplay of future (2050) climate and land use change on the plant diversity of the West African country Burkina Faso. Synergistic forecasts for this country are lacking to date. Burkina Faso covers a broad bioclimatic gradient which causes a similar gradient in plant diversity. Thus, the impact of climate and land use change can be investigated in regions with different levels of species richness. The LandSHIFT model from the Centre of Environmental System research CESR (Kassel, Germany) was adapted for this study to derive novel regional, spatially explicit future (2050) land use simulations for Burkina Faso. Additionally, the simulations include different assumptions on the technological developments in the agricultural sector. Oneclass support vector machines (SVMs), a machine learning method, were performed with these land use simulations together with current and future (2050) climate projections at a 0.1° resolution (cell: ~ 10 × 10 km). The modelling results showed that the flora of Burkina Faso will be primarily negatively impacted by future climate and land use changes. The species richness will be significantly reduced by 2050 (P < 0.001, paired Wilcoxon signed-rank test). However, contrasting latitudinal patterns were found. Although climate change is predicted to cause species loss in the more humid regions in Southern Burkina Faso (~ 200 species per cell), the model projects an increase of species richness in the Sahel. However, land use change is expected to suppress this increase to the current species diversity level, depending on the technological developments. Climate change is a more important threat to the plant diversity than land use change under the assumption of technological stagnation in the agricultural sector. Overall, the study highlights the impact and interplay of future climate and land use change on plant diversity along a broad bioclimatic gradient in West Africa.Furthermore, the results suggest that plant diversity in dry and humid regions of the tropics might generally respond differently to climate and land use change. This pattern has not been detected by global studies so far. Several of the plant species in West Africa significantly contribute to the livelihoods of the population. The plants provide so-called non-timber forest products (NTFPs), which are important provisioning ecosystem services. However, these services are also threatened by environmental change. Thus, the third study aimed at developing a novel approach to assess the impacts of climate and land use change on the economic benefits derived from NTFPs. This project was carried out in cooperation with Katja Heubach (BiK-F) who provided data on household economics. These data include 60 interviews that were conducted in Northern Benin on annual quantities and revenues of collected NTFPs from the three most important savanna tree species: Adansonia digitata, Parkia biglobosa and Vitellaria paradoxa. The current market prices of the NTFPs were derived from respective local markets. To assess current and future (2050) occurrence probabilities of the three species, I calibrated niche-based models with climate data (from Miroc3.2medres) and land use data (LandSHIFT) at a 0.1° resolution (cell: ~ 10 × 10 km). Land use simulations were taken from the previous study on plant diversity. Three different niche-based models were used: 1) generalized additive models (regression method), 2) generalized boosting models (machine learning method), and 3) flexible discriminant analysis (classification method). The three model simulations were averaged (ensemble forecasting) to increase the robustness of the predictions. To assess future economic gains and losses, respectively, the modelled species' occurrence probabilities were linked with the spatially assigned monetary values. Highest current annual benefits are obtained from V. paradoxa (54,111 ± 28,126 US$/cell), followed by P. biglobosa (32,246 ± 16,526 US$/cell) and A. digitata (9,514 ± 6,243 US$/cell). However, in the prediction large areas will lose up to 50% of their current economic value by 2050. Vitellaria paradoxa and Parkia biglobosa, which currently reveal the highest economic benefits, are heavily affected. Adansonia digitata is negatively affected less strongly by environmental change and might regionally even supply increasing economic benefits, in particular in the west and east of the investigation area. We conclude that adaptive strategies are needed to create alternative income opportunities, in particular for women that are responsible for collecting the NTFPs. The findings provide a benchmark for local policy-makers to economically compare different land use options and adjust existing management strategies for the near future. Overall, this thesis improves our understanding of the impacts of climate and land use changes on West African vegetation patterns, plant diversity and provisioning ecosystem services. Climate change had spatially varying impacts (positive and negative effects) on the vegetation cover and plant diversity, while predominantly negative effects resulted from human pressure. Regional contrasting impacts of environmental change were also found considering the provisioning ecosystem services. ; Die globalen Klima- und Landnutzungsveränderungen im 21. Jahrhundert werden die Ökosysteme der Erde und die damit zusammenhängenden Biodiversitätsmuster, Ökosystemdienstleistungen und somit auch das menschliche Wohlergehen grundlegend beeinflussen. Aus der Vergangenheit sind Massenaussterbeereignisse bekannt, die durch globale Klimaveränderungen hervorgerufen wurden. Temperatur- und Niederschlagsveränderungen im Quartär haben nachweislich zu enormen Nord-Süd-Verschiebungen gesamter Biome geführt. Seit Beginn der Industrialisierung hat der anthropogen verursachte Klimawandel bereits nachweisbare Effekte auf Biome, Biodiversität und Ökosystemdienstleistungen gezeigt. Vielfach verschieben sich gesamte Vegetationseinheiten und damit auch Habitate für Pflanzen und Tiere entlang von Breitengraden und Höhengradienten. Dabei wirken sich die klimatischen Veränderungen besonders stark auf die gemäßigten Breiten und die polaren bzw. alpinen Regionen aus. Im Gegensatz zu den Tropen scheint in diesen Regionen der Landnutzungswandel eine weniger wichtige Rolle zu spielen. Die tropischen Regionen zeichnen sich durch eine enorme Artenvielfalt aus, aber großenteils auch durch Armut in der Bevölkerung. Das hohe Bevölkerungswachstum und die teilweise rasante ökonomische Entwicklung tropischer Länder führt zu einer tiefgreifenden Umwandlung der natürlichen Ökosysteme und damit zu einer Bedrohung der Biodiversität und Ökosystemdienstleistungen. Die Zusammenhänge und Auswirkungen sind allerdings oft unzureichend verstanden, vor allem die tropischen Regionen betreffend. Die Mehrzahl der Studien über die Auswirkungen des Klimawandels beziehen sich auf die Industrienationen und dominieren gegenüber Studien bezüglich der Auswirkungen von Landnutzungswandel. Des Weiteren werden die Konsequenzen von Klima- und Landnutzungswandel oft nur singulär untersucht und nicht in ihrem Zusammenwirken. Dabei ist bekannt, dass es durch die Kombination der beiden Faktoren zu unerwarteten, synergistischen Effekten kommen kann. Ein besseres Verständnis der Auswirkungen von Klima- und Landnutzungswandel ist deshalb vor allem in unzureichend untersuchten Gebieten wie Westafrika notwendig. Das Hauptziel dieser Arbeit ist daher, den Einfluss von Klima- und Landnutzungsveränderungen auf großskalige Vegetationsmuster, Pflanzenvielfalt und wichtige Ökosystemdienstleistungen in Westafrika zu untersuchen. Die drei verschiedenen Aspekte wurden in separaten Studien behandelt und bilden eigenständige Kapitel in dieser Arbeit. Die Erkenntnisse verbessern das Verständnis bezüglich der Auswirkungen von Umweltveränderungen auf Ökosysteme und schließlich auf das menschliche Wohlergehen. In der ersten Studie wurden - unter Verwendung statistischer Modelle - Prognosen, über die zukünftige Verbreitung westafrikanischer Biome im Jahr 2050 erstellt. Des Weiteren wurden Trends über potentielle Veränderungen der Baumbedeckung in Westafrika unter Berücksichtigung des menschlichen Einflusses ermittelt. Zusätzlich wurden die Unsicherheiten analysiert, die mit den Klimaprojektionen in Verbindung stehen, um Aussagen über verlässliche Trends treffen zu können. Um potentielle, zukünftige Biomveränderungen quantifizieren zu können, kamen sechs verschiedene Nischenmodelle zur Anwendung. Veränderungen in der Baumbedeckung wurden unter Verwendung der Regressionsmethode 'generalized additive models' (GAMs) untersucht. Die Studie berücksichtigt 17 verschiedene Klimamodelle. Um die Veränderungen in der Baumbedeckung besser abbilden zu können, wurden die menschliche Bevölkerungsdichte und die Feuerintensität in die Modelle integriert Konsensusprojektionen dienten einer Reduzierung der interspezifischen Modellvariabilität, aber auch der Beschreibung von Trends, die sich aus den verschiedenen Klimamodellen ergaben. Die Konsensusprojektionen wurden über gewichtete Mittelwerte gebildet. Deren Anwendung ist neu im Bereich der Ökologie und Biogeographie. Bisherige Untersuchungen zeigten, dass mit Konsensusprojektionen robustere Vorhersagen getroffen werden können. Bei den Ergebnissen wird deutlich, dass die Wüsten- und Graslandbiome am stärksten vom prognostizierten Klimawandel betroffen sind. Die bioklimatische Nische des Graslandes wird sich demnach um 2 Millionen km2 nach Norden in das Wüstenbiom ausdehnen. Die Savannen werden im Süden an Fläche verlieren (54 ± 22 × 104 km2), während sich laubwerfende Wälder und immergrüne, tropische Regenwälder ausdehnen (64 ± 13 × 104 km2 bzw. 77 ± 26 × 104 km2). Die Variabilität der Klimaprojektionen führt allerdings zu großen Unsicherheiten, gerade in Bezug auf die Ausdehnung des Graslandes und der immergrünen Regenwälder. Eine höhere Baumbedeckung im Jahr 2050 (1–10%) wurde für große Teile von Benin, Burkina Faso, Côte d'Ivoire, Ghana und Togo prognostiziert; für die Küstenregionen wurde eine Abnahme der Baumbedeckung projiziert (1–20%). Der Trend über die Abnahme der Baumbedeckung ist hierbei robuster als der Trend über die Zunahme. Außerdem konnte gezeigt werden, dass sich der menschliche Einfluss negativ auf die Baumbedeckung auswirkt. Dies beruht auf dem empirischen Zusammenhang, dass sich die menschliche Bevölkerungsdichte indirekt proportional zur Baumbedeckung verhält. Teilweise wurde durch den menschlichen Einfluss eine Umkehr des projizierten zukünftigen Trends in der Baumbedeckung beobachtet, von einer Zunahme (klimatischer Einfluss) zu einer Abnahme (klimatischer und menschlicher Einfluss). Besonders auffällig war dieser Effekt in großen Teilen Nigerias. Lässt man den direkten menschlichen Einfluss außer Acht und betrachtet lediglich den Effekt von Klimawandel auf die potentielle Vegetation (Biome), zeigt sich ein Trend zur Ergrünung bis zum Jahr 2050. Allerdings deuten die modellierten Effekte des menschlichen Einflusses auf eine Degradierung der Wälder hin. Dies ist häufig ein Auslöser für Erosion und beginnende Desertifikationsprozesse. Die Studie macht daher die Notwendigkeit deutlich, sowohl den Klimawandel als auch den menschlichen Einfluss und vor allem deren Zusammenwirken zu betrachten, um realistische Zukunftsprojektionen über künftige Baumbedeckung zu generieren. Baumbedeckung korreliert allerdings nicht zwangsläufig mit Diversität. Deshalb wurde in der zweiten Studie untersucht, welche Einflüsse der künftige Klima- und Landnutzungswandel (2050) und das Zusammenwirken der beiden Faktoren auf die Pflanzenvielfalt haben. Dies wurde in dem westafrikanischen Land Burkina Faso untersucht, das sich besonders als Modellregion eignet, da es einen Großteil des westafrikanischen, bioklimatischen Gradienten aufweist. Außerdem besteht in diesem Land eine außerordentlich gute Datengrundlage bezüglich der Pflanzenverbreitung aufgrund langjähriger Kooperationen. Der bioklimatische Gradient spiegelt sich ebenfalls in der Pflanzenvielfalt wider, weshalb die Effekte von Klima- und Landnutzungswandel in Regionen mit unterschiedlicher Pflanzenvielfalt untersucht werden können. Derartige synergetische Effekte von Klima- und Landnutzungswandel wurden in diesem Land bisher noch nicht untersucht. Dies mag unter anderem am Mangel zukünftiger Landnutzungsszenarien liegen. Aus diesem Grund wurde das bestehende globale und kontinentale Landnutzungsmodell LandSHIFT vom Centre of Environmental System Research (Kassel, Deutschland) speziell für diese Studie angepasst, um neue, räumlich explizite Landnutzungssimulationen in Burkina Faso und den Anrainerstaaten für die Gegenwart und die Zukunft (2050) zu generieren. Die Simulationen beinhalten zusätzlich zwei verschiedene Annahmen über die technische Entwicklung im landwirtschaftlichen Bereich: technologische Stagnation und eine Entwicklung gemäß des "markets-first" Szenarios (GEO-4). Diese Landnutzungssimulationen dienten zusammen mit Klimadaten aus Gegenwart und Zukunft (2050) als Prädiktoren in one-class support vector machines (SVMs). Dies ist ein Algorithmus aus dem Bereich der machine-learning methods, der eine überdurchschnittliche Modellgüte aufweist. Die Simulationen wurden in einer Auflösung von 0.1° generiert. Die Ergebnisse zeigen, dass sich die Klima- und Landnutzungsveränderungen hauptsächlich negativ auf die Pflanzenvielfalt in Burkina Faso auswirken. Allerdings wurden, in Abhängigkeit des Breitengrades, divergierende Muster gefunden. Demnach wird der Klimawandel im humideren Süden des Landes zu einem großen Artenverlust führen (~200 Arten pro Gridzelle). Im Sahel dagegen wurde eine Erhöhung der Pflanzenvielfalt projiziert. Der Landnutzungswandel wirkt - in Abhängigkeit der sozio-ökonomischen Annahmen - diesem Trend allerdings entgegen, womit die Pflanzenvielfalt im Sahel auf dem heutigen Niveau verbleibt. Unter der Annahme einer technologischen Stagnation im landwirtschaftlichen Sektor zeigt der Klimawandel einen gravierenderen Effekt auf die Pflanzenvielfalt als der Landnutzungswandel. Ferner konnte in der Studie gezeigt werden, dass technologische Entwicklungen im landwirtschaftlichen Sektor zu einem geringeren Flächenverbrauch führen, da mehr Erträge pro Hektar erwirtschaftet werden können. Der geringere Flächenbedarf landwirtschaftlich genutzter Flächen wirkt sich positiv auf die Pflanzenvielfalt in Burkina Faso aus. Allerdings gehen mit dem technologischen Wandel auch Nutzungsveränderungen einher, wie z.B. erhöhter Mechanisierungsgrad, Einsatz von Bioziden, verkürzte Brachzeiten. Derartige Effekte konnten nicht berücksichtigt werden. Insgesamt wurde in dieser Studie, entlang eines starken bioklimatischen Gradienten in Westafrika, aufgezeigt wie sich Klima- und Landnutzungswandel einzeln und in Kombination auf die Pflanzenvielfalt auswirken. Die Ergebnisse deuten daraufhin, dass die Pflanzendiversität in trockenen und feuchten Gebieten der Tropen generell unterschiedlich auf Klima- und Landnutzungsveränderungen reagiert. Derartige Muster konnten auf dem afrikanischen Kontinent mit global-skaligen Studien bisher nicht identifiziert werden. Viele der Pflanzen in Westafrika tragen wesentlich zum Lebensunterhalt der Bevölkerung bei. Sie liefern wichtige Ökosystemdienstleistungen in Form der sogenannten non-timber forest products (NTFPs). Allerdings sind auch diese von Umweltveränderungen bedroht. Ziel der dritten Studie war daher, einen neuen Ansatz zu entwickeln, mit dem sich der Einfluss von Klima- und Landnutzungsveränderungen auf den ökonomischen Nutzen von NTFPs abschätzen lässt. Dieses Projekt ist durch eine Kooperation mit meiner Kollegin Katja Heubach am BiK-F entstanden, die insgesamt 60 Interviews in Nordbenin durchgeführt hat um jährliche Sammelmengen und entsprechende Erlöse von NTFPs zu ermitteln. Die Befragungen konzentrierten sich auf die drei wichtigsten Savannenbaumarten in Nordbenin: Adansonia digitata, Parkia biglobosa und Vitellaria paradoxa. Vor allem die Früchte und Samen dieser Arten dienen als wichtige Nahrungsergänzung wegen der darin enthaltenen Proteine und Vitamine. Die jeweiligen Marktpreise wurden auf lokalen Märkten erfragt, in deren Umgebung die Umfragen stattfanden. Zudem wurden mittels GPS die Koordinaten aller Bäume erfasst, die von den Befragten besammelt wurden. Mit diesen räumlichen Daten konnte ein Flächenbezug der ökonomischen Haushaltsdaten hergestellt werden. Für die Erstellung der Karten über die monetäre Bedeutung der NTFPs wurden zusätzliche Bevölkerungsstatistiken in Nordbenin berücksichtigt. Um die heutigen und zukünftigen (2050) Auftrittswahrscheinlichkeiten der drei Savannenarten zu bestimmen, wurden Nischenmodelle mit Klimadaten (von Miroc3.2medres, Center for Climate System Research, Japan) und Landnutzungsdaten kalibriert. Das Landnutzungsmodell LandSHIFT lieferte Landnutzungsdaten unter der Annahme technologischer Stagnation. Die Simulationen basieren auf einer 0.1° Auflösung. Drei verschiedene Nischenmodelle kamen zur Anwendung: 1) generalized additive models (Regressionsmethode), 2) generalized boosting models (machine learning-Methode) und 3) flexible discriminant analysis (Klassifikationsmethode). Die drei Modellsimulationen wurden gemittelt (ensemble forecasting) um die Robustheit der Projektionen zu erhöhen. Um die zukünftigen potentiellen Gewinne bzw. Verluste zu bestimmen, wurden die generierten Auftrittswahrscheinlichkeiten der Arten mit den räumlich zugewiesenen monetären Werten verknüpft. Die derzeitig höchsten Erlöse pro Jahr erzielte die Art Vitellaria paradoxa (54.111 ± 28.126 US$/Gridzelle), gefolgt von Parkia biglobosa (32.246 ± 16.526 US$/Gridzelle) und Adansonia digitata (9.514 ± 6.243 US$/Gridzelle). Allerdings zeigen die Zukunftsprojektionen für das Jahr 2050, dass große Flächen in Nordbenin bis zu 50% dieses ökonomischen Wertes verlieren könnten. Am stärksten betroffen sind dabei die Arten Vitellaria paradoxa und Parkia biglobosa, die derzeit den höchsten Nutzwert haben. Adansonia digitata wird weniger stark aber ebenfalls negativ beeinflusst werden in weiten Teilen von Nordbenin. Hier zeigen sich jedoch regional ausgeprägte Unterschiede. Vor allem im Westen und im Osten des Untersuchungsgebietes können die Umweltveränderungen zu erhöhten Auftrittswahrscheinlichkeiten und damit höheren Erlösen im Jahr 2050 führen. Insgesamt zeigen die Ergebnisse, dass Adaptationsmaßnahmen erforderlich sind um alternative Einkommensquellen zu erschließen. Dies gilt insbesondere für Frauen, die für das Sammeln der NTFPs verantwortlich sind. Die Ergebnisse liefern Politikern eine Orientierungsmöglichkeit um verschiedene Landnutzungsoptionen ökonomisch zu vergleichen und etwaige Anpassungen von rezenten Nutzungsstrategien vorzunehmen. Die Arbeit trägt in ihrer Gesamtheit dazu bei, Wissenslücken in einer bisher unzureichend untersuchten Region zu schließen. Mit Hilfe von Modellsimulationen wurden die Effekte von Klima- und Landnutzungsveränderungen auf großskalige Vegetationsmuster, Pflanzenvielfalt und Ökosystemdienstleistungen in Westafrika untersucht. Während sich der Klimawandel regional sehr unterschiedlich auf die Vegetationsmuster und die Pflanzenvielfalt auswirken wird, zeigte der menschliche Einfluss überwiegend negative Effekte. In Folge der Umweltveränderungen wird sich zusätzlich der ökonomische Nutzen von NTFPs verändern, was ebenfalls regional unterschiedlich ausfallen kann.
BASE
GESCHICHTE DES STEIRISCHEN K. U. K. INFANTERIE-REGIMENTES NR. 27 BAND II Geschichte des Steirischen K. u. K. Infanterie-Regimentes Nr. 27 (-) Geschichte des Steirischen K. u. K. Infanterie-Regimentes Nr. 27 Band II (II. / 1937) ( - ) Einband ( - ) Titelseite ([III]) Impressum ([IV]) Inhaltsverzeichnis (VII) Verzeichnis der Bildtafeln (IX) Skizzenverzeichnis (X) Verzeichnis der verwendeten Abkürzungen (XI) Ergänzungen (XI) Die Einleitung der Frühjahrsoffensive aus Südtirol 1916 (1) Vorbereitung und Versammlung der Streitkräfte (1) Der Aufmarsch und die Gegenmaßnahmen des Feindes Skizzen 3, 4 (3) Die Wartezeit (6) Das I. Bataillon an der Isonzofront (8) In der Stellung bei Selz (29. April bis 8. Mai 1916) Skizze 1 (8) Kampf um die Adriawerke (15. Mai 1916) Skizzen 1, 2 (12) Die Schlacht bei Folgaria und Lavarone (15. bis 26. Mai 1916) Skizzen 3, 4 (19) Offizierseinteilung am 15. Mai 1916 (20) Regimentsstab. I. Baon. (20) II. Baon. (20) III. Baon. IV. Baon. (21) Ordre de bataille der 6. ID.: (26) Die Schlacht bei Asiago und Arsiero (27. Mai bis 16. Juni 1916) (28) Die Absichten für die Fortführung der Offensive (28) Fortschreiten der Offensive auf der Hochfläche der Sieben Gemeinden - Die Einnahme von Asiago (27. bis 29. Mai 1916) Skizze 4 (29) Die Kämpfe auf der Hochfläche der Sieben Gemeinden (29. Mai bis 8. Juni 1916) (32) [Abb.]: Tafel 1 Blick vom Werk Lusern auf das Angriffsgelände des III. Korps ( - ) [Abb.]: Tafel 2 Rundblick vom Mt. Zebio über die Sieben Gemeinden ( - ) Die Eroberung des Mt. Cimon (30. Mai 1916) Skizze 5 (34) Die Kämpfe im Melettagebiete (31. Mai bis 8. Juni 1916) Skizzen 6, 8 (41) Das Kampfgelände - Angriffsvorbereitungen - Das Gefecht bei Fontana Tre Pali (41) [2 Abb.]: Tafel 3 (1)Val di Galmarara (2)Mt. Zebio ( - ) [2 Abb.]: Tafel 4 (1)Mt. Meletta (rechts) - Castelgomberto (links) (2)Mt. Meletta, Luftbild vom 4. Juni 1916 ( - ) Der erste Angriff auf den Mt. Meletta (5. Juni 1916) Skizze 6 (51) Die Eroberung des Mt. Meletta (7. Juni 1916) Skizze 8 (59) [2 Abb.]: Tafel 5 (1)Mt. Meletta, Luftbild vom 5. Juni 1916 (2)Val di Campo Mulo ( - ) [Abb.]: Melettamassiv Blick von Mt. di Val Bella gegen Nord. Links Mt. Longara, Eingang in die Val di Campo mulo, Mt. Meletta di Gallio und dessen südlicher Ausläufer, Mt. Zomo; rechts Mt. Meletta (Mt. Fior); am Bergfuße Straße nach Foza ( - ) Der Fall des Mt. Castelgomberto (8. Juni 1916) (75) Der Ausklang der Offensive (9. bis 16. Juni 1916) Skizze 4 (77) Abwehrkämpfe im Melettagebiete und am Grenzkamme (9. bis 24. Juni 1916) Skizzen 7, 9 (80) Das Beziehen der Dauerstellung und das Nachstoßen der Italiener (24. bis 30. Juni 1916) Skizzen 10, 11 (89) Die Abwehrschlacht auf der Hochfläche von Asiago (1. bis 24. Juli 1916) Skizzen 10, 11 (96) [2 Abb.]: Tafel 7 (1)Italienische Stellungen gegenüber Mt. Forno (2)Italienische Stellungen gegenüber Mt. Forno. In der Bildmitte die feindliche Vorstellung mit "nördlicher Burg" (links); rechts Mt. Paló und Spitzkegerle; vorne die eigene Wehrstellung ( - ) [3 Abb.]: Tafel 8 (1)Roccolo mit Mt. Forno im Hintergrunde (2)Schneetunnel auf Mt. Forno (3)Fornograben mit Mt. Chiesa ( - ) Die Kriegslage der Mittelmächte um die Monatswende Juli-August 1916 (108) In der Dauerstellung Mt. Forno - Roccolo (Erste Zeitperiode: 31. Juli bis 31. Dezember 1916) Skizze 12 (110) [2 Abb.]: Tafel 9 (1)Blick gegen Hohe Gaisl (2)Blick ins Travenanzestal gegen Norden. Rechts Tofana I, im Hintergrunde Vallon bianco und Furcia-Rossa-Spitzen ( - ) [2 Abb.]: Tafel 10 (1)Travenanzes (Talmitte) Rechts Tofana III, im Hintergrunde Hohe Gaisl (2)Ponte alto. Italienische Stellungen in dem durch die Bildmitte ziehenden Waldstreifen ( - ) [2 Abb.]: Tafel 11 (1)Col Rosa (2)Italienische Wehrstellung am Fiorenzasattel (links oben) gegenüber Fanessperre ( - ) [2 Abb.]: Tafel 12 (1)Lorto. Auf dem Schneeberge im unteren Bildteile Stellung der 12. a-Kompagnie; oberhalb auf dem beschneiten Felsbande standen sich eine eigene und eine feindliche Feldwache auf dreißig Schritte gegenüber (2)Son Pauses. Die eigenen Stellungen ziehen sich durch die Bildmitte ( - ) Fanes - Travenanzes - Gottres Skizzen 15, 16 (129) Die Dolomitenfront (129) Der Kampfabschnitte Fanes - Travenanzes (130) Die Ereignisse im Kampfabschnitte Fanes - Travenanzes von Kriegsbeginn bis Herbst 1916 (132) Das III. Bataillon in den Kampfabschnitten Fanes - Travenanzes - Gottres (20. September 1916 bis 2. Jänner 1917) (136) [Abb.]: Tafel 13 Col di Lana - Mt. Sief - Settsaß ( - ) [2 Abb.]: Tafel 14 (1)Blick von Settsaß auf Col di Lana (links) - Siefgrat - Knotz - Sprengscharte - Mt. Sief - Siefsattel - Marmolata (im Hintergrunde rechts) (2)Sprengscharte zwischen Mt. Sief (links) - Knotz (rechts) von der italienischen Sprengung am 6. März 1917 ( - ) Politik und Kriegslage um die Jahreswende 1916/17 und deren Entwicklung bis Sommer 1917 (145) Rückblick auf die Kämpfe im Sommer und Herbst 1916 (145) Vergebliche Friedensschritte (148) Feldzugspläne für 1917 und deren Wandlung - Entwicklung der Kriegslage bis Sommer 1917 (149) Die österreichisch-ungarische Wehrmacht im Frühjahre 1917 (155) Verbrauch und Ersatz der Menschenkräfte in den Jahren 1915, 1916 (155) Der Ausbau der Wehrmacht (156) Conrads Sturz und die neue Heeresleitung (158) Monte Sief (160) Kämpfe um den Col di Lana und den Mt. Sief 1915/16 Skizze 15, 17 (160) [2 Abb.]: Tafel 15 (1)Col di Lana - Mt. Sief - Siefsattel - Settsaß vom Sasso di Stria mit Marmolata im Hintergrunde (2)Mt. Sief mit Sprengscharte Volltreffer in eigener "Rechtsstellung" ( - ) [2 Abb.]: Tafel 16 (1)Blick von Mt. Sief auf italienische Feldwache 6 der "Rotschanze" gegenüber eigener "Rechtsstellung" (2)Mt. Sief Sprengscharte vom Vedettenstand der Feldwache 4 aufgenommen ( - ) Das III. Bataillon auf Mt. Sief (162) Der Minenkrieg Skizzen 18, 19 (167) Unternehmung gegen die feindliche Rotschanze-Feldwache (22. Februar 1917) Skizze 20 (170) Die italienische Sprengung auf dem Siefgrate am 6. März 1917 Skizzen 18, 19 (174) [Abb.]: Tafel 17 Mt.-Sief-Hang mit italienischer "Rotschanze" und eigener Feldwache 2 (im Vordergrunde) (Nachtaufnahme vom 20. März 1917) ( - ) [Abb.]: Tafel 18 Italienische "Rotschanze-Feldwache" und eigene Feldwache 2 (im Vordergrunde) (Nachtaufnahme bei Raketenbeleuchtung am 26. März 1917 - "Aktion im Schnee") ( - ) Aktion im Schnee (26. März 1917) Skizze 21 (179) Die letzten Tage auf Mt. Sief (181) In der Dauerstellung Mt. Forno - Roccolo (2. Zeitperiode: 1. Jänner bis 9. Juni 1917) Skizzen 12, 13, 14 (182) [2 Abb.]: Tafel 19 (1)Borchetta di Portule (Portulescharte, Kote 1949) mit Seilbahnstation (2)Mecenseffystraße mit Mt. Forno (links) ( - ) [2 Abb.]: Tafel 20 (1)Mt. Forno (Westseite) (2)Mt. Forno (Südgipfel) - Roccolo (rechts) ( - ) Die Abwehrschlacht auf der Hochfläche der Sieben Gemeinden (10. bis 29. Juni 1917) Skizzen 10, 12, 13 (196) Allgemeine Lage (196) Anzeichen eines bevorstehenden Angriffes auf der Hochfläche - Vorbereitende Maßnahmen der höheren Führung zu dessen Abwehr (198) Der 10. Juni 1917 (201) Offizierseinteilung des III. Bataillons auf Mt. Forno (201) Die Zwischenzeit bis zur Abwehrschlacht (11. bis 17. Juni 1917) (208) [2 Abb.]: Tafel 21 (1)Blick auf Mt. Forno aus den Kampfgräben am Corno di Campo bianco (2)Corno di Campo bianco und Standort des Regimentskommandos ( - ) [2 Abb.]: Tafel 22 (1)Preßberichtballon hinter Mt. Forno (2)Deutsche Kameraden auf Mt. Forno (Herbst 1917; in der Mitte Major Righetti) ( - ) Der 18. und 19. Juni 1917 (210) Das Ende der Junischlacht (221) In der Dauerstellung Mt. Forno - Roccolo (letzte Zeitperiode: 30. Juni bis 9. November 1917) (224) [Abb.]: Tafel 23 Mt. Forno (Südseite) ( - ) [Abb.]: Tafel 24 Mt. Forno (Ostseite) während der Junischlacht (Aufnahme am 17. Juni 1917 nachmittags) ( - ) Die Herbstoffensive 1917 gegen Italien (231) Vom Isonzo zum Piave (231) Die Herbstoffensive 1917 aus Südtirol (235) Entschluß und Vorbereitungen (235) Die Kämpfe auf der Hochfläche von Asiago (238) [2 Abb.]: Tafel 25 (1)Blick gegen Mt. Interrotto (2)Kirche von Asiago (ohne Turm) ( - ) [2 Abb.]: Tafel 26 (1)Mt. Longara (2)Blick von Mt. Longara auf Asiago und Bosco di Gallio (Bildmitte) ( - ) Die Kämpfe um den Monte Longara Skizzen 22, 23, 24 (243) Die erste Erstürmung des Mt. Longara am 11. November 1917 (243) [Abb.]: Tafel 27 Angriffsraum auf Mt. Longara ( - ) [4 Abb.]: Tafel 28 (1)Monte Longara (Bildmitte) (2)Cra Longara di dietro von Cra. Longara d'avanti (3)Le-Tese-Rücken (westlich des Mt. Longara) (4)Mt. Longara mit italienischen Stellungen am Nordhange der Kuppe ( - ) Die zweite Erstürmung des Mt. Longara am 12. November 1917 (257) Die Kämpfe um den Hochrücken Mt. Meletta di Gallio - Mt. Zomo und an der Frenzelaschlucht (261) Ereignisse am 13. und 14. November 1917 Skizzen 24, 25 (261) Die Erstürmung der Casara Meletta di Gallio durch das III. Bataillon am 15. November 1917 Skizzen 26, 27 (266) Die Erstarkung des feindlichen Widerstandes Skizze 28 (271) [2 Abb.]: Tafel 29 (1)Mt. Meletta di Gallio mit italienischer Wehrstellung (Luftbild) (2)Mt. Meletta di Gallio mit italienischen Stellungen ( - ) [2 Abb.]: Tafel 30 (1)Italienische Gräben auf Mt. Meletta di Gallio (Trigonometer 1674 m) (2)Carsara Meletta di Gallio ( - ) Erfolgreiche Abwehr des italienischen Angriffes auf Casara Meletta di Gallio durch das III. Bataillon (17. November 1917) (274) Auf dem Tanzerrücken und am Longaranordhange (18. bis 28. November 1917) Skizzen 28, 29 (277) Rückblick über die Novemberkämpfe (283) An der Assa (1. bis 4. Dezember 1917) Skizze 33 (284) Der Ausklang der Offensive (286) Das IV. Bataillon während der Abtrennung vom Regimente (9. August bis 19. Dezember 1917) (292) Fahrt ins Fleimstal (292) Auf Mt. Rasta und in der Assasperre (25. August bis 8. November 1917) (293) Offizierseinteilung des IV. Bataillons anfangs November 1917 (294) In Camporovere und in der Assaschlucht (12. bis 28. November 1917) (295) Im Melettagebiete (30. November bis 19. Dezember 1917) (296) Monte di Val Bella Skizze 30, 31 (302) Die Erstürmung des Monte di Val Bella am 23. Dezember 1917 (302) [Tabelle]: Standtabelle (303) [2 Abb.]: Tafel 31 (1)Asiago mit Mt. Sisemol (2)Valle dei Ronchi mit Mt. Longara ( - ) [2 Abb.]: Tafel 32 (1)Gallio mit Mt. di Val Bella (2)In den erstürmten Gräben auf Mt. di Val Bella ( - ) [Tabelle]: Die Verluste des Regimentes am 23. und 24. Dezember betrugen: (311) Stellungskrieg auf Mt. di Val Bella (26. Dezember 1917 bis 25. Jänner 1918) Skizze 32 (313) Die Kriegslage zu Beginn des Jahres 1918 (317) [2 Abb.]: Tafel 33 (1)FM. Conrad v. Hötzendorf besichtigt das Regiment in Bozen (Vom Feldmarschall rechts GM v. Schilhawsky, Kommandant der 6. ID., links Mjr. Fröhlich, interimistischer Regimentskommandant) (2)Assaschlucht (Blick gegen Osten; in der Mitte die von den Italienern gesprengte Brücke) ( - ) [Abb.]: Tafel 34 Blick über die Assaschlucht gegen Mt. Erio (Auf der rechten Bildseite die Val Grabo, links oberhalb der Ort Sartori) ( - ) Retablierung in Bozen (29. Jänner bis 2. März 1918) (323) In der Stellastellung an der Assaschlucht (8. März bis 3. Mai 1918) Skizzen 33, 34 (325) Die Junischlacht in Venetien Skizzen 33, 34 (331) Vorbereitungen (331) Offizierseinteilung am 9. Mai 1918 (335) Regimentsstab. I. Baon. (335) II. Baon. (335) III. Baon. (336) [Abb.]: Tafel 35 Blick in die Mühlbachschlucht auf Roana. Im Vordergrunde die Assaschlucht ( - ) [2 Abb.]: Tafel 36 (1)Stellawerk (2)Blick über die Assaschlucht auf Roana, Friedhof von Canove, Mt. Interrotto, Mt. Verena ( - ) Vormarsch in die Ausgangsstellungen (338) Der 15. Juni 1918 (342) [2 Abb.]: Tafel 37 (1)Regimentskommando in der Assaschlucht (2)Stellawerk und Stellahaus ( - ) [2 Abb]: Tafel 38 (1)Canove di sotto (2)Gesprengte Assabrücke ( - ) An der Assaschlucht (16. Juni bis 17. September 1918) Skizze 35 (358) Einstellen der Offensive (358) Das Regiment im Stellungsabschnitte Canove di sotto - Canove di sopra (16. Juni bis 2. August 1918) Skizze 35 (359) In der Vorfeldzone (3. bis 27. September 1918) (363) Die Militärische und politische Lage im Herbst 1918 (366) [Abb.]: Tafel 39 Britisches Luftbild (oben der Friedhof von Canove, unten die Assaschlucht) ( - ) [Abb.]: Tafel 40 Britisches Luftbild (links oben Canove di sotto, Mitte Stellawerk, rechts Ambrosini, unten die Assaschlucht) ( - ) In der Kampfzone an der Assa (24. Oktober bis 1. November 1918) (370) Das Ende (377) Das XIX und das XX. Marschbataillon (386) Das XIX. Marschbataillon Skizze 36 (387) Das XX. Marschbataillon Skizze 37 (392) Offizierseinteilung Ende Juni 1916 (392) Das Ersatzbataillon (397) Allgemeines (397) Vom Stande des Ersatzbataillons (403) [Tabelle]: Wie rasch das Reservoir an Wehrfähigen im Laufe des Krieges sank, erhellt aus der ziffernmäßigen Darstellung nach Kriegsjahren und aus dem prozentuellen Verhältnisse der Jahreskontingente zueinander: (404) Verluste des Feldregimentes (405) [Tabelle]: Tabelle über Verluste des Feldregimentes von Kriegsbeginn bis 15. Juli 1916 (405) Organisationsbild des Ersatzbataillons (406) Übersicht über Marschbataillone (408) Ehrenbuch der Toten ([413]) [Abb.]: Tafel 41 Fornokreuz nach der Junischlacht 1917 ( - ) [Vorwort]: ([415]) Die Grundlagen für die Verfassung des Ehrenbuches der Toten (417) A (419) B (420) C (425) D (426) E (428) F (430) G (435) H (441) I, J (450) K (452) L (462) M (467) N (473) O (474) P (476) Q (482) R (482) S (488) T (504) U (507) V (508) W (509) Z (515) Auszeichnungen der Regimentsangehörigen im Weltkriege (519) Vorbemerkung (519) [2 Tabellen]: Summarisches Verzeichnis der an Angehörige des IR. 27 im Weltkriege verliehenen Auszeichnungen (1)a) Offiziere und Gleichgestellte (2)b) Personen des Mannschaftsstandes (520) Namensverzeichnis der Regimentsangehörigen, die für Leistungen außerhalb des Regimentes Auszeichnungen erhielten, und aller - laut Personal-Verordnungsblätter - vom Jahre 1918 an mit der silbernen Tapferkeitsmedaille 2. Kl., von Beginn des Jahres 1917 bis Ende Februar 1918 mit der bronzenen Tapferkeitsmedaille Beteilten. Sie sind im Texte des Werkes nicht erwähnt. (521) Offizierskreuz des Franz-Joseph-Ordens. Ritterkreuz des Leopold-Ordens. Orden der Eisernen Krone 3. Kl. Goldene Tapferkeitsmedaille für Offiziere. Ritterkreuz des Franz-Joseph-Ordens. Militärverdienstkreuz 3. Kl. zum zweitenmal. (521) Militärverdienstkreuz 3. Kl. (521) Silberne Tapferkeitsmedaille 1. Kl. für Offiziere. Silberne Militärverdienstmedaille zum zweitenmal. Silberne Militärverdienstmedaille. (522) Bronzene Militärverdienstmedaille. (522) Goldenes Verdienstkreuz mit der Krone. Goldenes Verdienstkreuz. (524) Silbernes Verdienstkreuz mit der krone. (524) Silbernes Verdienstkreuz. Goldene Tapferkeitsmedaille. Silberne Tapferkeitsmedaille 1. Kl. zum viertenmal. Silberne Tapferkeitsmedaille zum drittenmal. Silberne Tapferkeitsmedaille zum zweitenmal. (525) Silberne Tapferkeitsmedaille 1. Kl. (525) Silberne Tapferkeitsmedaille 2. Kl. zum drittenmal (528) Silberne Tapferkeitsmedaille 2. Kl. zum zweitenmal (528) Silberne Tapferkeitsmedaille 2. Kl. (530) Bronzene Tapferkeitsmedaille zum zweitenmal (546) Bronzene Tapferkeitsmedaille zum zweitenmal (547) [Tabelle]: Anzahl der Auszeichnungen laut obigem Verzeichnisse: ([563]) Personenverzeichnis (565) A, B (565) C (565) D - F (566) G (566) H (567) I, J (568) K (568) L (569) M (569) N, O (570) P (570) Q, R (571) S (571) T - W (573) Z ( - ) [2 Karten]: (1)Skizze 1 Südflügel der Isonzofront anfangs Mai 1916. (2)Skizze 2 Kampf um die Adriawerke am 15. Mai 1916. (1) [Karte]: Skizze 3 Endgültiger Angriffsplan der Heeresgruppe Erzherzog Eugen (2) [Karte]: Skizze 4 Die Lage am 26. Mai 1916 am 12. Juni 1916 (3) [Karte]: Skizze 5 Erstürmung des Mt. Cimon am 30. Mai 1916 (4) [2 Karten]: (1)Skizze 6 Der erste Angriff auf Mt. Meletta am 5. Juni 1916 (2)Skizze 7 I. III. IV. Bataillon im Melettagebiete Lage am 20. Juni 1916 (5) [Karte]: Skizze 8 Erstürmung des Mt. Meletta am 7. Juni 1916 (6) [2 Karten]: (1)Skizze 9 Lage am Grenzkamm am 17. Juni 1916 abends (2)Skizze 10 Kampfraum Lepozze - Ortigara - Campigoletti - Chiesa (7) [Karte]: Skizze 11 Kampfabschnitt Mt. Colombaro Juli 1916 (8) [Karte]: Skizze 12 Kampfraum um Mt. Forno 1916/17 (9) [Karte]: Skizze 13 Kampfabschnitt Mt. Forno Frühjahr 1917 (10) [Karte]: Skizze 14 Schneetunnel Unternehmung auf Mt. Forno am 15. März 1917 (11) [Karte]: Skizze 15 Bewegungsraum des III. Bataillons Verlauf der eigenen Front zwischen Mt. Marmolata u. Gottrestal um die Jahreswende 1916/17 (12) [Karte]: Skizze 16 Kampfraum Fanes - Travenanzes Winter 1916 (13) [Karte]: Skizze 17 Kampfabschnitt Mt. Sief anfangs 1917 (14) [2 Karten]: (1)Skizze 18 Die ital. Minensprengung am Mt. Sief am 6. März 1917 (2)Skizze 19 (15) [2 Karten]: (1)Skizze 20 Unternehmung am 22. 11. 1917 (2)Skizze 21 Aktion im Schnee am 26. 11. 1917 (16) [Karte]: Skizze 22 Kampfraum Mt. Longara November 1917 (17) [3 Karten]: (1)Skizze 23 Lage der 6. ID. am 11. November 1917 abends (2)Skizze 24 Lage der 6. ID. am 12. November 1917 nachts (3)Skizze 25 Lage der 6. ID. in der Nacht auf den 15. Nov. 1917 (18) [2 Karten]: Erstürmung der Casara Meletta di Gallio durch das III. Bataillon am 15. November 1917 (1)Skizze 26 (2)Skizze 27 (19) [2 Karten]: (1)Skizze 28 Lage der 6. ID. in der Nacht auf den 17. November 1917 (2)Skizze 29 Lage der 6. ID. in der Nacht auf den 23. November 1917 (20) [Karte]: Skizze 30 Lage der 12. IBrig. am 13. Dezember 1917 (21) [Karte]: Skizze 31 Die Eroberung des Mt. di Val Bella und des Col del Rosso am 23. Dezember 1917 Gruppierung der 6. ID. nach vollendeter Bereitstellung zum Angriffe auf Mt. di Val Bella um 6 Uhr früh (22) [Karte]: Skizze 32 Das Regiment auf Mt. di Val Bella am 3. Jänner 1918 (23) [Karte]: Skizze 33 Raum beiderseits der Val d'Assa (24) [Karte]: Skizze 34 Die Schlacht am 15. Juni 1918 (25) [Karte]: Skizze 35 Kampfabschnitt Canove Herbst 1918 (26) [Karte]: Skizze 36 Bewegungsraum des XIX. Marschbataillons 1916/17 (27) [Karte]: Skizze 37 Bewegungsraum des XX. Marschbataillons 1916/17 (28) Einband ( - ) Einband ( - )
BASE
In: Integration: Vierteljahreszeitschrift des Instituts für Europäische Politik in Zusammenarbeit mit dem Arbeitskreis Europäische Integration, Band 15, Heft 2, S. 83-93
ISSN: 0720-5120
World Affairs Online