Introduction -- A theory for medium number systems -- Hierarchies -- The Janus-faced holon -- Scales and filters -- Sirens of certainty -- Origins of life as a complex medium number system -- A wrinkle in time: evolution by preadaptation -- Functional and structural boundaries -- The self-replicating hierarchy -- Scaling strategies -- Scale and complex systems -- Identifying the scale in community ecology -- Hierarchy as a context for modeling and simulation -- Diversity and connectedness -- Scale as an investigative tool
In den letzten Jahren ist der Druck auf landwirtschaftliche und gartenbauliche Erzeuger gestiegen, Aspekte des Umweltschutzes in unternehmerische Entscheidungen einzubeziehen. Dieser Druck, der nicht nur vom Endverbraucher, sondern auch vom Gesetzgeber, von der Nahrungsmittelindustrie und dem Lebensmitteleinzelhandel ausgeht, führt zu einer steigenden Nachfrage nach Informationen zur "ökologischen Qualität" landwirtschaftlicher und gartenbaulicher Erzeugnisse und der zugrundeliegenden Produktionsprozesse. Derzeit existiert eine Vielzahl allgemeiner methodischer Ansätze, die als Verfahren zur Bewertung der Umweltleistung diskutiert werden und vor allem im Bereich der industriellen Produktion häufig Anwendung finden. Während bereits verschiedene, den speziellen Anforderungen landwirtschaftlicher Produktionssysteme angepasste Umweltbewertungsverfahren verfügbar sind, ist eine entsprechende Entwicklung im Bereich der gartenbaulichen Produktion derzeit noch nicht erkennbar. Das Ziel der vorliegenden Arbeit ist die Entwicklung eines Konzeptes für ein EDV-gestütztes Verfahren zur Umweltdokumentation und -bewertung (BUIS) gartenbaulicher Produktionssysteme. Im Gegensatz zu den meisten der vorgestellten landwirtschaftlichen Bewertungsansätze, die sich in ihrer Umsetzung primär an den vorhandenen Möglichkeiten der Einzelbetriebe orientieren, stand beim Entwurf und der Implementierung des Gartenbau-BUIS auch die Nachfragerseite, d.h. die variablen Anforderungen potentieller Adressaten der Umweltinformationen als Entwicklungsrichtlinie im Vordergrund. Da das BUIS nicht nur das Informationsbedürfnis externer Zielgruppen befriedigen, sondern gleichzeitig den Betrieb bei der Entscheidungsfindung unterstützen soll, wurde ein systemanalytischer Ansatz gewählt, der zu einem besseren Verständnis der Kausalitäten und komplexen Wechselwirkungen innerhalb des Systems "Gartenbaubetrieb" beiträgt. Um den Aufwand der Erfassung umweltrelevanter Daten zu minimieren, wurde darauf geachtet, dass das BUIS die Möglichkeit bietet, vor Ort verfügbare Datenquellen für die Umweltbewertung zu erschließen. Die modulare Anbindung vorhandener Datenquellen verringert nicht nur den Arbeitsaufwand, sondern macht den Anwendungskern des BUIS unabhängig von den einzelnen Erfassungsverfahren. Erweist sich eine Datenquelle, z.B. ein mathematisches Modell, ein Messverfahren etc., aus praktischen, technischen oder fachlichen Gründen als ungeeignet für den Einsatz im Rahmen des BUIS, so kann diese problemlos durch eine geeignetere Alternative ersetzt werden. Angesichts der Vielfalt gängiger Umweltbewertungsverfahren und der grundsätzlichen Subjektivität einer Bewertung wurde ein ähnlicher Plugin-Ansatz für den Bewertungsteil des BUIS verfolgt. Die eigentliche Bewertung wurde dazu komplett von der Datenerfassung und Systemmodellierung getrennt. Dies ermöglicht die Anwendungganz unterschiedlicher Bewertungsschemata (unterschiedliche methodische Ansätze, unterschiedliche Wertepools) auf die gesammelten Umweltdaten. Als Nachweis für die Umsetzbarkeit des entwickelten Konzeptes dient die Referenzimplementierung jemih. Im Rahmen der Referenzimplementierung wurde der komplette Funktionsumfang des entwickelten Konzeptes realisiert. Als Umweltaspekte bildet jemih in der vorliegenden Version die Komplexe "Wasser" und "Stickstoff" ab. Als Erweiterungsmodule steht eine Auswahl an Plugins zur Datenerfassung sowie ein Bewertungsplugin zur Verfügung. Abschließend wurde auf der Basis von jemih eine Analyse zur Bedeutung des Einflusses der klimatischen Rahmenbedingungen auf das Ergebnis einer Umweltbewertung durchgeführt. Als Klimagrößen standen die Referenzevapotranspiration ET0 und der Niederschlag als wichtige Einflussfaktoren auf den Wasser- und damit auch auf den Stickstoffhaushalt eines gartenbaulichen Produktionssystems im Vordergrund. Zunächst wurde die Eignung der in jemih verfügbaren Plugins zur Abbildung der Referenzevapotranspiration (die Modelle FAO 56 Penman-Monteith, Hargreaves, Turc und Priestley-Taylor) untersucht. Dabei erwiesen sich vor allem das Turc-, aber auch das Hargreaves-Modell als mögliche Alternativen zum Standardverfahren Penman-Monteith, das gegenüber den beiden erstgenannten Ansätzen sehr viel höhere Anforderungen an die Klimadatenerfassung stellt. Voraussetzung für die Anwendung der Alternativverfahren ist eine regionale Kalibrierung der Originalmodelle. Anschließend wurde der Einfluss der kleinräumigen Variabilität der Klimagrößen ET0 und Niederschlag anhand von Messdaten des Agrarmeteorologischen Messnetzes Bayern analysiert. Bereits für sehr geringe räumliche Abstände zwischen den Einzelstandorten ergeben sich zum Teil erhebliche Abweichungen hinsichtlich der Klimagrößen. Die Bedeutung dieser kleinräumigen Unterschiede wurde in einer abschließenden Szenariorechnung demonstriert. Das Ergebnis dieser Szenariountersuchung belegt die Notwendigkeit einer standortindividuellen Betrachtung bei der Implementierung von Umweltbewertungsansätzen im Gartenbau. Ein entsprechendes Konzept, das eben diese Grundanforderung der standortindividuellen Bewertung erfüllt, wurde im Rahmen der vorliegenden Arbeit erstellt und in Form des Prototyps jemih realisiert. ; In the recent years substantial pressures are placed on agricultural and horticultural companies to consider environmental impacts of production as an important aspect in their business strategies. This pressure is exerted by customers as well as the food industry, retailers and governmental authorities and results in an increased demand for information on the "ecological quality" of agricultural and horticultural products and production systems. Beside of this (external) marketing purpose, comprehensive environmental information is required internally for weak-point analysis and improvement of the ecological performance on the farm-level. At the moment a broad variety of different methods and instruments for environmental assessment is available. Especially in industrial production methods like Life Cycle Assessment (LCA), Environmental Performance Evaluation (EPE) or Ecological Bookkeeping are already widely used. Although there are some methodical approaches for use in agriculture, no method meeting the special requirements of environmental management and assessment in horticulture is available yet. The aim of this report is the development of a concept for an environmental information management system software for horticultural companies. Beside of the practical usability, the satisfaction of the highly variable demands of the different interested parties (customers, food industry, governmental authorities etc.) of environmental issues was the primary objective of the management system. Additionally the software should support the user in decision making. Therefore a system modelling approach was selected that leads to a better understanding of the complex processes and interactions within the horticultural production system. To minimise the effort of environmental data collection the software provides a plugin-mechanism for the flexible integration of locally available data resources into the information management system. This mechanism also enables users to easily exchange plugins according to general conditions and individual requirements. Due to the subjective nature of "environmental assessment" and the multiplicity of available methods, a similar plugin approach was selected for the assessment task within the management system. Assessment therefore was strictly separated from data collection, so different assessment schemes may be applied. As a proof for the technical feasibility of the concept the prototype jemih was implemented. jemih includes the complete basic functionality presented in the concept. "Water" and "nitrogen" are implemented as environmental aspects so far. The highly flexible and extensible design of the jemih-framework allow for the easy integration of further environmental aspects. An assortment of different plugins for environmental data acquisition as well as one plugin for the task of environmental assessment is available. Finally the impact of the local climate and weather conditions on the potential results of an environmental assessment approach was evaluated. Precipitation and reference evapotranspiration ET0 were analysed as basic climate variables, as both variables have a vital influence on the water and therefore the nitrogen budget of a horticultural system. Initially the available plugins for the estimation of reference evapotranspiration (FAO 56 Penman-Monteith, Hargreaves, Turc and Priestley-Taylor) were evaluated. The Turc-model and to a lesser extent the Hargreaves-model showed good results compared to the Penman-Monteith-model. Although various publications show, that the Penman-Monteith formula estimates closest to values acquired by lysimetric measurement, both Hargreaves and Turc provide simple alternatives, that may be used in cases where the availability of weather data is limited. The results also show that the alternative estimation models, especially the Hargreaves formula, have to be calibrated regionally. Subsequently the spatial variability of precipitation and ET0 was analysed by comparing data of 90 weather stations in Bavaria. The comparison shows that even for small distances between the stations there may be distinctive difference in precipitation and reference evapotranspiration. The possible impact of this variability was investigated by analysing four exemplary horticultural systems at four measurement sites. The outcome of the environmental assessment of the four sites show serious differences. These results indicate the strictly site-specific approach presented in this report is imperative in environmental assessment of horticultural production systems.
This book presents a methodological approach for the joint design of economic and environmental policies. The starting point is the observation that, in practice, policy makers do not usually have a well-defined objective, but they are typically concerned about a number of economic and environmental indicators that conflict with each other. In view of this, policy making is addressed by combining two separate analytical approaches: multiple criteria decision making (MCDM) and computable general equilibrium (CGE) modeling. The aim is to come up with a methodological framework for policy design which is both operational and consistent with economic theory. In short, this book offers a unified view of this novel approach, paying special attention to the connections between economic and environmental objectives. The methodological foundations are presented as well as some real applications that illustrate the pragmatic value of the theoretical proposal.
Die Inhalte der verlinkten Blogs und Blog Beiträge unterliegen in vielen Fällen keiner redaktionellen Kontrolle.
Warnung zur Verfügbarkeit
Eine dauerhafte Verfügbarkeit ist nicht garantiert und liegt vollumfänglich in den Händen der Blogbetreiber:innen. Bitte erstellen Sie sich selbständig eine Kopie falls Sie einen Blog Beitrag zitieren möchten.
Der Referentenentwurf des WissZeitVG ist ein reiner Arbeitgeberentwurf. Das kann nicht so bleiben. Ein Gastbeitrag von Jennifer Henke, Lutz Böhm und Michael Gerloff.
Lutz Böhm ist PostDoc am Fachgebiet Verfahrenstechnik der TU Berlin und aktiv in der akademischen Selbstverwaltung, Jennifer Henke ist Vertretungsprofessorin für Anglophone Literatur- und Kulturwissenschaften an der Universität Greifswald und setzt sich in den sozialen Medien für bessere Arbeitsbedingungen in der Wissenschaft ein, Michael Gerloff promoviert am Max-Planck-Institut für molekulare Genetik und engagiert sich bei SPDWissPol und NGAWiss (von links). Fotos: privat.
AM DIENSTAG hat das Bundesministerium für Bildung und Forschung (BMBF) in einer nichtöffentlichen Pressekonferenz seinen Referentenentwurf zur Reform des Wissenschaftszeitvertragsgesetz (WissZeitVG) präsentiert. Wir stellen fest: Bei der seit März strittigen Frage der Befristung in der Postdoc-Phase hat die Allianz der Wissenschaftsorganisationen (AdW) ihren Vorschlag durchgesetzt.
De facto verkürzt das AdW-Modell die Höchstbefristungsdauer von sechs auf vier Jahre, wobei nicht absehbar ist, dass die Möglichkeit zur nachfolgenden Anstellung mit Anschlusszusage in signifikantem Maße bereitgestellt wird. Klar ist, dass der erneute Versuch, das WissZeitVG zu reformieren, die Kritik von "#IchBinHanna" und "#IchBinReyhan" nicht aufnimmt. Letztendlich handelt es sich nur um einen reinen Arbeitgeberentwurf.
Dabei mangelt es nicht an konstruktiven, finanzierbaren und attraktiven Alternativen – wie etwa das durch Simon Pschorr entworfene Modell der Anschlusszusage nach einer maximal zweijährigen Postdoc-Phase. Weite Teile der "#IchBinHanna"/"#IchBinReyhan"-Community und die SPD-Bundestagsfraktion schlossen sich diesem Vorschlag an. Darüber hinaus sprach sich eine breite Koalition, bestehend aus Gewerkschaften, Vertretungen der Studierenden, Promovierenden, Promovierten und Juniorprofessor:innen sowie weitere Netzwerke für eine möglichst frühe verpflichtende Anschlusszusage nach der Promotion aus. Der Beschluss "Faire Arbeitsverträge in der Wissenschaft!" der Grünen forderte dies ebenfalls.
Stattdessen griff das BMBF auf das Modell der AdW zurück, das eine Anschlusszusage erst nach einer vierjährigen Postdoc-Phase vorsieht. Anschlussmodell gleich Anschlussmodell? Nein. Die Modelle nach Pschorr und AdW sind miteinander unvereinbar. Entgegen der mathematischen Logik sind "4+2" eben nicht gleich "2+4".
Während das von Pschorr entworfene Modell Anreize schafft, Stellen überhaupt mit einer Anschlusszusage zu versehen, fehlen diese beim AdW-Modell vollständig.
Den Beschäftigten bleibt eine entfristete Alternative im Mittelbau weiter versagt
Den Beschäftigten bleibt nach letzterem eine entfristete Alternative im Mittelbau also weiter versagt. Darüber hinaus wird ein signifikanter Anteil der Daueraufgaben der Akademie auch künftig vom überwiegend befristeten Mittelbau ohne verlässliche Karriereperspektive übernommen. Das promovierte Mittelbaupersonal wird einfach alle vier statt sechs Jahre ausgetauscht werden.
Im "4+2"-Modell der AdW ist ferner nicht davon auszugehen, dass bereits nach 4 Jahren die Berufbarkeit auf eine Professur erfolgt. Die Berufungsfähigkeit müssen die Betroffenen nach Ablauf der vierjährigen Höchstbefristungsphase somit entweder auf Arbeitslosengeld oder auf Drittmittelprojekten erreichen.Dies lädt zum Machtmissbrauch ein: Bereits heute werden zur Wahrung der Chancen auf einen positiven Bescheid Drittmittelanträge von Postdocs geschrieben, aber von Professor:innen eingereicht, die dann wiederum diese Postdocs einstellen.
Ferner stellt sich die Frage, was in der zweijährigen Phase mit Anschlusszusage nach AdW-Modell überhaupt evaluiert werden soll, was nicht vorher schon geleistet wurde. Dies wäre beim "2+4"-Modell nach Pschorr nicht der Fall.
Darüber hinaus böte die Ausgestaltung des WissZeitVG viele weitere offene Potentiale. Zuallererst könnte der eigentliche Grund für die Befristung, die Qualifizierung, endlich definiert werden. Derzeit legen die Arbeitsgerichte diesen Begriff äußerst vage aus.
Zurück zum wirkungslosen Regelungskonzept des Eckpunktepapier
Ein Problem ist auch, dass die befristungsrechtliche Mindestreform des WissZeitVG nicht von Maßnahmen flankiert wird, die Länder, Hochschulen und Institute dazu veranlassen, tatsächlich vorhandene Stellen unbefristet zu besetzen. Den faktischen Mindestbefristungsquoten der akademischen Institutionen könnten Höchstbefristungsquoten gegenübergestellt werden.
Der Entwurf wird nicht einmal den im Koalitionsvertrag formulierten Ansprüchen der Schaffung alternativer Karrierewege gerecht, obwohl eine – angemessen ausgestaltete – Anschlusszusage ermöglichen würde, auch außerakademische Mangelberufe zu entlasten. So könnte die Spezialisierung zum Lecturer mit einer generellen Befähigung zum Wechsel in den Schuldienst einhergehen.
Man ist entgegen aller Ankündigungen von der grundlegend "neuen geteilten Vision" zum wirkungslosen Regelungskonzept des Eckpunktepapiers zurückgekehrt. Das Ziel "Dauerstellen für Daueraufgaben" wurde komplett verfehlt. Hochschulen und Außeruniversitäre Forschungseinrichtungen (AuF) werden, wenn sie es nicht aus eigenem Antrieb heraus vorantreiben, ihre Personalstrukturen nicht umbauen!
Es ist klar geworden, was das BMBF unter "besserer Planbarkeit der wissenschaftlichen Karriere" versteht: Noch mehr als beim geltenden Status Quo werden künftig Menschen, die mit einem sozialen Startvorteil ihre Promotion und Habilitation begonnen haben, für eine Professur in Frage kommen. Marginalisierte Gruppen werden dagegen noch stärker benachteiligt.
Im anstehenden parlamentarischen Prozess muss nun der Referentenentwurf zur Reform des WissZeitVG geschärft werden. "#IchBinHanna" und "#IchBinReyhan" sehen dabei die Bundestagsfraktionen der SPD und Grünen an ihrer Seite. Beide tragen den Entwurf trotz langer und intensiver Verhandlungen mit dem BMBF nicht mit.
Wo "#IchBinHanna" und "#IchBinReyhan" sich mit den Wissenschaftsorganisationen einig sind
Die Bundesregierung und der Bundestag haben es in der Hand, die gravierende Verantwortungsdiffusion der vergangenen 20 Jahre zu durchbrechen und die Grundlage für eine Transformation der deutschen Akademie zu schaffen. Dafür benötigt es klare Vorgaben für gute und nachhaltige Arbeitsbedingungen im Mittelbau. Werden diese nicht jetzt definiert, wird sich der Fachkräftemangel in der Akademie weiter verschärfen.
Das evidenzfreie Mantra "Innovation durch Fluktuation" muss begraben werden. Der positive Nebeneffekt – die bessere Position der deutschen Akademie im internationalen Wettbewerb um die besten Köpfe – würde sich automatisch einstellen, wenn die Bundesländer, Hochschulen und AuFs ihre Personalstrukturen in die Gegenwart führten.
Zumindest in einer Sache sind sich allerdings "#IchBinHanna" und "#IchBinReyhan" mit dem kürzlich in der FAZ veröffentlichten Statement von Vertretern der AdW einig: "Wir empfehlen der Bundesregierung, den Dialog mit den Doktorand:innen und Postdocs [...] zu führen, denn nur wenn auch die künftigen, Wissenschaftler:innen [...] von der Novelle überzeugt sind, wird aus einem 'brain drain' ein 'brain gain'."
Inhaltsangabe:Einleitung: Was haben so verschiedene Großprojekte wie aufwendige Kinofilme (z.B.'Batman'), neue Waffensysteme (z.B. der Jäger 90) oder große Bauvorhaben (z.B. die Stadien für die Fußball-Weltmeisterschaft in Italien) gemeinsam? Die Gesamtkosten liegen in der Regel um ein Vielfaches über den geplanten Kosten und auch der geplante Zeitpunkt der Fertigstellung wird häufig deutlich überschritten. Muß das so sein? In nun mehr als dreißig Jahren wurden zahlreiche Methoden und Modelle zur Analyse von Projektrisiken entwickelt. Inzwischen existiert eine kaum überschaubare Menge von Publikationen auf diesem Gebiet. Das Ziel der vorliegenden Arbeit ist deshalb die Sichtung des vorhandenen Materials sowie die Klassifikation der entwickelten Verfahren, wobei jeweils charakteristische Modelle vorgestellt und kritisch betrachtet werden sollen. Prinzipiell lassen sich zwei Typen von Risikoanalyse-Verfahren unterscheiden: solche, die zur Unterstützung strategischer Unternehmensentscheidungen dienen, und solche, die taktische Entscheidungen unterstützen. In der vorliegenden Arbeit werden die Risikoanalyse-Verfahren nach ihrem Konzept in Top-down- und In Bottom-up-Verfahren unterschieden. Die Bottom-Up-Verfahren lassen sich noch dahingehend unterscheiden, ob sie sich nach dem Ablaufplan oder dem Strukturplan des Projekts orientieren. Gang der Untersuchung: Die vorliegende Arbeit gliedert sich in drei größere Teile. Im ersten Abschnitt wird das Thema projektorientierte Risikoanalyse eingegrenzt und die Grundlagen sowie das notwendige Begriffsgerüst vorgestellt. Außerdem wird eine Übersicht über die bisher entwickelten Methoden und Verfahren zur Risikoanalyse erstellt und versucht, erkennbare Tendenzen aufzuzeigen. Im zweiten Abschnitt werden die Bottom-up-Verfahren behandelt. In diese Kategorie fallen die meisten der bisher entwickelten Modelle zur Analyse von Projektrisiken. Sie kommen gewöhnlich erst nach der Auftragserteilung zum Einsatz, da sie einen mehr oder weniger tief gegliederten Projektstrukturplan voraussetzen und einen enormen Bedarf an Eingabedaten haben. Ohne allzusehr vorzugreifen läßt sich sagen, daß diese Verfahren in der Praxis so gut wie nicht angewendet werden. Ein Hauptgrund für die mangelnde Akzeptanz ist, daß die Modelle sehr komplex und schwierig sind und die Ergebnisse für den Projektmanager meist schwer nachvollziehbar sind. Die Menge der vorhandenen Literatur auf diesem Gebiet ist dementsprechend sehr hoch, wobei allerdings einige Einschränkungen zu machen sind: - Viele Verfahren bauen auf denselben Grundlagen auf, beispielsweise auf älteren Verfahren wie PERT. - In den letzten Jahren hat sich auf diesem Gebiet nicht mehr viel getan. - Der Schwerpunkt der Forschung und Entwicklung und damit auch der Veröffentlichung liegt eindeutig in den USA, wobei meistens das Verteidigungsministerium der Auftraggeber ist, was sich behindernd auf die Beschaffung von Literatur auswirkt. - Die meisten Veröffentlichungen stammen von den Firmen, von denen die Verfahren entwickelt wurden, so daß keine allzu kritische Betrachtung erwartet werden darf, da die Unternehmen ihre Verfahren schließlich verkaufen wollen. - Vergleichende Übersichten über verschiedene vorhandene Verfahren gibt es praktisch überhaupt nicht. Die vorliegende Arbeit soll versuchen, eine solche Übersicht zu geben und die bisher entwickelten Verfahren mit ihren charakteristischen Merkmalen, Voraussetzungen, ihren Vorteilen und Nachteilen vorstellen. Dabei sollen die für den Projektmanager wichtigen Fragen beantwortet werden, z.B. wann und für weiche Projekte kann ein Verfahren eingesetzt werden, oder weiche Projektziele werden modelliert? Im dritten Abschnitt werden die Top-down-Verfahren behandelt. Diese Verfahren werden hauptsächlich bereits in der Vor-Auftrags-Phase angewendet, d.h. die Projektstruktur muß nicht bis in alle Einzelheiten bekannt sein. Die Verfahren kommen also unter Umständen schon zur Anwendung, bevor eine Entscheidung über die Durchführung eines Projekts gefallen ist. Da diese Verfahren immer größere Bedeutung erlangen, bildet dieser Teil den Schwerpunkt der vorliegenden Arbeit. Leider gibt es zur Zeit noch sehr wenige fertige Top-down-Verfahren und entsprechend wenig brauchbare Literatur, weshalb hauptsächlich Ideen, Konzepte und Hilfsmittel vorgestellt werden. Es ist jedoch damit zu rechnen, daß sich in naher Zukunft auf diesem Gebiet einiges bewegen wird. Inhaltsverzeichnis: Einleitung1 TEIL I: PROJEKTORIENTIERTE RISIKOANALYSE 1.Einleitung5 2.Definitionen6 2.1.Ungewißheit / Unsicherheit6 2.2.Risiko7 3.Risikomanagement9 3.1.Risikoplanung11 3.2.Risikokontrolle12 3.3.Risikoüberwachung12 3.4.Einige 'Grundregeln' des Risikomanagements13 3.5.Vergleich von Risikomanagement und 'normalem' Management14 4.Risikoanalyse17 4.1.Risikoidentifikation20 4.1.1.RES20 4.1.2.Gewinnung von Informationen über die relevanten Risiken22 4.1.3.Kategorisieren der Risiken22 4.2.Risikobewertung25 4.2.1.Einheitliche Bewertungsbasis27 4.2.2.Zuordnung von Informationsquellen und Bewertungsmaßstäben28 4.2.3.Bewertung der Einflüsse durch die beteiligten Personen, Techniken und Verfahren29 4.2.4.Reduzierung der Ungewißheiten30 4.2.5.Methoden zur Expertenbefragung32 4.3.Risikoverarbeitung34 4.3.1.Simulation36 4.3.2.Mathematische Verfahren37 5.Bewertung von Risikoanalyse und Risikomanagement39 5.1.Kosten von Risikoanalyse und Risikomanagement39 5.2.Vorteile von Risikoanalyse und Risikomanagement41 5.3.Was Risikoanalyse und Risikomanagement nicht können42 6.Modelle und Verfahren zur Risikoanalyse45 6.1.Ansätze zur Klassifikation der Modelle und Verfahren47 6.1.1.Scaling-Verfahren und Dekompositions-Verfahren47 6.1.2.Deterministische und Wahrscheinlichkeits-Verfahren48 6.1.3.Optimierungs- und Beschreibungs-Verfahren48 6.1.4.Analytische und Simulations-Verfahren49 6.1.5.Statische und dynamische Verfahren49 6.1.6.Strategische und taktische Verfahren49 6.1.7.Ablauf- und strukturorientierte Verfahren50 6.2.System zur Modell-Klassifizierung50 6.3.Raster zur Modell-Bewertung52 6.3.1.Modell-'Steckbrief'52 6.3.2.Anwendungsspektrum52 6.3.3.Voraussetzungen, Annahmen, Eingabedaten, Ausgabedaten53 6.3.4.Aufwand54 6.3.5.Güte des Verfahrens54 6.3.6.Das Bewertungsraster57 TEIL II: BOTTOM-UP-VERFAHREN ZUR RISIKOANALYSE 1.Einleitung59 2.Strukturplan-orientierte Verfahren61 2.1.Das RAND-Verfahren62 2.2.Das Stochastic Aggregation Model (SAM)64 2.3.Probabilistic Event Analysis (PEA)67 2.4.Die Risk Factor Method (RFM)71 2.5.Das Successive Principle oder Lichtenberg-Verfahren75 2.6.Zusammenfassung81 3.Ablaufplan-orientierte Verfahren zur Analyse von Terminrisiken82 3.1.Die Program Evaluation and Review Technique (PERT)83 3.2.Die Graphical Evaluation and Review Technique (GERT)85 3.3.Das Programm PREDICT 200089 3.4.Die Stochastic Time and Resource Constraints Technique (STARC)91 3.5.Zusammenfassung94 4.Ablaufplan-orientierte Verfahren zur Analyse von Termin- und Kostenrisiken96 4.1.Das Verfahren PERT/COST97 4.2.ARTEMIS Sytem's Probabilistic Analysis of Networks (PAN)100 4.3.Die Risk Information System and Network Evaluation Techniques (RISNET I und II)103 4.4.Zusammenfassung105 5.Ablaufplan-orientierte Verfahren zur Analyse von Termin-, Kosten- und Leistungsrisiken107 5.1.Die Venture Evaluation and Review Technique (VERT)107 5.2.Die Verfahren Total Risk Assessing Cost Estimate (TRACE) und TRACE for Production (TRACE-P)110 5.3.Das Verfahren PROMAP V*113 5.4.Das Risk Assessment and Management Program (RAMP)114 5.5.Das Cost Performance Analysis (CPA) Model117 5.6.Zusammenfassung118 6.Zusammenfassende Bewertung der Bottom-up-Verfahren120 6.1.Übersicht über die vorgestellten Bottom-up-Verfahren122 6.2.Vergleichende Bewertung der Bottom-up-Verfahren123 6.3.Gründe für das Scheitern der Bottom-up-Verfahren126 6.3.1.Präsentation der Verfahren126 6.3.2.Kosten der Verfahren126 6.3.3.Eingabedaten der Verfahren127 6.3.4.Komplexität der Verfahren128 6.3.5.Güte der Verfahren128 6.3.6.Aufwand der Verfahren129 6.3.7.Ausgabedaten der Verfahren129 6.3.8.Psychologische Gründe129 6.3.9.Anwendungszeitpunkt der Verfahren130 6.4.Fazit130 TEIL III: TOP-DOWN-VERFAHREN ZUR RISIKOANALYSE 1.Einleitung132 2.Entscheidungsbaum-Verfahren133 3.Multiobjektive Entscheidungsverfahren136 4.Szenario-Verfahren137 4.1.Die Projektumgebung137 4.2.Die Stakeholder139 4.3.Die Strategic Impact and Assumptions-Identification Method (SIAM) for Project, Program and Policy Planning141 4.3.1.Ausgangsdaten und Ergebnisse des SIAM-Verfahrens142 4.3.2.Die Prozedur des SIAM-Verfahrens143 4.3.3.Bewertung des SIAM-Verfahrens146 4.4.Der Multi-Attribute-Multi-Party (MAMP) Approach148 4.4.1.Die Prozedur des MAMP-Verfahrens149 4.4.2.Bewertung des MAMP-Verfahrens151 5.Das Konzept von Franke153 5.1.Risikoidentifikation und –dokumentation153 5.2.Risikobewertung155 5.3.Risikoverarbeitung und –selektion156 5.4.Bewertung des Konzepts von Franke157 6.Das Konzept von Dobelke161 6.1.Projekt-Vorselektion162 6.2.Projekt-Beurteilung163 6.3.Bewertung des Konzepts von Dobelke164 7.Das Konzept von Schnorrenberg167 7.1.Expertensysteme zur Angebotsentscheidung168 7.2.Expertensysteme zur Risikoanalyse169 7.3.Bewertung des Konzepts von Schnorrenberg171 8.Zusammenfassende Bewertung der Top-down-Verfahren174 8.1.Vergleichende Bewertung der vorgestellten Top-down-Verfahren175 8.2.Fazit und Ausblick178 8.2.1.Verbesserung der Risikoidentifikation179 8.2.2.Methodische Verbesserungen180 8.2.3.Beseitigung der Akzeptanzprobleme181 Literaturverzeichnis182
Erkenntnisse aus paläoklimatologischen Studien, theoretischen Betrachtungen und Modellsimulationen deuten darauf hin, dass anthropogene Emissionen von Treibhausgasen und Aerosolen zu großskaligen, singulären Klimaereignissen führen könnten. Diese bezeichnen stark nichtlineare, abrupte Klimaänderungen, mit regionalen bis hin zu globalen Auswirkungen. Ziel dieser Arbeit ist die Entwicklung von Modellen zweier maßgeblicher Komponenten des Klimasystems, die singuläres Verhalten aufweisen könnten: die atlantische thermohaline Zirkulation (THC) und der indische Monsun. Diese Modelle sind so konzipiert, dass sie den Anforderungen der "Integrated Assessment"-Modellierung genügen, d.h., sie sind realistisch, recheneffizient, transparent und flexibel. Das THC-Modell ist ein einfaches, interhemisphärisches Boxmodell, das anhand von Daten kalibriert wird, die mit einem gekoppelten Klimamodell mittlerer Komplexität erzeugt wurden. Das Modell wird durch die globale Mitteltemperatur angetrieben, die mit Hilfe eines linearen Downscaling-Verfahrens in regionale Wärme- und Süßwasserflüsse übersetzt wird. Die Ergebnisse einer Vielzahl von zeitabhängigen Simulationen zeigen, dass das Modell in der Lage ist, maßgebliche Eigenschaften des Verhaltens komplexer Klimamodelle wiederzugeben, wie die Sensitivität bezüglich des Ausmaßes, der regionalen Verteilung und der Rate der Klimaänderung. Der indische Monsun wird anhand eines neuartigen eindimensionalen Boxmodells der tropischen Atmosphäre beschrieben. Dieses enthält Parmetrisierungen der Oberflächen- und Strahlungsflüsse, des hydrologischen Kreislaufs und derHydrologie der Landoberfläche. Trotz des hohen Idealisierungsgrades ist das Modell in der Lage, relevante Aspekte der beobachteten Monsundynamik, wie z.B. den Jahresgang des Niederschlags und das Eintritts- sowie Rückzugsdatum des Sommermonsuns, zufrieden stellend zu simulieren. Außerdem erfasst das Modell die Sensitivitätdes Monsuns bezüglich Änderungen der Treibhausgas- und Aerosolkonzentrationen, die aus komplexeren Modellen bekannt sind. Eine vereinfachte Version des Monsunmodells wird für die Untersuchung des qualitativen Systemverhaltens in Abhängigkeit von Änderungen der Randbedingungen eingesetzt. Das bemerkenswerteste Ergebnis ist das Auftreten einer Sattelknotenbifurkation des Sommermonsuns für kritische Werte der Albedo oder der Sonneneinstrahlung. Darüber hinaus weist das Modell zwei stabile Zustände auf: neben dem niederschlagsreichen Sommermonsun besteht ein Zustand, der sich durch einen schwachen hydrologischen Kreislauf auszeichnet. Das Beachtliche an diesen Ergebnissen ist, dass anthropogene Störungen der plantetaren Albedo, wie Schwefelemissionen und/oder Landnutzungsänderungen, zu einer Destabilisierung des indischen Monsuns führen könnten. Das THC-Boxmodell findet exemplarische Anwendung in einem "Integrated Assessment" von Klimaschutzstrategien. Basierend auf dem konzeptionellen und methodischen Gerüst des Leitplankenansatzes werden Emissionskorridore (d.h. zulässige Spannen an CO2-Emissionen) berechnet, die das Risiko eines THC-Zusammenbruchs begrenzen sowie sozioökonomische Randbedingungen berücksichtigen. Die Ergebnisse zeigen u.a. eine starke Abhängigkeit der Breite der Emissionskorridore von der Klima- und hydrologischen Sensitivität. Für kleine Werte einer oder beider Sensitivitäten liegt der obere Korridorrand bei weit höheren Emissionswerten als jene, die von plausiblen Emissionsszenarien für das 21. Jahrhundert erreicht werden. Für große Werte der Sensitivitäten hingegen, verlassen schon niedrige Emissionsszenarien den Korridor in den frühen Jahrzehnten des 21. Jahrhunderts. Dies impliziert eine Abkehr von den gegenwärtigen Emissionstrends innherhalb der kommenden Jahrzehnte, wenn das Risko eines THC Zusammenbruchs gering gehalten werden soll. Anhand einer Vielzahl von Anwendungen - von Sensitivitäts- über Bifurkationsanalysen hin zu integrierter Modellierung - zeigt diese Arbeit den Wert reduzierter Modelle auf. Die Ergebnisse und die daraus zu ziehenden Schlussfolgerungen liefern einen wertvollen Beitrag zu der wissenschaftlichen und politischen Diskussion bezüglich der Folgen des anthropogenen Klimawandels und der langfristigen Klimaschutzziele. ; Concerns have been raised that anthropogenic climate change could lead to large-scale singular climate events, i.e., abrupt nonlinear climate changes with repercussions on regional to global scales. One central goal of this thesis is the development of models of two representative components of the climate system that could exhibit singular behavior: the Atlantic thermohaline circulation (THC) and the Indian monsoon. These models are conceived so as to fulfill the main requirements of integrated assessment modeling, i.e., reliability, computational efficiency, transparency and flexibility. The model of the THC is an interhemispheric four-box model calibrated against data generated with a coupled climate model of intermediate complexity. It is designed to be driven by global mean temperature change which is translated into regional fluxes of heat and freshwater through a linear down-scaling procedure. Results of a large number of transient climate change simulations indicate that the reduced-form THC model is able to emulate key features of the behavior of comprehensive climate models such as the sensitivity of the THC to the amount, regional distribution and rate of change in the heat and freshwater fluxes. The Indian monsoon is described by a novel one-dimensional box model of the tropical atmosphere. It includes representations of the radiative and surface fluxes, the hydrological cycle and surface hydrology. Despite its high degree of idealization, the model satisfactorily captures relevant aspects of the observed monsoon dynamics, such as the annual course of precipitation and the onset and withdrawal of the summer monsoon. Also, the model exhibits the sensitivity to changes in greenhouse gas and sulfate aerosol concentrations that are known from comprehensive models. A simplified version of the monsoon model is employed for the identification of changes in the qualitative system behavior against changes in boundary conditions. The most notable result is that under summer conditions a saddle-node bifurcation occurs at critical values of the planetary albedo or insolation. Furthermore, the system exhibits two stable equilibria: besides the wet summer monsoon, a stable state exists which is characterized by a weak hydrological cycle. These results are remarkable insofar, as they indicate that anthropogenic perturbations of the planetary albedo such as sulfur emissions and/or land-use changes could destabilize the Indian summer monsoon. The reduced-form THC model is employed in an exemplary integrated assessment application. Drawing on the conceptual and methodological framework of the tolerable windows approach, emissions corridors (i.e., admissible ranges of CO2- emissions) are derived that limit the risk of a THC collapse while considering expectations about the socio-economically acceptable pace of emissions reductions. Results indicate, for example, a large dependency of the width of the emissions corridor on climate and hydrological sensitivity: for low values of climate and/or hydrological sensitivity, the corridor boundaries are far from being transgressed by any plausible emissions scenario for the 21st century. In contrast, for high values of both quantities low non-intervention scenarios leave the corridor already in the early decades of the 21st century. This implies that if the risk of a THC collapse is to be kept low, business-as-usual paths would need to be abandoned within the next two decades. All in all, this thesis highlights the value of reduced-form modeling by presenting a number of applications of this class of models, ranging from sensitivity and bifurcation analysis to integrated assessment. The results achieved and conclusions drawn provide a useful contribution to the scientific and policy debate about the consequences of anthropogenic climate change and the long-term goals of climate protection. --- Anmerkung: Die Autorin ist Trägerin des von der Mathematisch-Naturwissenschaftlichen Fakultät der Universität Potsdam vergebenen Michelson-Preises für die beste Promotion des Jahres 2003/2004.
The purpose of - and the motivation behind - this study is to move the debate on autonomy in weapons systems ahead by introducing some more conceptual clarity and definitional rigor. To that end, we offer a new instrument for conducting a multidimensional autonomy risk assessment (MARA) in weapons systems. By quantifying and computing key descriptive characteristics ("vectors") of systems to gauge their autonomous and military capabilities, the instrument can be used to generate a comprehensive overview over weapons systems deployed currently and in the near future. This way, it can assist policy- makers in coming to an informed decision on the possible establishment of a politically defined maximum of autonomy in weapons systems. (…) (IFAR/Pll)
Reducing disparities among regions within European countries is the aim of European and national structural policies. In particular, a European grant contributes to the German governmental program for equalizing regional unemployment. The goal is to bring it down to the national average by creating new and/or by safeguarding existing jobs. In the given paper the distribution of available aid among 271 German labor market regions is considered as an econometric decision problem. At first, the dependence of the unemployment rate on the amount of aid is estimated for each eligible region. Using this dependence, the variance of regional unemployment rates is expressed as a function of the regional subsidies. The optimal aid distribution among regions is obtained by minimizing this variance subject to the total budget constraint and administrative restrictions. The optimal figures computed are compared with statistical data for 2000{2002. They show that the regional unemployment in West Germany could be equalized better (with variance 3.50 against the actual 4.40) and with a simultaneous decrease in the average unemployment in West Germany from 7.45 to 7.28%. In East Germany all regions are eligible, implying no administrative constraints and a high optimization flexibility. It enables almost perfectly equalize regional indices down to the variance 0.28 against the actual 9.76. Under the model assumptions, the actual results of the equalizing policy could be attained by half the budget granted. These underused possibilities explain the low efficiency of active labor market policies reported in empirical studies. To improve their performance, some tools for optimally distributing subsidies and predicting their effects are suggested.
"We consider random wealth of the multiplicative form xy, where x and y are statistically independent random variables. We assume that x is endogenous to the economic agent, but that y is an exogenous and uninsurable background risk. Our main focus is on how the randomness of y affects risk-taking behavior for decisions on the choice of x. We characterize conditions on preferences that lead to more cautious behavior. We also develop the concept of the affiliated utility function, which we define as the composition of the underlying utility function and the exponential function. This allows us to adapt several results for additive background risk to the multiplicative case." (author's abstract)
1 Einleitung -- 1.1 Vorbemerkung -- 2 Marxistisch-leninistische Philosophie und Erkenntnistheorie -- 2.1 Der historische und der dialektische Materialismus -- 2.2 Marxistisch-leninistische Erkenntnistheorie -- 2.3 Resümee: Konsequenzen für die Wissenschaft -- 3 Das Wissenschaftssystem der DDR -- 3.1 Wissenschaft in der DDR -- 3.2 Wissenschaftssprache und Begriffsbildung -- 3.3 Die staatliche Lenkung der Gesellschaftswissenschaften in der DDR -- 3.4 Die Gesellschaftswissenschaften -- 3.5 Empirische Sozialforschung -- 3.6 Wissenschaftliche Disziplinen der Medienwirkungsforschung -- 3.7 Nichtakademische Medienforschung -- 3.8 Resümee: Medienforschung ohne "Community" -- 4 Sozialistische Kommunikations-und Massenkommunikationstheorie -- 4.1 Der Kommunikationsbegriff -- 4.2 Der Begriff der Massenkommunikation -- 4.3 Die formale Bestimmung der Massenkommunikation -- 4.4 Die historisch-konkrete Bestimmung der Massenkommunikation -- 4.5 Die Konkretion der Massenkommunikation -- 4.6 Gesellschaftliche Funktionen von Massenkommunikation -- 4.7 Exkurs: Technikzentrierte Kommunikationsbegriffe -- 4.8 Resümee: Zum Anspruch einer sozialistischen Theorie der Massenkommunikation -- 5 Sozialistische Medienwirkungstheorie -- 5.1 Grundlagen sozialistischer Wirkungsforschung: Lenins "Pressetheorie" -- 5.2 Der Begriff der Wirkung -- 5.3 Die journalistischen Wirkungspotentiale -- 5.4 Die sozialistische Wirkungskonzeption -- 5.5 Wirkungsplanung durch Wirkungsforschung -- 5.6 Exkurs: Populärwissenschaftliche Beschäftigung mit Medienwirkungen -- 5.7 Resümee: Zum Stand sozialistischer Wirkungstheorie -- 6 Rezeption und Bewertung der bürgerlichen Kommunikationstheorien und empirischen Medienwirkungsforschung -- 6.1 Modelle der bürgerlichen Massenkommunikationsforschung -- 6.2 Theoretische Konzeptionen der bürgerlichen Massenkommunikationsforschung -- 6.3 Kommunikationstheoretische Ansätze -- 6.4 Die bürgerliche empirische Wirkungsforschung -- 6.5 Exkurs: Bewertung der westdeutschen materialistischen Kommunikationsforschung -- 6.6 Resümee: Zur Beurteilung der westlichen Forschung -- 7 Methoden der marxistisch-leninistischen Medienwirkungsforschung -- 7.1 Vorstufen der Erhebung: Planung und Konzeption -- 7.2 Methodologie und Methoden -- 7.3 Resümee: Zum Problem der Methodenübernahme -- 8 Statistische Auswertungsverfahren und der Einsatz von EDV in der empirischen Medienwirkungsforschung der DDR -- 8.1 Grundlagen der Datenauswertung -- 8.2 Allgemeine Grundlagen der Statistik -- 8.3 Mathematisch-statistische Auswertungsverfahren -- 8.4 Der Einsatz der elektronischen Datenverarbeitung (EDV) -- 8.5 Exkurs 1: Theoretische Auswertung -- 8.6 Exkurs 2: Transformation in die Praxis -- 8.7 Resümé: Die Mathematisierung der Gesellschaftswissenschaften -- 9 Empirische Medienforschung in der Praxis — eine kritische Synopse exemplarisch ausgewählter Studien -- 9.1 Auswahl der Studien und Vergleichskriterien der Synopse -- 9.2 Untersuchungsziel der Studien -- 9.3 Theoretische Einordnung der Studien -- 9.4 Ausgangshypothesen der Studien -- 9.5 Erhebungsmethoden der Studien -- 9.6 Erhebungsinstrumente der Studien -- 9.7 Indikatoren der Studien -- 9.8 Stichproben/ Probanden der Studien -- 9.9 Statistische Analyseverfahren der Studien -- 9.10 Ergebnisse/ neue Hypothesen der Studien -- 9.11 Relativierungen/ Eigenbewertungen der Studien -- 9.12 Resümee: Zur Qualität praktizierter empirischer Forschung -- 10 Resümee -- 11 Literatur -- 12 Anhang: Empirische Wirkungsstudien der DDR.
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
A great deal of more recent agricultural research in the Brazilian Amazon region has been focusing on the 'hot spots' of deforestation at the forest margins. Small-scale agriculturalists represent the largest group of the rural population and, apart from contributing to the high deforestation rates, are among the most affected by the environmental consequences of land use and land cover change in the Amazon region. This study attempts to contribute to the current debate on the sustainability of smallholder agriculture by focusing on one of the oldest colonization areas in the Brazilian Amazon region, the Zona Bragantina. An additional motivation for the study was the emergence of technological alternatives to the traditional land preparation technique slash-and-burn. Some of these alternatives appear promising in that they could contribute to reducing the social costs of slash-and-burn that accrue mainly in the form of greenhouse gas emissions and material damages from accidental fires. The study adopts a neo-classical theoretical framework of farm-household behavior that explicitly addresses the links between poverty and the environment. A descriptive analysis of secondary and primary data using standard statistical tools, such as difference of mean tests and regression analysis, provides the background for a formal quantitative analysis that draws on linear and non-linear mathematical programming and accounts for the existence of market and production risks. It was found that smallholder agriculture in the Bragantina is likely to further contribute to natural resource degradation in the form of greenhouse gas emissions and fallow degradation. However, this does not necessarily imply significant negative effects on household consumption levels, especially in the presence of technological change. Given that natural resources provide not only private but also social services, policy measures are tested with respect to their effectiveness in improving environmental indicators without halting economic and technological development. Among the typical environmental policy measures, taxes and conservation payments are promising candidates to improve environmental indicators and address regional development heterogeneities in an economically optimal way. In addition, the option of a technology-specific crop yield insurance provides a means to increase the competitiveness of slightly more expensive but ecologically advantageous technologies. Existing agro-environmental policy measures, such as the upcoming credit program Proambiente , were simulated in order to derive recommendations for further fine-tuning. Regarding Proambiente it was found that the program regulations are too restrictive with regard to the use of chemical fertilizers. The model suggests that relaxing some of these restrictions will greatly improve the chances for the program to become attractive to smallholders in the Bragantina. ; Ein bio-ökonomisches Modell der Landnutzungsentscheidungen und Technologiewahl von Kleinbauern im ostbrasilianischen Amazonasgebiet Die j üngere landwirtschaftliche Forschung im brasilianischen Amazonasgebiet hat sich vor allem auf Regionen mit hohen Entwaldungsraten konzentriert. Kleinbauern stellen die größte ländliche Bevölkerungsgruppe dar und sind, obwohl mitverantwortlich für die Entwaldung, am stärksten von den ökologischen Folgen der Primärwaldzerstörung und der veränderten Landnutzungsform betroffen. Mit der Untersuchung eines der ältesten Siedlungsgebiete im Amazonasgebiet, der Zona Bragantina, versucht diese Studie einen Beitrag zu der laufenden Debatte über die Nachhaltigkeit der kleinbäuerlichen Landwirtschaft zu leisten. Das Heranreifen neuartiger technologischer Alternativen zur traditionellen Brandrodungspraxis stellt eine zusätzliche Motivation dieser Arbeit dar. Einiger dieser Alternativen erscheinen viel versprechend, da sie ein Potenzial zur Verringerung der externen Kosten der Brandrodung, z.B. Treibhausgasemissionen und materielle Schäden durch unkontrollierte Feuer, besitzen. Der methodische Ansatz basiert auf der neo-klassischen Verhaltenstheorie und berücksichtigt den Zusammenhang zwischen Armut und Umweltfaktoren. Einer beschreibenden Analyse von primär und sekundär Daten unter Zuhilfenahme einfacher statistischer Methoden, wie z.B. Mittelwertvergleichstests und Regressionsanalysen, folgt eine formelle quantitative Untersuchung mittels linearer und nicht-linearer mathematischer Programmierung. Die Modellanalyse berücksichtigt insbesondere die Auswirkungen von Markt- und Produktionsrisiken auf die Landnutzungsentscheidungen des einzelnen Haushalts. Es konnte gezeigt werden, dass die kleinbäuerliche Landwirtschaft in der Bragantina auch weiterhin zur Emission von Treibhausgasen und zur Degradierung der Sekundärvegetation beitragen wird. Jedoch muss dies nicht notwendigerweise negative Auswirkungen auf die ländliche Einkommensentwicklung haben; insbesondere dann nicht, wenn sich der Trend zum technologischen Wandel weiter fortsetzt. Der Wert der natürlichen Ressourcen der Region ergibt sich nicht allein aus dem privaten Nutzen der Kleinbauern. Es wurden deshalb mögliche Politikmaßnahmen im Hinblick auf ihr Potenzial untersucht, Umweltindikatoren positiv zu beeinflussen, ohne dabei den ökonomischen und technischen Fortschritt zu bremsen. Hier sind Steuern und Flächenstilllegungsprämien als ökonomisch effiziente Möglichkeiten hervorzuheben, mit denen Umweltindikatoren positiv beeinflusst und regionale Entwicklungsheterogenitäten ausgeglichen werden können. Darüber hinaus erscheint die Option einer technologie-spezifischen Ertragsausfallversicherung als ein wirkungsvolles Instrument zur Förderung von etwas teureren aber ökologisch vorteilhaften technologischen Alternativen. Existierende agrarumweltpolitische Maßnahmen, wie z.B. das Umweltkreditprogramm Proambiente , wurden im Modellversuch umgesetzt, um Optimierungsvorschläge abzuleiten. Hinsichtlich des Proambiente Programms wird infolgedessen empfohlen, die strengen Richtlinien zur Nutzung von Düngemitteln zu lockern. Modellsimulationen haben gezeigt, dass dies die Attraktivität des Programms für die kleinbäuerliche Landwirtschaft in der Bragantina deutlich erhöhen würde.
Diese Dissertation behandelt mathematische Optimierungsmodelle und -methoden zur Ressourceneinsatzplanung bei regel- und unregelmäßig stattfindenden Aufgaben. Mit Fokus auf die Fahrzeugumlauf- und Dienstplanung im ÖPNV werden Modelle und Methoden entwickelt, die ein Handicap traditioneller Ansätze beheben: Traditionell werden als Optimierungsziel die Kosten des Ressourceneinsatzes zur Bedienung von Fahrten eines Fahrplans je Tag minimiert. Dies kann schon bei gering unterschiedlich zu bedienenden Fahrten an mehreren Tagen bewirken, dass sich die kosteneffizienten Pläne der einzelnen Tage stark unterscheiden. Da ähnliche Pläne die operative Stabilität verbessern, wird untersucht, wie sich kosteneffiziente und gleichzeitig ähnliche Pläne bestimmen lassen. Modelle und Methoden werden entwickelt, die zwei Vorgehensweisen abbilden: Zum einen werden die Planungsprobleme unterschiedlicher Tage getrennt voneinander gelöst, wobei Ähnlichkeit durch einen Referenzplan erreicht wird. Zum anderen erfolgt eine gleichzeitige Betrachtung mit Ähnlichkeitserzielung durch sich wiederholende Muster. Als Lösungsverfahren wird Column Generation eingesetzt. Die Pricing-Probleme zur Generierung kosteneffizienter und ähnlicher Ressourceneinsätze sind als ressourcenbeschränkte Kürzeste-Wege-Probleme auf Time-Space-Netzwerken formuliert. Die entwickelten Ansätze werden in Planungsvarianten untersucht, die unterschiedliche Verknüpfungsgrade bei der Planung von Umläufen und Diensten bieten. Es zeigt sich, dass die Ähnlichkeit kosteneffizienter Pläne gegenüber bisherigen Ansätzen deutlich verbessert werden kann, ohne die Kosten des Ressourceneinsatzes zu steigern. Zur praktischen Einsetzbarkeit werden Erweiterungen vorgeschlagen, die eine Vielzahl unternehmensspezifischer Regelungen zur Umlauf- und Dienstplanung abbilden.. - This thesis deals with mathematical optimization models and methods for resource scheduling with regularly and irregularly occurring tasks. Focusing on vehicle and crew scheduling in public transport, models and solution methods are developed that can overcome a handicap of traditional optimization approaches: Traditionally the optimization goal is to minimize the costs of the scheduled resources for serving trips of a trip schedule for each individual day. Even if the trips to be served on several days are marginally different, traditional approaches may generate cost efficient schedules for the individual days that strongly differ from each other. As similar resource schedules improve the operational stability of a public transport company, this thesis examines how both cost efficient and similar resource schedules can be determined. Models and methods are developed representing two approaches: On the one hand resource scheduling problems of different days are solved separated from each other, while the similarity of the schedules is ensured with a reference schedule. On the other hand the scheduling problems are solved simultaneously, while the similarity is ensured with repeating patterns. As solution method column generation is used. The Pricing problems for generating cost efficient and similar scheduled resources are modelled and solved as resource constrained shortest path problems on time-space-networks. The developed approaches are examined in scheduling settings providing different levels of integration while scheduling vehicle blocks and crew duties. It is shown that the proposed approaches can significantly improve the similarity of cost efficient resource schedules compared to traditional approaches without any remarkable cost increase for the scheduled resources. For practical applicability extensions are proposed including a wide variety of companyspecific regulations for vehicle and crew scheduling.
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext: