Statistik – Bayes'sche Modelle
In: Gefahrstoffe, Reinhaltung der Luft: air quality control, Band 83, Heft 11-12, S. 275-278
ISSN: 1436-4891
18 Ergebnisse
Sortierung:
In: Gefahrstoffe, Reinhaltung der Luft: air quality control, Band 83, Heft 11-12, S. 275-278
ISSN: 1436-4891
In: Statistische Hefte: internationale Zeitschrift für Theorie und Praxis = Statistical papers, Band 3, Heft 1, S. 39-61
ISSN: 1613-9798
In: Hohenheimer volkswirtschaftliche Schriften
Mit Methoden zur Umweltbewertung, die – wie die interviewgestützte Contingent Valuation Methode – auf der Messung individueller Präferenzen basieren, lässt sich der Wert einer Umweltveränderung umfassend bestimmen, aber sie erweisen sich in der Praxis oft als zu teuer. Durch die Verwendung von Bayes'schen Ansätzen können die Kosten der Kosten-Nutzen-Analyse für explizite Bewertungsstudien sowie für die implizite Bewertung durch den Nutzentransfer deutlich gesenkt werden. Darüber hinaus wird durch diesen Ansatz der Nutzentransfer erheblich zuverlässiger, so dass dieses Sparmodell der Umweltbewertung mit weitaus geringeren Einschränkungen als bislang empfohlen werden kann. Die Arbeit illustriert diese Aussagen mit einer Vielzahl simulierter und empirischer Beispiele.
In: Hohenheimer volkswirtschaftliche Schriften Band 55
Mit Methoden zur Umweltbewertung, die - wie die interviewgestützte Contingent Valuation Methode - auf der Messung individueller Präferenzen basieren, lässt sich der Wert einer Umweltveränderung umfassend bestimmen, aber sie erweisen sich in der Praxis oft als zu teuer. Durch die Verwendung von Bayes'schen Ansätzen können die Kosten der Kosten-Nutzen-Analyse für explizite Bewertungsstudien sowie für die implizite Bewertung durch den Nutzentransfer deutlich gesenkt werden. Darüber hinaus wird durch diesen Ansatz der Nutzentransfer erheblich zuverlässiger, so dass dieses Sparmodell der Umweltbewertung mit weitaus geringeren Einschränkungen als bislang empfohlen werden kann. Die Arbeit illustriert diese Aussagen mit einer Vielzahl simulierter und empirischer Beispiele.
In: Swiss Medical Forum ‒ Schweizerisches Medizin-Forum
ISSN: 1424-4020
In: Swiss Medical Forum ‒ Schweizerisches Medizin-Forum
ISSN: 1424-4020
In: Hohenheimer volkswirtschaftliche Schriften 55
Mit der Liberalisierung des Strommarkts, den unsicheren Aussichten in der Klimapolitik und stark schwankenden Preisen bei Brennstoffen, Emissionsrechten und Kraftwerkskomponenten hat bei Kraftwerksinvestitionen das Risikomanagement an Bedeutung gewonnen. Dies äußert sich im vermehrten Einsatz probabilistischer Verfahren. Insbesondere bei regulativen Risiken liefert der klassische, häufigkeitsbasierte Wahrscheinlichkeitsbegriff aber keine Handhabe zur Risikoquantifizierung. In dieser Arbeit werden Kraftwerksinvestitionen und -portfolien in Deutschland mit Methoden des Bayes'schen Risikomanagements bewertet. Die Bayes'sche Denkschule begreift Wahrscheinlichkeit als persönliches Maß für Unsicherheit. Wahrscheinlichkeiten können auch ohne statistische Datenanalyse allein mit Expertenbefragungen gewonnen werden. Das Zusammenwirken unsicherer Werttreiber wurde mit einem probabilistischen DCF-Modell (Discounted Cash Flow-Modell) spezifiziert und in ein Einflussdiagramm mit etwa 1200 Objekten umgesetzt. Da der Überwälzungsgrad von Brennstoff- und CO2-Kosten und damit die Höhe der von den Kraftwerken erwirtschafteten Deckungsbeiträge im Wettbewerb bestimmt werden, reicht eine einzelwirtschaftliche Betrachtung der Kraftwerke nicht aus. Strompreise und Auslastungen werden mit Heuristiken anhand der individuellen Position der Kraftwerke in der Merit Order bestimmt, d.h. anhand der nach kurzfristigen Grenzkosten gestaffelten Einsatzreihenfolge. Dazu wurden 113 thermische Großkraftwerke aus Deutschland in einer Merit Order vereinigt. Das Modell liefert Wahrscheinlichkeitsverteilungen für zentrale Größen wie Kapitalwerte von Bestandsportfolien sowie Stromgestehungskosten und Kapitalwerte von Einzelinvestitionen (Steinkohle- und Braunkohlekraftwerke mit und ohne CO2-Abscheidung sowie GuD-Kraftwerke). Der Wert der Bestandsportfolien von RWE, E.ON, EnBW und Vattenfall wird primär durch die Beiträge der Braunkohle- und Atomkraftwerke bestimmt. Erstaunlicherweise schlägt sich der Emissionshandel nicht in Verlusten nieder. Dies liegt einerseits an den Zusatzgewinnen der Atomkraftwerke, andererseits an den bis 2012 gratis zugeteilten Emissionsrechten, welche hohe Windfall-Profite generieren. Dadurch erweist sich der Emissionshandel in seiner konkreten Ausgestaltung insgesamt als gewinnbringendes Geschäft. Über die Restlaufzeit der Bestandskraftwerke resultiert ab 2008 aus der Einführung des Emissionshandels ein Barwertvorteil von insgesamt 8,6 Mrd. €. In ähnlicher Dimension liegen die Barwertvorteile aus der 2009 von der Bundesregierung in Aussicht gestellten Laufzeitverlängerung für Atomkraftwerke. Bei einer achtjährigen Laufzeitverlängerung ergäben sich je nach CO2-Preisniveau Barwertvorteile von 8 bis 15 Mrd. €. Mit höheren CO2-Preisen und Laufzeitverlängerungen von bis zu 28 Jahren würden 25 Mrd. € oder mehr zusätzlich anfallen. Langfristig erscheint fraglich, ob unter dem gegenwärtigen Marktdesign noch Anreize für Investitionen in fossile Kraftwerke gegeben sind. Zu Beginn der NAP 2-Periode noch rentable Investitionen in Braunkohle- und GuD-Kraftwerke werden mit der auslaufenden Gratiszuteilung von Emissionsrechten zunehmend unrentabler. Die Rentabilität wird durch Strommarkteffekte der erneuerbaren Energien und ausscheidender alter Gas- und Ölkraftwerke stetig weiter untergraben. Steinkohlekraftwerke erweisen sich selbst mit anfänglicher Gratiszuteilung als riskante Investition. Die festgestellten Anreizprobleme für Neuinvestitionen sollten jedoch nicht dem Emissionshandel zugeschrieben werden, sondern resultieren aus den an Grenzkosten orientierten Strompreisen. Das Anreizproblem ist allerdings bei moderaten CO2-Preisen am größten. Es gilt auch für Kraftwerke mit CO2-Abscheidung: Obwohl die erwarteten Vermeidungskosten für CCS-Kraftwerke gegenüber konventionellen Kohlekraftwerken im Jahr 2025 auf 25 €/t CO2 (Braunkohle) bzw. 38,5 €/t CO2 (Steinkohle) geschätzt werden, wird ihr Bau erst ab CO2-Preisen von 50 bzw. 77 €/t CO2 rentabel. Ob und welche Kraftwerksinvestitionen sich langfristig rechnen, wird letztlich aber politisch entschieden und ist selbst unter stark idealisierten Bedingungen kaum vorhersagbar. ; Power plant investors face large uncertainties due to ongoing liberalization, climate policy, and long investment horizons. This study provides a probabilistic appraisal of power plant investments within the framework of Bayesian decision theory. A Bayesian influence diagram is used for setting up a discounted cash flow model and analysing the profitability of power plants. As the study explicitly models merit order pricing, the pass-through of random fuel and carbon costs may be analysed. The study derives probabilistic statements about net present values of single investments and company portfolios and explores the sensitivity of profits to variations of select input variables. In the majority of cases, an increase in the price of emission allowances also increases the net present value of existing power plant portfolios. A substantially increased carbon prices also is the prerequisite to diversify power plant portfolios by gas and CCS plants. For the currently prevailing German electricity market, we argue that investors may lack incentives for new investments in fossil generation, a finding that holds true also with implementation of CCS. Our estimates are conservative, as profitability will further deteriorate with the build-up of renewables.
BASE
Das Potenzial Bayes'scher Netze (BNe) zur Unterstützung der Produktionsplanung und -steuerung (PPS) wird identifiziert, untersucht und aufgezeigt - sowohl theoretisch als auch praktisch. Der theoretisch geprägte Teil stellt dar, dass sich BNe aufgrund ihrer Eigenschaften und Fähigkeiten besonders gut zur Lösung bestimmter Probleme der PPS eignen. Zudem stellt er BNe alternativen Verfahren zur Unterstützung der PPS gegenüber. Der praxisorientierte Teil untermauert die Erkenntnisse aus der Theorie. Ein Softwaresystem zur Wissensverarbeitung mittels BNe wird entworfen und implementiert. Es werden geeignete Probleme der PPS ausgewählt, konkretisiert und mittels des Softwaresystems gelöst. Die Auswertung und Interpretation der Ergebnisse der Experimente gipfelt in der Aussage, dass BNe ein Potenzial zur Unterstützung der PPS aufweisen und dass sich BNe sehr gut zur Lösung bestimmter Probleme der PPS eignen.
In: Österreichische Wasser- und Abfallwirtschaft, Band 73, Heft 7-8, S. 308-328
ISSN: 1613-7566
ZusammenfassungDie Fließgewässertemperatur ist ein essenzieller Umweltfaktor, der das Potenzial hat, sowohl ökologische als auch sozio-ökonomische Rahmenbedingungen im Umfeld eines Gewässers zu verändern. Um Fließgewässertemperaturen als Grundlage für effektive Anpassungsstrategien für zukünftige Veränderungen (z. B. durch den Klimawandel) berechnen zu können, sind adäquate Modellierungskonzepte notwendig. Die vorliegende Studie untersucht hierfür 6 Machine Learning-Modelle: Schrittweise Lineare Regression, Random Forest, eXtreme Gradient Boosting, Feedforward Neural Networks und zwei Arten von Recurrent Neural Networks. Die Modelle wurden an 10 österreichischen Einzugsgebieten mit unterschiedlichen physiographischen Eigenschaften und Eingangsdatenkombinationen getestet. Die Hyperparameter der angewandten Modelle wurden mittels Bayes'scher Hyperparameteroptimierung optimiert. Um die Ergebnisse mit anderen Studien vergleichbar zu machen, wurden die Vorhersagen der 6 Machine Learning-Modelle den Ergebnissen der linearen Regression und dem häufig verwendeten und bekannten Wassertemperaturmodell air2stream gegenübergestellt.Von den 6 getesteten Modellen zeigten die Feedforward Neural Networks und das eXtreme Gradient Boosting die besten Vorhersagen in jeweils 4 von 10 Einzugsgebieten. Mit einem durchschnittlichen RMSE (Wurzel der mittleren Fehlerquadratsumme; root mean squared error) von 0,55 °C konnten die getesteten Modelle die Fließgewässertemperaturen deutlich besser prognostizieren als die lineare Regression (1,55 °C) und air2stream (0,98 °C). Generell zeigten die Ergebnisse der 6 Modelle eine sehr vergleichbare Leistung mit lediglich einer mittleren Abweichung um den Medianwert von 0,08 °C zwischen den einzelnen Modellen. Im größten untersuchten Einzugsgebiet – Donau bei Kienstock – wiesen Recurrent Neural Networks die höchste Modellgüte auf, was darauf hinweist, dass sie sich am besten eignen, wenn im Einzugsgebiet Prozesse mit langfristigen Abhängigkeiten ausschlaggebend sind. Die Wahl der Hyperparameter beeinflusste die Vorhersagefähigkeit der Modelle stark, was die Bedeutung der Hyperparameteroptimierung besonders hervorhebt.Die Ergebnisse dieser Studie fassen die Bedeutung unterschiedlicher Eingangsdaten, Modelle und Trainingscharakteristiken für die Modellierung von mittleren täglichen Fließgewässertemperaturen zusammen. Gleichzeitig dient diese Studie als Basis für die Entwicklung zukünftiger Modelle für eine regionale Fließgewässertemperaturvorhersage. Die getesteten Modelle stehen im open source R‑Paket wateRtemp allen AnwenderInnen der Forschungsgemeinschaft und der Praxis zur Verfügung.
The dissertation aims to develop and apply new empirical methods to analyze and model farm structural change. Changes of the farm structure are not only important for the sector itself but may have broader economic, social and environmental consequences for a region. Understanding this process is important for assessing the impact of (agricultural-) policies. A common approach to analyze farm structural change are Markov chains. The dissertation provides a Bayesian estimation framework that allows to more consistently and transparently combine individual and aggregated data in the estimation of non-stationary Markov models compared to existing methods. It is shown that the data combination improves precision and numerical stability of the estimation. Building on this, a Bayesian prediction framework for EU farm structural change is developed exploiting the available information more fully. Secondly, farm interdependences and their importance for farm structural change are analyzed. It is argued that the assumption of independence between farm behavior as implied by the Markov approach may become problematic in specific applications. Empirical evidence is provided that these interactions are indeed important to consider for a consistent aggregation of farm level results when assessing policy effects at regional level. Specifically, it is shown for the case of Norway that it is important to consider neighboring farm characteristics when analyzing the influence of direct payments on farm survival. To the knowledge of the author, the study is the first to show empirically that spatial interdependence at farm level is important for farm structural change. With respect to policy assessment, the results indicate that direct payments a farm receives itself have a positive influence on farm survival while neighboring direct payments have a negative one. For an overall assessment of the policy effects it is thus necessary to consider the interdependencies between farms. Ignoring these interdependencies might lead to an overestimation of the effects of direct payments. ; Analysemethoden und empirische Erkenntnisse zum landwirtschaftlichen Strukturwandel Ziel der Arbeit ist die Entwicklung und Anwendung von Methoden zur empirischen Analyse und Modellierung des Agrarstrukturwandels. Veränderungen der Agrarstruktur sind nicht allein für den Sektor bedeutend, sondern können weitreichende ökonomische, soziale und ökologische Konsequenzen für eine Region haben. Ein Verständnis des Strukturwandels ist somit wichtig für die Folgenabschätzung (agrar-)politischer Maßnahmen, sowie deren Gestaltung im Hinblick auf konkrete (agrar-)politische Ziele. Ein häufig verwendeter methodischer Ansatz zur Untersuchung des Agrarstrukturwandels ist die Markowketten-Analyse. In dieser Arbeit wird ein Bayes'scher Schätzansatz entwickelt, der eine Kombination von einzelbetrieblichen und aggregierten Daten in der Schätzung von nicht-stationären Markowketten erlaubt. Die Datenkombination erfolgt auf eine, im Vergleich zu existierenden Ansätzen, konsistentere und transparentere Weise und es wird gezeigt, dass sie die Präzision sowie die numerische Stabilität des Schätzers erhöht. Darauf aufbauend wird ein Bayes'scher Ansatz zur Vorhersage des EU Strukturwandels entwickelt, der es erlaubt die verfügbaren Daten besser zu nutzen. Darüber hinaus befasst sich die Arbeit mit Interdependenzen auf Betriebsebene und deren Bedeutung für den Strukturwandel. Es wird argumentiert, dass sich das Verhalten von Betrieben gegenseitig bedingt und die Annahme einer unabhängigen Entwicklung, wie sie der Markowketten-Analyse zugrundeliegt, zu Problemen führen kann. Es wird empirisch gezeigt, dass die Berücksichtigung von Interdependenzen zwischen Betrieben wichtig für eine konsistente Aggregation der Ergebnisse der Betriebsebene zur Politikfolgenabschätzung auf regionaler Ebene ist. Am Beispiel Norwegens wird gezeigt, dass zur Abschätzung der Effekte von Direktzahlungen die Charakteristika benachbarter Betriebe berücksichtigt werden müssen. Nach Wissen des Autors ist die Arbeit die erste, die empirisch die Bedeutung von Interdependenzen auf Betriebsebene für den Strukturwandel belegt. Mit Blick auf eine Politikfolgenabschätzung zeigen die Ergebnisse, dass Direktzahlungen, die ein Betrieb selbst erhält, einen positiven Einfluss auf das Überleben des Betriebs haben, während Direktzahlungen an benachbarte Betriebe einen negativen Einfluss haben. Zur Abschätzung des generellen Effekts von Direktzahlungen ist es somit notwendig, die Interdependenzen zwischen Betrieben zu berücksichtigen. Werden diese vernachlässigt, kann der Effekt von Direktzahlungen überschätzt werden.
BASE
97% percent of the world's usable freshwater is stored as groundwater, which is a limited resource. Thus, its protection and management is a world-wide major societal, health-related, ecologic and economic concern. The constant demand for clean and safe drinking water is in direct conflict with social and economic land-use claims. Therefore, water managers are challenged to know (1) what kind of hazards exist within the water catchment, (2) how these hazards can be controlled and (3) knowing that they are controlled. Thus, water management shifts from fixed and thus passive wellhead delineation zones to active risk management. Despite this desired change, a clear definition on dealing with uncertainties in risk assessment and management for drinking water supply systems is still missing. Nevertheless, uncertainty analysis is an integral part of risk assessment. Also, national guidelines in the US promulgates cumulative probability distribution functions to assess confidence bounds, regarding the risk prediction. These uncertainties are, for example, a result of measurement error, model conceptualization and parameterization. Therefore, it is necessary to quantify uncertainty as part of risk assessment. Risk assessment addresses three questions (1) What can happen?, (2) What is the probability that it happens? and (3) What is the damage after it happens? Thus, in general risk is a combination of uncertainty and damage. Unfortunately, only few comprehensive risk concepts exist for drinking water supply systems that address risk from source to receptor, while considering uncertainty and physically-based modeling aspects. Modularized, transport-based and probabilistic risk quantification models coupled with a rational, and stakeholder-objective decision analysis framework for groundwater supply systems do not yet exist. Only with this type of comprehensive risk model, stakeholders are able to estimate risk at the receptor level most accurately. This supports stakeholders to take risk-informed, implementable, transparent, and evidence-based decisions in an uncertain environmental framework and pushes water governance to the next higher level. Therefore, this work presents a new methodological risk concept within a Bayesian framework to quantify and manage risk within groundwater resources for drinking water supply, utilizing smart decision analysis concepts based on multiple stakeholder-objectives. The risk concept is quantitative, flexible, probabilistic and physically-based. This quantitative risk assessment approach is superior to qualitative ones. For example, it allows the aggregation of hazard impacts, provide transparency due objectivity, and enable risk-informed management that is based on cardinal scale and economic concepts. Furthermore, the risk modeling framework is flexible that allows stakeholders to easily exchange single modules (compare fault-tree: nodes or events) with ready available software and modeling techniques in a plug and play mode. The probabilistic approach quantifies uncertainty and provides a prediction space of many possible outcomes, such that stakeholders can better evaluate the current risk situation. Especially in case of the present subsurface heterogeneity and the lack of knowledge about the structural distribution, it is indispensable to quantify uncertainty. In addition, uncertainty is reduced by Bayesian-based conditioning techniques (e.g., Bayesian GLUE), moving risk estimates closer to reality. Furthermore, the state-of-the-art transport-based model is able to calculate the cumulative hazard impact at the target objective as required by European Commission. The physically-based transport model allows aggregation of mass discharges across space, time and frequency. This enables risk managers to evaluate hazards more precisely as individual hazards are often deemed to be no risk, although contributing to the overall expected impact at the well. Therefore, hazard ranking across the catchment is available in a cumulative environmental setting. Thus, the risk quantification concept is able to provide valuable and indispensable information for water stakeholders that are quantitative, flexible, probabilistic and physically-based. Second, by admitting uncertainty and utilizing this type of risk framework stakeholders are able to take transparent, robust, rational, and risk-informed decisions. The risk framework is her applied to two test cases, one being of synthetic nature, the other being a well catchment that is located in southern Germany. ; 97% des weltweit verfügbaren Frischwassers liegt als Grundwasser vor. Grundwasser ist eine begrenzte Ressource. Daher sind dessen Schutz und Management ein vorrangiges Ziel von gesellschaftlicher, ökologischer und ökonomischer Relevanz. Die konstante Nachfrage nach sicherem und sauberem Trinkwasser steht im direkten Konflikt mit gesellschaftlichen und wirtschaftlichen Landnutzungsansprüchen. Wassergebietsmanager sind daher stetig mit der Aufgabe konfrontiert, alle potenziellen Gefahren in einem Wasserschutzgebiet bestmöglich zu kennen, zu kontrollieren und zu beherrschen, so dass ein Wechsel vom Schutzgebietsmanagement hin zum aktiven Risikomanagement stattfindet. Trotz dieses angestrebten Wechsels fehlt in vielen Bereichen eine klare Definition zur Handhabung von Unsicherheiten. Unsicherheiten im Risikomanagementsystem treten beispielsweise bei der Parametrisierung von Modellvariablen, der Wahl des Simulationsmodells und Diskretisierungsansatzes, der mangelnden Kenntnis über die geologische Beschaffenheit des Untergrundes und der geringen Datengrundlage sowie dem menschlichen Handeln auf. Durch eine genauere Kenntnis des Systems, z.B. des Untergrunds, können die physikalischen Prozesse modell-technisch und mathematisch besser approximiert und damit die Unsicherheit reduziert werden. Eine Unsicherheitsanalyse ist damit ein integraler Bestandteil einer Risikoabschätzung. Diese versucht die drei Fragen (1)Was kann passieren?, (2)Wie wahrscheinlich ist es? und (3) Wie hoch ist das Schadensmaß, wenn es eintritt? zu beantworten. Leider existieren kaum umfassende systembezogene Konzepte für Brunneneinzugsgebiete, die Risiken von der Gefahrenquelle bis zum Schutzgut simulationsgestützt, probabilistisch und physikalisch basiert quantifizieren, und diese mit entscheidungstheoretischen Ansätzen koppeln, um die menschliche Entscheidungsvariabilität mit zu berücksichtigen. Somit ist bislang eine rationale und optimale Entscheidungsunterstützung unter Berücksichtigung der Risikowahrnehmung im Risikomanagement von Trinkwasser nicht möglich. Die Arbeit stellt daher ein robustes Risikomanagementsystem vor, welches eine probabilistisch-quantitative und physikalisch basierte Analyse des Rohwassers und damit eine Begrenzung von Gefährdungen in der Trinkwasserwirtschaft erlaubt. Die Arbeit basiert auf einem Bayes'schen Risikokonzept, um das Risiko in der Trinkwassergewinnung aus Grundwasser zu quantifizieren und mit Hilfe von robusten und neuen Entscheidungskonzepten in Abhängigkeit der unterschiedlichen Interessensziele zu steuern und zu minimieren. Der quantitative Risikoanalyseansatz ist den qualitativen Modellen überlegen, da das Modell zum Beispiel eine Aggregierung von Schäden am Empfänger auf einer Kardinalskala ermöglicht und somit den Gesamtschaden im Vergleich zu einer qualitativen Methode (Ordinalskala) genauer beziffert. Darüber hinaus erlaubt das vorgestellte quantitative Modell ein objektives, transparentes Risikomanagement und bietet in Verbindung mit ökonomischen Konzepten Risikomanagern ein wertvolles Entscheidungssystem. Das Risikomanagementsystem ist flexibel gestaltet, so dass einzelne Module im Risikomodell verhältnismäßig leicht ausgetauscht werden können (vergleiche Elemente und Knoten im Fehlerbaum). Dies ermöglicht die Verwendung des vorgestellten Risikosystems mit beliebig vorhandener Software und wenigen Daten. Der probabilistische Ansatz erlaubt die Quantifizierung der Modell- und Paramaterunsicherheit, so dass Risikomanager die aktuelle Risikosituation besser einschätzen können. Aufgrund der komplexen hydrogeologischen Struktur im Untergrund und dem Unwissen über deren genauen Verteilung (mangelnde Datenlage) unterliegen die Modellergebnisse der Transportmodellierung in Grundwassersystemen großen Unsicherheiten, welche quantifiziert werden und mit Hilfe von datengetriebenen Bayes'schen Kalibrierungstechniken (z.B. Bayes'sches GLUE) reduziert werden, so dass die Risikowerte näher an der Realität liegen. Zur Bestimmung des kumulativen Schadens werden Massenflüsse mit Hilfe des physikalisch-basierten Transportmodells über die Zeit, dem Ort und der Schadenshäufigkeit (Fehler-Frequenz) aggregiert. Diese genauere Bestimmung des Gesamtschadens erlaubt eine verbesserte Risikoabschätzung, insbesondere vor dem Hintergrund, dass häufig einzelne Gefährdungen als ungefährlich eingestuft werden, jedoch in ihrer Summe den Empfänger (hier Brunnen) beeinträchtigen. Insgesamt erlaubt die Arbeit eine genauere Analyse, Quantifizierung und bessere Begrenzung von kumulativen Risiken, eine zielgerichtete Einrichtung von Monitoringsystemen oder Brunnenschutzgebiete, Priorisierung von Gefährdungen, und ein szenario-basiertes optimales Risikomanagement. Im Vordergrund steht die methodisch-konzeptionelle Entwicklung des Risikoquantifizierung- und -managementsystems, flankiert von zwei Fallstudien. Als Risikowird das erwartete Nichteinhalten eines a-priori gesetzten Schwellenwertes definiert, das eine sichere und saubere Trinkwasserversorgung verhindert.
BASE
This thesis provides a general estimation framework for econometric specification of constrained optimization models, with special attention to problems arising when (i) inequality constraints are present in the constrained optimization model M that is to be estimated and/or (ii) when the estimation problem is ill-posed. The approach followed here is to use the necessary and sufficient conditions for optimality of M as estimating equations in an extremum estimation setup. When M contains inequality constraints, then the optimality conditions contain complementary slackness conditions, which are likely to make the estimation numerically difficult to solve. In that case, the estimation problem profits from being considered a bilevel programming problem, for which general solution algorithms exist. In a theoretical chapter, the solution of the estimation problem as a bilevel programming problem is proposed for a (synthetic) transportation model, where numerical problems make the estimation problem intractable to conventional estimation techniques. Numerical simulations are used to analyse some small sample properties of the estimator, which is shown to be more efficient than a traditional calibration methods for that problem. In a subsequent empirical chapter, the estimation of trade costs, prices and regional excess demands in a spatial price equilibrium model of trade in primary crop products in the West African country Benin is formulated as a bilevel programming problem. In that way, all available information is used and errors in both quantities and prices are taken into account. The resulting estimates are compared to results of empirical studies. Ill-posedness, or lack of identification of the paramters, is likely to occur in estimation problems such as those considered here. Common reasons for ill-posedness are the desire for a rich model structure, data scarcity/quality problems, and the occurrance of nuisance parameters due to the measurement error structure. If changes to the the model structure are excluded, the resolution of ill-posedness requires the researcher to introduce prior information that helps distinguish between otherwise equivalent parameter sets. During the last decade, generalized maximum entropy (GME) and general cross entropy (GCE) have been frequent means to that end. In chapter four of this thesis, a Bayesian alternative to GME/GCE is introduced, which is shown to contain GME/GCE estimators as special cases. The Bayesian alternative suggests that the prior information is introduced in the form of a-priori probability distributions for the parameters, and that the estimating equations are interpreted as a (degenerate) likelihood function. Using Bayes' theorem, the posterior density function can be formulated, and used to obtain point estimates. Several illustrative applications of the proposed estimators are worked out in detail. Chapter five of the thesis contains an empirical application of a Bayesian estimator to the estimation of behavioural parameters of a large scale non-linear model of agricultural production in the European Union. Parameters governing the supply response of 23 crops in 165 regions are estimates using time series data. The estimator proves to deliver robust results that compare well to other empirical studies of agricultural supply response. ; Ökonometrische Spezifikation von Parametern beschränkter Optimierungsmodelle Gegenstand dieser Untersuchung ist die ökonometrische Spezifikation von Parametern beschränkter Optimierungsmodelle mit Schwerpunkt auf Fragen, die dann auftreten (i) wenn Ungleichheitsbeschränkungen involviert sind und/oder (ii) wenn das Schätzproblem unterbestimmt ist. Die übergeordnete Methode, die hier angewendet wird, ist die direkte Schätzung der Optimalitätsbedingungen des jeweiligen Modells. Wenn das Optimierungsmodell M Ungleichungen beinhaltet, dann sind Komplementaritätsbedingungen in den Optimalitätsbedingungen enthalten. Ein Problem solcher Art ist zumeist schwer lösbar. In solchen Fällen ist es vorteilhaft, die Schätzung als ein Optimierungsproblem in zwei Ebenen zu betrachten, wofür geeignete Lösungsalgorithmen existieren. Dies wird anhand eines (synthetischen) Transportmodells demonstriert, in welchem numerische Probleme die Schätzung für herkömmliche Schätzmethoden schwer lösbar machen. Mit Hilfe numerischer Simulationen wird gezeigt, dass der vorgeschlagene Schätzer effizienter ist als eine traditionelle Kalibrierungsmethode für das Problem. In einem anschließenden empirischen Teil wird der Schätzer angewendet, um Handelskosten, Preise und regionale Überschussnachfrage in einem räumlichen Preis-Gleichgewichtsmodell des westafrikanischen Landes Benin zu schätzen. Alle zur Verfügung stehenden Beobachtungen werden dabei genutzt, und Messfehler sowohl von Mengen als auch von Preisen berücksichtigt. Die Ergebnisse werden mit denen anderer Untersuchungen verglichen. In den hier betrachteten Schätzproblemen wird Unterbestimmtheit ein häufig vorkommendes Problem sein. Ursachen der Unterbestimmtheit sind z.B. der Wunsch nach einer reichen Modellstruktur, Datenprobleme oder Datenknappheit, sowie "nuisance parameters" die aufgrund der Messfehlerstruktur auftreten. Falls Veränderungen der Modellstruktur ausgeschlossen werden, dann erfordert die Behebung der Unterbestimmtheit die Einführung von A-Priori-Informationen, um sonst äquivalente Parametervektoren zu trennen. Zwei im vergangenen Jahrzehnt häufig eingesetzte Methoden zur Miteinbeziehung von A-Priori-Informationen sind "generalized maximum entropy" (GME) und "generalized cross entropy" (GCE). Diese Dissertation stellt eine Bayes'sche Alternative zu GME/GCE vor, die GME/GCE als Sonderfälle beinhaltet. In den vorgeschlagenen Schätzer werden Zusatzinformationen als A-Priori-Verteilungen der Parameter eingeführt, und die Schätzgleichungen werden als eine Likelihood-Funktion interpretiert. Aus dem Satz von Bayes folgt dann die A-Posteriori-Verteilung der Parameter, aus welcher Punktschätzungen abgeleitet werden können. Viele numerische Beispiele werden vorgestellt. Die Dissertation enthält auch eine empirische Anwendung des Bayes'schen Schätzers. Dabei werden Verhaltensparameter eines großen, nichtlinearen Agrarsektormodells ausgehend von Zeitreihen geschätzt. Die Parameter beziehen sich auf das Angebot von bis zu 23 Pflanzenbauaktivitäten in 165 Regionen. Die Ergebnisse sind robust und gut vergleichbar mit Ergebnissen anderer empirischen Untersuchungen.
BASE
Recent reforms of the Common Agricultural Policy shifted the emphasis towards competitiveness of the agricultural sector, rural development and environmentally sound farming approaches, acknowledging the considerable role agriculture plays in protecting nature and landscape. Significant progress in the evaluation of policy reform scenarios can be made if it is be possible to link existing economic and environmental models. An important methodological problem in this context is "bridging" the scales: whereas most bio-physical models work on field scale, comprehensive EU wide economic models generally work with large administrative regions. The research aims at improving integrated assessment of European policy options by developing methodologies that deliver spatially explicit agricultural data regarding crop shares and farming systems. First a procedure for estimating agricultural land use choices is developed bringing together high resolution information on crops and land cover as well as aggregate information from administrative regions. Combining a binary choice model with a Bayesian highest posterior density estimator, a statistical approach to break down land use choices from European administrative regions to about 100.000, so called Homogeneous Spatial Mapping Units is developed. The applied Bayesian method fully and transparently accounts for the prior information – mean and variance of land use shares obtained from binary choice models – when searching for consistency between the different scales. Next, an approach for the spatial allocation of farm information is developed. European wide farm information is so far only available at a rather aggregated administrative level. The suggested allocation approach adds a spatial dimension to all sample farms making it possible to aggregate farm types both to natural and to lower scale administrative regions. The allocation approach is implemented as a constrained optimization model searching for an optimal match between farm attributes and spatial characteristics subject to consistency constraints. The objective functions are derived from a Bayesian highest posterior density framework. Finally an approach to integrate spatially explicit farm information in an agricultural sector model in the context of a study on the abolition of the EU milk quota is presented. It presents an economic and environmental impact analysis using the CAPRI model, which has been updated with econometric estimates of milk quota rents from sample farms. Aggregated at EU level for the year 2020, production may increase by 5% while the price drop for raw milk is about 10%. Regions are identified where economic or environmental changes substantially exceed those at the Member State level. While regional nitrate leaching problems could be exacerbated, there is only weak evidence of an increased risk of land abandonment in marginal areas. ; EU weite Analyse der Gemeinsamen Agrarpolitik mittels räumlich disaggregierter Daten Die jüngsten Reformen der Gemeinsamen Agrarpolitik zielten auf eine verstärkte Förderung der Wettbewerbsfähigkeit des Agrarsektors, des ländlichen Raumes und der umweltverträglichen Landwirtschaft ab. Diese Reformen trugen damit auch der besonderen Rolle der Landwirtschaft beim Schutz von Natur und Landschaft Rechnung. Deutliche Fortschritte bei der Evaluierung von Politikreformen können erreicht werden, wenn die bestehenden ökonomischen und bio-physikalischen Modelle verknüpft würden. Ein wichtiges methodisches Problem liegt in diesem Zusammenhang in der Überbrückung von verschiedenen "Modellskalen": Während die meisten bio-physikalischen Modelle auf der Ebene des Feldschlages arbeiten, modellieren EU-weite agrarökonomische Modelle in der Regel vergleichsweise große administrative Regionen. Der Forschungsbeitrag dieser Dissertation zielt auf eine Verbesserung der integrierten Bewertung der europäischen Agrarpolitikreformen ab. Hierfür werden Methoden entwickelt, die räumlich explizite landwirtschaftliche Informationen zu Bodennutzung und Anbausystemen liefern. Dabei wird zunächst ein Verfahren zur Abschätzung der landwirtschaftlichen Bodennutzung entwickelt. Dies geschieht durch die Verbindung hochaufgelöster Informationen zur pflanzlichen Bodennutzung mit aggregierten Daten aus administrativen Regionen. Ein statistischer Ansatz, der eine Kombination aus einem binären choice Modell mit einem Bayesian highest posterior density estimator darstellt, erlaubt die Disaggregation von regionalen Landnutzungsanteilen auf 100,000, so genannte homogene räumliche mapping units. Die angewandte Bayes'sche Methode erlaubt eine vollständige und transparente Darstellung der prior information - Mittelwert und Varianz der Landnutzungsanteile aus den binären choice Modellen - bei der Suche nach Konsistenz zwischen den verschiedenen Skalen. Nachfolgend wird ein Ansatz zur räumlichen Verteilung von landwirtschaftlichen Betrieben entwickelt, da EU-weite Betriebsinformationen nur auf einer hoch aggregierten Ebene erhältlich sind. Der entwickelte Allokationsalgorithmus ordnet jedem Testbetrieb eine räumliche Dimension zu, die es erlaubt, die Betriebe sowohl natürlichen als auch niedrigeren administrativen Skalen zu zuordnen. Dieser Allokationsalgorithmus ist als Optimierungsmodell mit Nebenbedingungen definiert, die bei der Suche nach einer optimalen Konsistenz zwischen betrieblichen Attributen und räumlichen Eigenschaften helfen. Die Zielfunktion wird von einem Bayesian highest posterior density estimator Ansatz abgeleitet. Zuletzt wird eine Methode zur Integration von räumlich expliziten Betriebsinformationen in das landwirtschaftliche Sektormodell CAPRI vorgestellt. Dieser Ansatz wurde im Rahmen einer Studie zu den wirtschaftlichen und ökologischen Auswirkungen der Abschaffung der EU-Milchquote entwickelt. Dabei wurden ökonometrische Schätzungen aus Testbetriebsdaten genutzt, um die regionalen Milchquotenrenten im CAPRI-Modell zu aktualisieren. Die Ergebnisse zeigen, aggregiert für die EU für das Jahr 2020, dass die Produktion sich um circa 5% erhöhen wird während der Preisrückgang für Rohmilch bei etwa 10% liegt. Weiterhin wurden Regionen identifiziert, in denen die wirtschaftlichen und ökologischen Veränderungen wesentlich die Änderungen auf Ebene der Mitgliedstaaten überschreiten. Regionale Nitratauswaschungsprobleme können sich in Folge der Quotenabschaffung verschärfen, wohingegen es nur schwache Hinweise auf eine Zunahme des Brachlandes in marginalen Gebieten gibt.
BASE