Ever since its independence several reforms in agriculture of Uzbekistan have been taken as part of a gradual transition process towards a market-based economy. These processes include: market liberalization, reformation of land relations, structural changes, and creation of supporting market infrastructure. Furthermore, there has been considerable promotion of input market liberalization, abolishment of state procurement system, introduction of water charges and improvement of the livestock sector. The understanding of the effects of these reforms on the agricultural producers and consumers is very important for further decision making. This work is part of ZEF's project in development research on the 'Economic and ecological restructuring of land and water use in Khorezm, Uzbekistan'. In order to formalize the key aspects of sectoral decision making, the major task of this research is to develop a model for policy analysis which reflects the unique features of the agricultural sector of Khorezm. The developed model integrates linear supply and non-linear demand modules at the point of partial equilibrium under observed values from 2003. The supply module consist of the regional crop and animal production activities over three farm groups. The demand module is based on a Normalized Quadratic – Quadratic Expenditure System which specifies both an Engel curve and relative price effects consistent with microeconomic theory. The demand module consists of food and manufactured commodities including leisure time with endogenous prices over two consumer types. A large amount of aggregated and micro-economic data on the regional agriculture sector is used for providing the necessary information to understand the construction of the model and the results. To ensure that the base solution of the model fits the observed values of modeled activities and that the model simulations include the characteristics of regional demand and supply, the model parameters both for demand and supply modules are adjusted separately. This study contributes to the field of known calibration techniques for positive mathematical programming models. The developed method solves the overspecialization problem, maintains model flexibility, and allows the model exactly replicate the observed situation by recovering its original specification. The model results eventually show that, despite higher input prices and water pricing being introduced, positive effects of water use efficiency and market liberalization may dominate. Furthermore, it could be shown that the livestock sector serves as a security tool in rural households for maintaining their income level. Moreover, the improvement in livestock productivity shows the potential to decrease water consumption in the agricultural sector of the region. The market liberalization will not necessarily lead to an increase in the regional production of cotton. In general, the market liberalization has a positive effect on the regional rice sector which can be cultivated on land released from the procurement quotas in case the land is suitable for rice cultivation. ; Eine Mikroökonomische Analyse des Landwirtschaftlichen Strukturwandels in der Region Khorezm, Usbekistan Seit der Unabhängigkeit von der ehemaligen Sowjetunion fand in Usbekistan eine Vielzahl von wirtschaftspolitischen Reformen statt, die auf einen schrittweisen Umbau der Wirtschaftsordnung, einschließlich des Agrarsektors, in Richtung Marktwirtschaft abzielten. Diese Reformen betrafen Gütermarktordnungen, Eigentums- und Nutzungsrechte landwirtschaftlicher Flächen, sowie infrastrukturelle Maßnahmen. Darüber hinaus wurden insbesondere die Märkte für landwirtschaftliche Vorleistungen liberalisiert, die staatliche Intervention weitgehend abgeschafft, Gebühren für Wassernutzung eingeführt und Maßnahmen zur Förderung der Tierproduktion ergriffen. Ein tieferes Verständnis der Auswirkungen dieser Reformen auf die landwirtschaftlichen Betriebe wie auch auf den gesamten Agrarsektor ist von grundlegender Bedeutung für die Formulierung weiterführender politischer Strategien. Die hier vorgelegte Studie wurde im Rahmen des Projekts 'Economic and ecological restructuring of land and water use in Khorezm, Uzbekistan' am Zentrum für Entwicklungsforschung der Universität Bonn durchgeführt. Im Zentrum der durchgeführten Analysen stand die Entwicklung eines quantitativen Modells, das die relevanten politischen Maßnahmen und die Besonderheiten des regionalen Agrarsektors in formalisierter Weise darstellt. Das hierzu entwickelte Modell verbindet ein lineares Angebotsmodul mit einem nicht-linearen Nachfragemodul mit Hilfe eines partiellen Gleichgewichtsmodells. Das Angebotsmodul beinhaltet landwirtschaftliche Produktionsverfahren dreier standardisierter Betriebstypen auf regionaler Ebene. Das Nachfragemodul basiert auf einem normalisiert quadratisch-quadratischem Ausgabensystem (NQ-QES), welches Einkommenseffekte wie auch relative Preiseffekte konsistent mit mikroökonomischer Theorie abbildet. Das Nachfragemodul berücksichtigt als endogene Variablen den Konsum von Nahrungsmitteln und weiterverarbeiteten Gütern, wie auch die Nachfrage nach Freizeit und damit das Angebot und den Preis für landwirtschaftliche Arbeitskraft. Es werden zwei Haushaltstypen unterschieden. Der enorme Datenbedarf des Modells wird durch offizielle Statistiken für den Agrarsektor und eigene Erhebungen gedeckt. Die strukturellen Parameter des Nachfrage- und Angebotsmoduls wurden in einem zweistufigen Verfahren so kalibriert, dass die Beobachtungen des Basisjahrs 2003 vom Modell repliziert werden. Diese Studie leistet mit der hierzu angewendeten Methode einen Beitrag im Bereich der positiv-mathematischen Programmierung und der Anwendung von Kalibrierungstechniken für partielle Gleichgewichtsmodelle. Die Modellrechnungen zeigen, dass die Einführung von Gebühren für Wassernutzung, wie auch die Verringerung der staatlichen Beihilfen für landwirtschaftliche Vorleistungen, durch Steigerung der Wassereffizienz und weitere Marktliberalisierung kompensiert werden können. Darüber hinaus wurde deutlich, dass Tierhaltung einen großen Beitrag zur Stabilisierung der ländlichen Einkommen leistet. Eine Verbesserung der Produktivität in diesem Bereich würde daher zu einer Verminderung der Abhängigkeit von pflanzlicher Produktion führen und potentiell den regionalen Bedarf nach Wasser verringern. Die regionale Produktion von Baumwolle würde durch eine Liberalisierung der Marktordnung eher sinken, so dass die frei werdenden Flächen zum Teil zum Anbau von Reis genutzt werden könnten.
Diese Dissertation untersucht mehrere energiewirtschaftliche Fragestellungen, in denen Marktmacht eine besondere Rolle spielt; mittels spieltheoretischer Ansätze werden die strategischen Interaktionen mathematisch formuliert und anhand numerischer Methoden Gleichgewichte der Spiele identifiziert. Der Beitrag zum wissenschaftlichen Diskurs rund um den Themenbereich Marktmacht in der Energiewirtschaft liegt in der Entwicklung neuer Ansätze, strategisches Verhalten in partiellen Gleichgewichtsmodellen abzubilden, sowie in der Weiterentwicklung numerischer Methoden zu deren Lösung. Der erste Teil dieser Arbeit befasst sich mit dem globalen Erdölmarkt und der Rolle der Organisation Erdöl-exportierender Länder (OPEC) im letzten Jahrzehnt. Ich formuliere ein Stackelberg-Oligopol, in dem die optimale Ausübung von Marktmacht durch die OPEC-Mitglieder davon abhängt, wie hoch die Kapazitätsauslastung der Nicht-OPEC-Produzenten ist. In einer numerischen Anwendung wird der tatsächliche Preisverlauf mit dem zweistufigen Modell besser abgebildet als mit Standard-Gleichgewichtsmodellen. Das nächste Kapitel wendet sich dem internationalen Erdgasmarkt und - aus mathematischer Sicht - einem mehrperiodigen Investitionsmodell zu. Ich liefere einen Beweis, daß die Berücksichtigung von Investitionen in Erdgas-Marktgleichgewichtsmodellen ein konvexes Problem darstellt und daher mit Standard-Methoden gelöst werden kann. Das folgende Kapitel entwickelt ein partielles Energiesystem-Gleichgewichtsmodell, in dem einzelne Produzenten Marktmacht über mehrere (fossile) Energieträger ausüben können. Dieser Ansatz erlaubt eine Verbindung von Energiesystemmodellen, die zur Analyse möglicher Entwicklungspfade des globalen Energiemixes verwendet werden, mit partiellen Sektormodellen für die Untersuchung von Marktmacht und detailliertem Infrastrukturausbau. Der letzte Teil der Dissertation untersucht das Verhalten national-strategischer Planer im Ausbau des (europäischen) Stromnetzes: der Ausbau von Stromtrassen kann zu Wohlfahrtsverschiebungen zwischen verschiedenen Interessensgruppen (Konsumenten, Erzeuger, Netzbetreiber) sowie über Landesgrenzen führen. Durch das Fehlen effektiver Kompensationsmechanismen im europäischen Rahmen haben nationale Akteure unter Umständen Anreize, Netzausbau in ihrem Zuständigkeitsbereich zu reduzieren, um damit Renten zu ihren Interessensgruppen zu verschieben. Dies wird anhand eines stilisierten Beispiels illustriert. ; This dissertation combines three fields of economics: I take several topics from energy economics, use game theory as the framework to mathematically formulate strategic interaction between several players in these applications, and apply and further develop numerical methods from Operations Research to solve for equilibrium solutions of these games. This work starts with a focus on the crude oil market and the role of the Organization of Petroleum Exporting Countries (OPEC) over the past decade. I propose a Stackelberg oligopoly to describe how market power exertion by OPEC members depends endogenously on the spare capacity of the competitive fringe (i.e., non-OPEC supply). In a numerical exercise, this two-stage model captures the crude oil price spike of 2008 better than standard, simultaneous-move equilibrium concepts widely used in applied work. The following chapter turns from crude oil to natural gas markets and - mathematically - from a one-period quantity game to a multi-period investment model. I provide a proof that including production capacity investment decisions in large-scale partial-equilibrium models yields a convex problem, paving the way for an improvement of this widely used model class. The next chapter develops a large-scale energy system partial-equilibrium model; it combines energy system models, which incorporate fuel substitution, and sector-specific partial-equilibrium models, which are used for market power analyses and consideration of infrastructure investments. The features of this model are illustrated using a large-scale data set and two scenarios: a reduction of shale gas potential in North America, and an ambitious EU policy initiative to reduce carbon dioxide emissions. Numerical results are discussed in terms of carbon leakage rates, trade flows, and fuel mix shifts. The final chapter discusses investment in European power transmission capacity. Several zonal planners play a Nash game regarding their domestic network upgrades; each player anticipates the effect on the welfare allocation and seeks to shift rents to its constituents. The game is coordinated by a supra-national agency, which decides on cross-border investment; mathematically, this constitutes a three-level equilibrium model, which is reformulated using strong duality and a variant of a disjunctive-constraints approach. Using a stylized example, numerical results illustrate that the first-best network investment can not be reached when zonal planners act strategically and compensation mechanisms are not available.
Im Jahr 2015 produzierte die deutsche Schokoladenindustrie ca. 1,02 Mio. t Schokoladenwaren mit einem Marktwert von 6,71 Mrd. €. Bei der industriellen Weiterverarbeitung der Kakaobohnen zu Halb- oder Fertigerzeugnissen muss die Kakaoschale nach der Fermentation und Röstung vom Kakaokern abgetrennt werden. Die vollständige Abtrennung ist allerdings aus technologischen Gründen nicht immer möglich. Rückstände der Kakaoschale sind jedoch in vielerlei Hinsicht als qualitätsmindernd einzustufen, insbesondere wegen der Gefahr des Eintrags von gesundheitsgefährdenden Substanzen (z. B. Mykotoxine, Schwermetallen). In Anlehnung an vergangene Gesetzgebungen sowie den international vorgegebenen Lebensmittelstandards für Kakaomasse durch die Codex-Alimentarius-Kommission hat sich in der kakaoverarbeitenden Branche ein Grenzwert von 5% Schalenanteil etabliert, welcher technologisch als nicht zu vermeiden gilt. Für die Herstellung qualitativ hochwertiger Endprodukte bei Verwendung ausgesuchter Rohstoffe und Halbfabrikate sind leistungsfähige Analysenmethoden zur Wareneingangskontrolle und zur Qualitätssicherung notwendig. Der Kakaoschalengehalt zählt zu diesen Qualitätsparametern. Bisher besteht keine Nachweismethode, welche die globale Wertschöpfungskette zu überwachen und robuste und valide Ergebnisse für den Kakaoschalengehalt zu generieren vermag. Im Zuge dieser Arbeit wurde eine Methode entwickelt, welche den Kakaoschalengehalt auf der Ebene des Metaboloms erfasst. Neben der ausgehenden Gesundheitsgefahr durch den Eintrag von Mykotoxinen und Schwermetallen soll die Methode eingesetzt werden, um kriminell motivierte Streckungen von Kakaoprodukten mit Kakaoschale zur Gewinnmaximierung aufzudecken. Für die Identifizierung der Schlüsselmetaboliten, welche in der Kakaoschale mit einer hohen und im Kakaokern mit einer möglichst kleinen Intensität nachweisbar sind, wurden non-targeted LC-ESI-QTOF Analysemethoden entwickelt und umfangreich optimiert. Die Methoden wurden für die getrennte Analyse des polaren und unpolaren Metaboloms der Kakaoschale und des Kakaokerns eingesetzt. Die Eignung der identifizierten potenziellen Schlüsselmetaboliten für einen validen Kakaoschalennachweis wurde anhand unterschiedlicher Bewertungskriterien überprüft und beurteilt. Die besten Ergebnisse wurden bei der Analyse des unpolaren Metaboloms im positiven Ionenmodus erzielt. Insgesamt konnten 17 Schlüsselmetaboliten aus fünf unterschiedlichen Stoffklassen identifiziert werden: Fettsäuretryptamide, Fettsäure-5-Hydroxy-tryptamide (Serotonin Derivate), α Tocopherol-Derivate, Triacylglycerole und Ceramide. Die Verbindungen weisen einen linearen Zusammenhang zwischen den detektierten Signalen und dem Kakaoschalengehalt im gesamten möglichen Konzentrationsbereich von 0-100 % Kakaoschalengehalt auf. Anhand der identifizierten Metaboliten wurde eine targeted LC-ESI-QqQ-MS/MS Methode entwickelt und nach anerkannten Richtlinien der FDA und DIN 32645 validiert, sodass die Anforderungen für Prüfverfahren nach der DIN EN ISO/IEC 17025 erfüllt sind und somit die Anwendbarkeit der Methode für akkreditierte Laboratorien in der Routineanalytik bewiesen werden konnte. Durch die Analyse einer Kakaoschalen-Kalibrierreihe und die Berechnung unterschiedlicher PLS-R Modelle konnten die Anwendbarkeit und Leistungsfähigkeit der entwickelten targeted Methode gezeigt werden. Die in der vorliegenden Arbeit entwickelte Methode zeichnet sich aufgrund des multiparametrischen Ansatzes durch eine sehr gute Vorhersagegüte, durch die Anwendbarkeit auf unterschiedliche Kakaoprodukte, die kurze Analysendauer von unter 45 min (inklusive Probenvorbereitung) und der geringen Menge an benötigten Chemikalien aus. ; In 2015, the German chocolate industry produced approximately 1.02 million tonnes of chocolate products with a market value of 6.71 billion €. During the further processing of cacao beans into semi-finished or finished products, the cocoa shell must be separated from the cocoa beans. However, absolute separation is not always possible for technological reasons. Residues of the cocoa shell can, after all, be classified as quality degrading in many respects. The most important reason for this is the introduction of hazardous substances into cocoa products via the cocoa shell (e.g. mycotoxins, heavy metals). In line with past legislation and the international food standards for cocoa mass set by the Codex Alimentarius Commission, the cocoa industry has established a limit value of 5 % shell content, which is technologically unavoidable. High-performance analytical methods for incoming goods inspection and quality assurance are essential for the production of high-quality products using selected raw materials and semi-finished products. The cocoa shell content is one of these quality parameters. Up to the present, no detection method has been available to monitor the global value chain and generate robust and valid results for the cocoa shell content. In this work, a method was developed which determines the cocoa shell content on the level of the metabolome. In addition to the health hazards posed by mycotoxins and heavy metals, the method can be used to detect criminally motivated stretching of cocoa products with cocoa shells in order to maximise profits. Non-targeted LC-ESI-QTOF analysis methods were developed and extensively optimised for the identification of key metabolites. The key metabolites can be found in the cocoa shell at a high and in the cocoa nibs at a low concentration. These methods were used for the separate analysis of the polar and non-polar metabolome of the cocoa shell and cocoa nibs. The suitability of the identified potential key metabolites for a valid cocoa shell detection was examined and rated according to different evaluation criteria. The best results were obtained in the analysis of the nonpolar metabolome in positive ion mode. A total of 17 key metabolites from five different substance classes were identified: Fattyacidtryptamide, Fattyacid-5-hydroxy-tryptamide (Serotonin Derivative), α-Tocopherol derivatives, Triacylglycerole and Ceramides. The compounds show a linear relationship in the entire concentration range (cocoa shell content 0-100 %). Based on the identified metabolites, a targeted LC-ESI-QqQ-MS/MS method was developed and validated according to approved guidelines of the FDA and DIN 32645, so that the requirements for bioanalytical methods according to DIN EN ISO/IEC 17025 are fulfilled and the applicability of the method for accredited laboratories in routine analysis could be proven.3 The practicability and performance of the developed targeted-method could be demonstrated by analysing a cocoa shell calibration series and calculating different PLS-R models. The developed method impresses not only by the very good predictive quality but also by the applicability for different cocoa products, and the short analysis time of less than 45 min including sample preparation and the low amount of chemicals required.
Im Zuge der Energiewende ergibt sich in der Elektrizitätswirtschaft der Bedarf an einer grundlegenden Erneuerung verschiedener Infrastrukturkomponenten. Von Kraftwerken, Übertragungsnetzen, Laststeuerungstechnologien bis hin zu Speichersystemen wird eine große Bandbreite an technischen Lösungen vorgeschlagen um die Systemintegration von erneuerbaren Energien zu fördern. Vor dem Hintergrund der laufenden Umstrukturierung des Stromsektors besteht bei Unternehmen, Politik und Gesellschaft ein erhöhtes Interesse an Analysen zur Wirtschaftlichkeit verschiedener Lösungen. Motiviert durch dieses Interesse, beschäftigt sich die vorliegende Dissertation mit der ökonomischen Bewertung von Investitionen in verschiedene Infrastrukturkomponenten des Strommarktes. Nachdem Kapitel 1 der Arbeit Grundlagen zur Elektrizitätswirtschaft vermittelt, werden im zweiten Kapitel der Betrieb und die Dimensionierung von Speichern und Laststeuerungssystemen in einer Fallstudie optimiert und die Wirtschaftlichkeit der beiden Technologien verglichen. Das darauf folgende Kapitel geht auf die Rentabilität des Betriebes einer öffentlichen (Schnell-) Ladestation für Elektrofahrzeuge ein und untersucht dabei mögliche Geschäftsmodelle für einen profitablen Infrastrukturbetrieb. Zwei weitere Kapitel untersuchen im Folgenden Anreize für Investitionen in fossile Kraftwerke bei Beibehaltung des heutigen Marktsystems mit Grenzkostenpreisen auf Großhandelsmärkten. Die Analyse thematisiert somit die zukünftige Entwicklung des Kraftwerksparks in Deutschland und Europa auch unter dem Aspekt von Unsicherheiten bei Brennstoff- und CO2-Preisen. Da die Entwicklung des Kraftwerksparks nicht zuletzt auch im Zusammenhang mit den Plänen zum Stromnetzausbau zu sehen ist, sind die letzten zwei Kapitel der Arbeit der Interaktion zwischen Netz- und Erzeugungsausbau gewidmet. Dabei werden aktuelle Planungen zum deutschen und europäischen Netzausbau explizit in die Analyse eingebunden. Methodisch zeichnet sich die vorliegende Dissertation durch die Nutzung numerischer Optimierungsmodelle in allen Kapiteln aus. Techno-ökonomische Modelle werden verwendet um fundamentale Eigenschaften von Strommärkten nachzubilden und geeignete Investitionsentscheidungen herzuleiten. Eine Gemeinsamkeit aller Kapitel ist die operative Optimierung der Stromproduktion im zeitlichen Verlauf ("Dispatch") bei gegebener oder endogen determinierter Kapazität. Dabei greifen einige Modelle mathematisch auf ein Gleichgewichtsformat zurück und berücksichtigen teilweise stochastische Komponenten. Modellanwendungen behandeln Investitionsentscheidungen aus der Perspektive verschiedener Akteure, darunter private Investoren, Systembetreiber und die öffentliche Hand. Die geografische Dimension deckt in den Anwendungen von Verteilnetzen bis hin zu europaweiten Übertragungsnetzen mehrere Ebenen ab. ; The ongoing structural transformation of power systems calls for a fundamental overhaul of electricity infrastructure throughout all system components, be it power plants, grids, load management technologies, storage systems or other elements. In the light of the massive changes that the system is likely to undergo within the decades following 2012, it is interesting to study the drivers of investment decisions into various infrastructures to support the power system restructuring. Driven by the increased interest in the economics of power markets, the Thesis performs analysis for investment appraisals to different infrastructure components of future electricity markets. Applications cover a wide range of infrastructure elements such as electric storage, smart grid elements, transmission lines and power plants. The Thesis starts with an introduction into basic concepts of power market economics. Chapter 2 entails an analysis of the use of storage and demand-side-management tools where the sizing of batteries and load control systems is optimized. It follows an investigation of the business case of fast charging stations for electric vehicles. Subsequently, the Thesis includes two chapters on the evolution of fossil-fired power generation capacities where investment incentives under the current power market design are investigated. Since power plant expansion is closely interlinked with grid development plans, the last two chapters are dedicated to the analysis of the interdependency between transmission grids, congestion and investment into generation capacity. Reference is made to recent plans of transmission expansion projects in Germany and Europe. In all parts of the Thesis, numerical optimization methods are used to approximate the fundamental functioning of markets and derive appropriate investment decisions from these models. Common to all chapters is the use of techno-economic power market analysis where electricity dispatch is optimized in combination with or given some specific capacity decision. The fundamental models are partly casted in complementarity format and some applications do include stochastic elements. The various chapters of the Thesis adopt the perspective of private agents, system operators or social welfare maximizers while the geographical coverage ranges from distribution grid level to European markets.
Irrigated agriculture for cotton and wheat production forms the backbone of the rural economy in the Khorezm region. Ecological deterioration and inefficient resource use have resulted in and now present a significant threat to the livelihoods of those most dependent on this sector. Inefficient water use has led to rising ground water tables and widespread water and soil salinization has resulted. The high water demand in the region for crop production renders farmers vulnerable to the recurrently predicted decrease in water supply. Farmers in the Khorezm region are vulnerable to uncertain water supplies due to current policies which restrict their decision making in terms of what type of crops to grow, when and where. Similarly, there are ever increasing risks in terms of yields and price fluctuations due to natural conditions and fluctuations in the market. This study contributes to understanding key obstacles and potential solutions to promoting sustainable development in the region. Moving beyond previous disciplinary approaches in this area, this work includes different crop allocation and water use options in a systems context, where linkages between the environment and socio-economic impacts are considered simultaneously in the analysis of economic and ecological benefits from different agricultural activities. To this end, a static, stochastic model for Khorezm was developed to explore potential risk reducing strategies for farmers, while accounting for the ecological consequences potential policies. Worldwide, mathematical modelling has proven to be an effective instrument for increasing the overall understanding of the complexity of water demand and supply processes, while analysing resource-saving alternatives that are both economically and ecologically sustainable. In order to maximize the utility and applicability of such an approach, each model must incorporate local agro-ecological, social and economic conditions. A stochastic programming model was developed to combine the Expected Value-Variance (EV) approach with chance-constrained programming. Analysis was carried out using data from one Water Users' Associations (WUA), Shamahulum, located in the Khiva district of the Khorezm region. The developed model considered the optimization of water and land allocation of 300 fields, belonging to 99 farmers in one Water User Association (WUA). The availability of Geographical Information System (GIS) based data allowed the integration of spatial aspects into the model. The model was calibrated using various Constant Relative Risk Aversion levels (CRRA). The CRRA is adjusted as the core parameter in the base run of the model and is set to match the observed activity level in the case study WUA. Following the calibration, various simulations were conducted to account for the impact of different policy scenarios. The combined outcomes of the simulations provided a basis for assessing potential effects of different policy measures given the dynamics of the on-going reform strategies in Uzbekistan. The model findings suggest that allocating the area to less water demanding crops and usage of alternative irrigation methods will help to secure farmer income. However, farmers remain unable to fully utilize these risk coping strategies due to occupation of more than 70% of the area with state order, low income crops, including cotton and winter wheat. Key findings from the study indicate the possibility of improving water use efficiency (WUE) and thus the environmental situation in the region through the introduction of water pricing. Results also showed that economic and ecological development could be achieved simultaneously only under the presence of more flexible decision making at the farm level. ; Modellierung der Verteilung von Ackerkulturen und Frischwasser in der Beregnungslandwirtschaft unter Unsicherheit : Eine Fallstudie aus der Khorezm Region in Uzbekistan Bewässerungslandwirtschaft für Baumwoll- und Weizenproduktion ist das Rückgrat der ländlichen Wirtschaft in der Khorezm Region Usbekistans. Ökologische Zerstörung und ineffiziente Ressourcennutzung haben zu einer signifikanten Bedrohung der Existenzgrundlage derjenigen Menschen geführt, die am meisten von diesem Sektor abhängen. Ineffiziente Wassernutzung hat steigende Grundwasserspiegel verursacht, mit der Folge verbreiteter Wasser- und Bodenversalzung. Die hohe Wassernachfrage für den Pflanzenbau in der Region Landwirte verwundbar für den wiederholt vorhergesagten Rückgang der Wasserversorgung. Landwirte in der Khorezm Region sind gefährdet durch unsichere Wasserversorgung gefährdet, da aktuelle Politiken ihre Entscheidungsfindung darüber, welche Pflanzenarten wann und wo anzubauen sind, einschränken. Ebenso bestehen steigende Risiken in Bezug auf Erträge und Preisfluktuationen aufgrund von natürlichen Bedingungen und Schwankungen am Markt. Diese Studie trägt zum Verständnis der Haupthindernisse und potentiellen Lösungen für die Förderung von nachhaltiger Entwicklung in der Region bei. Als Weiterentwicklung von früheren disziplinären Ansätzen in diesem Bereich, bringt diese Arbeit verschiedene Allokationen von Anbaupflanzen und Optionen der Wassernutzung in einen Systemkontext, wobei Verbindungen zwischen der Umwelt und den sozioökonomischen Auswirkungen in der Analyse der wirtschaftlichen und ökologischen Vorteile verschiedener landwirtschaftlicher Aktivitäten gleichzeitig berücksichtigt werden. Zu diesem Zweck wurde ein statisches stochastisches Model für Khorezm entwickelt, um, unter Berücksichtigung der ökologischen Konsequenzen möglicher Politiken, die potentiellen risikovermindernden Strategien für Landwirte zu untersuchen. Weltweit hat sich die mathematische Modellierung als ein effektives Instrument erwiesen, um das Gesamtverständnis der komplexen Prozesse von Wassernachfrage und -angebot zu verbessern und gleichzeitig ressourcenschonende Alternativen, die sowohl ökonomisch als auch ökologisch nachhaltig sind, zu analysieren. Um den Nutzen und die Anwendbarkeit eines solchen Ansatzes zu maximieren, muss jedes Modell lokale agro-ökologische, soziale und ökonomische Bedingungen einbeziehen. Es wurde ein stochastisches Programmierungsmodell entwickelt, um den Erwartungswert Varianz Ansatz (Expected Value Variance, EV) mit Chance-Constrained Programmierung zu kombinie-ren. Die Analyse wurde mit Rückgriff auf Daten einer Wassernutzervereinigung, Shamahulum, aus dem Khiva Distrikt der Khorezm Region durchgeführt. Das entwickelte Modell betrachtete die Optimierung von Wasser- und Landallokation von 300 Feldern, die im Besitz von 99 Landwirten einer Wassernutzervereinigung sind. Die Verfügbarkeit von Daten auf Basis des Geographical Information System (GIS) erlaubte die Integration von räumlichen Aspekten in das Modell. Das Modell wurde mit Hilfe verschiedener Konstanter Relativer Risikoaversionsstufen (Constant Relative Risk Aversion, CRRA) kalibriert. Die CRRA wurden im Grunddurchlauf des Modells als Hauptparameter eingerichtet und so eingestellt, dass sie dem beobachteten Aktivitätsniveau der Wassernutzervereinigung der Fallstudie entsprachen. Nach der Kalibrierung wurden verschiedene Simulationen durchgeführt, um den Einfluss verschiedener Politikszenarien aufzuzeigen. In Anbetracht der Dynamiken der fortlaufenden Reformstrategien in Usbekistan lieferten die kombinierten Ergebnisse der Simulationen eine Grundlage für die Bewertung der potentiellen Effekte verschiedener Politikmaßnahmen. Die Modellergebnisse lassen darauf schließen, dass die Bebauung des Gebietes mit weniger wasserverbrauchenden Pflanzen und die Nutzung von alternativen Bewässerungsmethoden dazu beitragen werden, das Einkommen der Landwirte zu sichern. Allerdings ist es für die Landwirte weiterhin nicht möglich, diese risikovermindernden Strategien vollständig zu nutzen, da unter staatlicher Kontrolle auf mehr als 70% des Gebietes ertragsschwache Pflanzen, wie Baumwolle und Winterweizen, angebaut werden. Schlüsselergebnisse der Studie deuten auf die Möglichkeit, die Effizienz der Wassernutzung – und damit die Umweltsituation in der Region – durch die Einführung von Wasserbepreisung zu verbessern. Die Resultate haben auch gezeigt, dass wirtschaftliche und ökologische Entwicklung nur dann gleichzeitig erreicht werden kann, wenn auf Farmebene die Möglichkeit einer flexibleren Entscheidungsfindung besteht.
Aus der Einleitung: Problemstellung: In der Vergangenheit war das Risikomanagement der Banken überwiegend auf die isolierte Betrachtung einzelner Risikoarten, Unternehmensbereiche und Regionen ausgerichtet, die aus Sicht der Gesamtbanksteuerung zu Fehlentscheidungen führen könnte. Die Finanzkrisen der letzten Jahre haben gezeigt, dass verschiedene Risikoarten häufig nicht allein, sondern fast gleichzeitig zusammen auftauchen und durch gegenseitige Wechselwirkungen die Situation gemeinsam beeinflussen. Risikomanagement ist daher nicht nur auf der Einzelgeschäftsebene bzw. Geschäftsfelderebene, sondern auch auf der Gesamtbankebene zu integrieren. Mit der Tendenz zur Globalisierung, schwacher Konjunktur, verschärftem Wettbewerb und Kostendruck erfährt der Markt der Kreditinstitute seit einiger Zeit einen strukturellen Wandel. Neue strategische Ausrichtungen und neue Geschäftsmodelle wurden von den Kreditinstituten durchgesetzt, um sich der Dynamik des Finanzmarktes anzupassen. Eng damit verbunden ist, dass die Bankgeschäfte komplizierter und risikoreicher geworden sind. Als Konsequenz entwickeln sich die Banken zunehmend vom "Risk Taker" zum "Risk Manager". Das aktive Risikomanagement führt das Risiko-Rendite-Kalkül vorher durch, so dass die Kapitalressourcen in vorteilhaften Geschäften, die eine höhere risikoadjustierte Performance haben, angelegt werden. Im Rahmen der Gesamtbanksteuerung wird gleichzeitig das Gesamtbankportfolio optimiert und der gesamte Ertrag maximiert. Davon ausgehend ist es sinnvoller, Risikomanagement und Rentabilitätsmanagement enger miteinander zu verknüpfen und ganzheitlich zu steuern. Ein Kreditinstitut ist hinsichtlich der entstehenden Risiko-/Ertragsbeziehungen als Gesamtportfolio aller Einzelgeschäfte zu betrachten und steuern. Das Gesamtbankportfolio besteht aus verschiedenen Komponenten, die gleichzeitig durch verschiedene Risikoarten beeinflusst werden. Das Risikomanagement, das durch integrierte Betrachtung der verschiedenen Risikoarten geprägt und auf Optimierung des Gesamtbankportfolios ausgerichtet ist, ist daher unabdingbar für die Gesamtbanksteuerung. Vor diesem Hintergrund konzentrieren viele Banken sich zunehmend auf die Entwicklung und Umsetzung integrierter Risikomanagementansätze, die die verschiedenen Risikoarten und die Gesamtheit aller organisatorischen Einheiten in den übergreifenden Prozess der Risikoidentifikation, -bewertung und -steuerung einbeziehen. Risikomanagement kann nur zum Erfolg führen, wenn es aus dem Blickwinkel der Gesamtbanksteuerung sämtliche Prozesse ganzheitlich betrachtet. Das integrierte Risikomanagement gewinnt an Bedeutung sowohl für das Überleben und Entwicklung des Kreditinstituts als auch für die Erfüllung der aufsichtsrechtlichen Forderungen an die Risikobegrenzung. Mit den zunehmenden Anforderungen der nationalen und internationalen Bankenaufsicht bezüglich des Risikomanagements stehen die Kreditinstitute in einem Spannungsfeld, in dem sowohl die Anforderungen der modernen Bankbetriebswirtschaft als auch die Anforderungen der Bankenaufsicht erfüllt werden müssen. Im Zusammenhang mit Basel II wird gefordert, dass bei der Eigenkapitalausstattung die insgesamt übernommenen Risiken der Bank berücksichtigt und gemessen werden müssen, die entsprechende Risikovorsorge für den Erhalt des Eigenkapitalniveaus getroffen werden muss und die Risikotragfähigkeit laufend sicherzustellen ist. Um Basel II und die MaRisk umzusetzen, haben die Kreditinstitute in den letzten Jahren eine Vielzahl von internen Verfahren der Risk-/Return-Steuerung eingeführt. Die Konsolidierung dieser Verfahren und die Weiterentwicklung des Risikomanagements zu einer integrierten Gesamtbanksteuerung stellt eine zentrale Herausforderung für die nächsten Jahre dar. Vorstellung des Inhalts der Arbeit: In dieser Arbeit wird es zunächst auf die relevanten Bankenaufsichtsrechtlichen Anforderungen und die Umsetzung von Basel II und der MaRisk hinsichtlich des Risikomanagements im Rahmen der Gesamtbanksteuerung eingegangen. Anschließend werden die Grundsätze des Risikomanagements dargestellt und die drei zentralen Aufgaben bei der integrierten Umsetzung des Risikomanagements im Rahmen der Gesamtbanksteuerung, nämlich Risikoaggregation, Risikokapitalallokation und Risikotragfähigkeit, unter Berücksichtigung der aufsichtsrechtlichen Anforderungen behandelt. Danach wird das bankinterne Risikomanagement von zwei mittelständischen Banken in Deutschland, nämlich der Commerzbank und der Landesbank Baden-Württemberg, dargestellt. Dadurch werden der Stand des Risikomanagements in der Praxis und die Umsetzung neuen aufsichtsrechtlichen Anforderungen in Deutschland beleuchtet. Am Ende der Arbeit wird der Banksektor in China, der in der letzten Zeit durch unfangreiche Reformen und rasantes Wachstum gekennzeichnet wird, vorgestellt.Inhaltsverzeichnis:Inhaltsverzeichnis: 1.Einleitung1 1.1Problemstellung1 1.2Vorstellung des Inhalts der Arbeit2 2.Bankenaufsicht als Rahmenbedingung von Risikomanagement4 2.1Basel II4 2.1.1Überblick Basel II4 2.1.2Säule I: Mindesteigenkapitalanforderungen5 2.1.3Säule II: Aufsichtsrechtliches Überprüfungsverfahren6 2.1.4Säule III: Stärkung der Marktdisziplin und Offenlegung7 2.2MaRisk7 2.2.1Überblick MaRisk7 2.2.2Zentrale Anforderungen im Rahmen der Gesamtbanksteuerung8 2.2.2.1Risikotragfähigkeit8 2.2.2.2Risikocontrolling9 2.3Auswirkungen und Entwicklungen der aufsichtsrechtlichen Anforderungen10 3.Risikomanagement bei der risiko-/ertragsorientierten Gesamtbanksteuerung14 3.1Anforderungen des Risikomanagements bei der risiko-/ertragsorientierten Gesamtbanksteuerung14 3.2Grundsätze des Risikomanagements16 3.2.1Risikokategorien im Überblick17 3.2.2Risikopolitik19 3.2.3Phasen des Risikomanagements20 3.3Risikoaggregation bei der risiko-/ertragsorientierten Gesamtbanksteuerung24 3.3.1Notwendigkeit der Risikoaggregation24 3.3.2Value-at-Risk-basierte Risikomessung25 3.3.2.1Grundgedanke der VaR-Ansätze25 3.3.2.2Merkmale der VaR-Ansätze26 3.3.2.3VaR und ökonomisches Eigenkapital27 3.3.3Ansätze zur Risikoaggregation30 3.3.3.1Varianz-Kovarianz-Verfahren30 3.3.3.2Copula-Verfahren31 3.4Risikokapitalallokation der risiko-/ertragsorientierten Gesamtbanksteuerung32 3.4.1Zieldarstellung für die risikoadjustierte Performance Messung33 3.4.2RAPM-Kennzahlen34 3.4.3Anwendung der RAPM-Kennzahlen bei der Risikokapitalallokation37 3.5Risikotragfähigkeit im Rahmen der Gesamtbanksteuerung39 3.5.1Bestimmung der Risikodeckungsmasse40 3.5.1.1Risikodeckungspotential40 3.5.1.2Abgrenzung der Risikodeckungsmassen42 3.5.2Ermittlung der Gesamtbankrisiken44 3.5.3Risikotragfähigkeitsanalyse45 3.5.3.1Risikotragfähigkeitskalkül45 3.5.3.2Szenariobetrachtung46 3.5.4Aufteilung der Risikodeckungsmasse auf Risikoarten und Geschäftsbereiche46 4.Risikomanagement am Beispiel der Commerzbank und der Landesbank Baden-Württemberg48 4.1Risikomanagement der Commerzbank48 4.1.1Profil48 4.1.2Konzernrisikostrategie48 4.1.3Risikosteuerungsgröße50 4.1.4Risikotragfähigkeit51 4.1.5Umsetzung der aufsichtsrechtlichen Anforderungen52 4.1.6Risikomanagement der ausgewählten Risikoarten53 4.1.6.1Adressenausfallrisiken53 4.1.6.2Markpreisrisiken56 4.1.6.3Operationelle Risiken57 4.1.7Zwischenfazit57 4.2Risikomanagement der Landesbank Baden-Württemberg (LBBW)58 4.2.1Profil58 4.2.2Risikopolitik58 4.2.3Risikotragfähigkeit59 4.2.4Umsetzung der aufsichtsrechtlichen Anforderungen60 4.2.5Zwischenfazit61 4.3Vergleich zwischen Commerzbank und LBBW61 5.Banken in China65 5.1Überblick über Chinas Banksektor65 5.2Schwäche des Risikomanagements in Chinas Banksektor67 5.3Bankregulierung in China70 5.4Zwischenfazit71 6.Fazit73 Anhangverzeichnis74 Literaturverzeichnis83Textprobe:Textprobe: Kapitel 3.3, Risikoaggregation bei der risiko-/ertragsorientierten Gesamtbanksteuerung: Notwendigkeit der Risikoaggregation: Das Risikomanagement erfolgt häufig isoliert für einzelne Unternehmenseinheiten, denen jeweils geschäftsspezifische Risikomessungsverfahren mit unterschiedlichen Modellannahmen und –parametern zugrunde liegen. Die risiko-/ertragsorientierte Gesamtbanksteuerung verlangt eine integrierte Risikomessung, durch die das Gesamtrisikoprofil aus unterschiedlichen Risikoarten ermittelt werden kann. Ferner ist das Gesamtrisiko der Bank durch eine adäquate Aggregation der einzelnen Risikobeiträge möglichst genau zu quantifizieren, weil das Gesamtrisiko Grundlage für die Gewährleistung der Risikotragfähigkeit ist. Einerseits muss eine Bank immer über ausreichendes Eigenkapital verfügen, um auftretende Verluste, die hauptsächlich durch das Gesamtrisiko dargestellt werden, abzudecken. Andererseits muss die Bank immer überwachen, ob das Gesamtrisiko die Obergrenze des Limits überschreitet. Außerdem ist das Gesamtrisiko Basis für die Berechnung des Rendite-Risiko-Verhältnisses. Daher muss sich ein Risikomaß im Sinne einer integrierten gesamtbankweiten Risikomessung gleichermaßen zur Quantifizierung aller relevanten Risiken eignen. Das verbreitetste Risikomaß ist in der Praxis der Value-at-Risk (VaR). Auf Grund der besseren Vergleichbarkeit der Messergebnisse zwischen Risikoarten und Geschäftsbereichen werden mathematisch-statistische Verfahren, wie z.B. das Value-at-Risk-Verfahren, zunehmend durchgesetzt. Die Szenarioanalyse mit ihren Charakteristika geringen Informations- und Aufwandsbedarfs wird als notwendige Ergänzung der Risikosteuerung gefordert. Value-at-Risk-basierte Risikomessung: Grundgedanke der VaR-Ansätze: Im Rahmen der mathematisch-statistischen Verfahren hat sich bei der Betrachtung von Marktpreis- und Kreditrisiken in den letzten Jahren überwiegend eine Quantifizierung durch Value-at-Risk-Verfahren in der Bankpraxis durchgesetzt. Der VaR wird aus der regulatorischen Sicht, z.B. von Basel Committee, als Benchmark für die Risikomessung angewendet, weil er Grundlage des bankinternen Modells der Risikomessung bildet. Das Risiko resultiert normalerweise aus der Veränderung der Marktverhältnisse, die nicht von vornherein erkannt, aber als Zufallsvariable aufgefasst werden kann. Durch ein geeignetes Verfahren können eine Wahrscheinlichkeitsverteilung und ein Quantil bestimmt werden. Daraus ergibt sich, welchen Wert die Zufallvariable mit einer gewissen Wahrscheinlichkeit maximal erreicht oder nicht überschreitet. Dieser Wert wird durch den Value-at-Risk dargestellt. Der Value-at-Risk stellt den höchsten möglichen Verlust dar, der mit einer vorgegebenen Wahrscheinlichkeit (Konfidenzniveau) innerhalb einer bestimmten Periode (Haltedauer) nicht überschritten wird. Bezogen auf das Gesamtbankportfolio beschreibt der VaR das maximale Verlustpotential für den Marktwert des Eigenkapitals einer Bank. Das VaR-Modell quantifiziert das Risiko nach zuvor definierten Parametern, im Wesentlichen das gewünschte Sicherheitsniveau (Konfidenzniveau) und die Haltedauer der betrachteten Risikopositionen. Die Wahl dieser beiden Parameter ist maßgeblich abhängig vom Verwendungszweck des zu ermittelnden VaR-Werts. In der Commerzbank und Landesbank Baden-Württemberg z.B. wird der VaR von Marktpreisrisiken unter einem Konfidenzniveau von 99% und einer Haltedauer von zehn Tage ermittelt, während das Gesamtrisiko mittels VaR unter einem Konfidenzniveau von 99,95% und einer Haltedauer von einem Jahr bestimmt wird. Das höhere Konfidenzniveau bei der Ermittlung des Gesamtrisikos kann die Risikotragfähigkeit der Bank mit ausreichender Sicherheit gewährleisten. Die kürzere Haltedauer bei Ermittlung der Marktpreisrisiken sichert die frühzeitige Erkennung von Änderungen der Marktsituation ab. Zur Berechnung des VaR können die historische Simulation, der Varianz-Kovarianz-Ansatz und die Monte-Carlo-Simulation in der Praxis zumeist angewendet werden. Die Analyse der vorhandenen Risikostruktur im Zusammenhang mit der Festlegung der Risikofaktoren bildet dabei die Grundlage der Berechnung. Unabhängig von der Wahl der genannten Methoden muss die Vergleichbarkeit des VaR zwischen den Risikoarten hinsichtlich Konfidenzniveau und Haltedauer sichergestellt werden. Um das Gesamtrisiko zu ermitteln, werden hauptsächlich Markt-, Kredit- und operationelle Risiken, gelegentlich auch Geschäftsrisiken, aggregiert. Diese Risiken unterliegen unterschiedlichen Verteilungen und verschiedenen Risikofaktoren. Bei der Zusammenführung der VaR-Größen für die einzelnen Risikoarten sind die Vergleichbarkeit der unterschiedlichen Risikoarten und die Korrelationen innerhalb der Risikoarten und zwischen ihnen zu berücksichtigen. Außerdem erfordern die Prozesse der Risikoaggregation eine Vereinheitlichung zwischen den verschiedenen Geschäftssegmenten innerhalb einer Bank bzw. eines Konzerns.
Dieser Beitrag thematisiert das neue Schweizer Schuleingangsmodell der "Grundstufe" resp. der "Basisstufe". Ausgehend von seiner Präsentation, der Darstellung des aktuellen Forschungsstandes und der laufenden Diskussion werden theoretische Überlegungen zu bildungspolitischen Relevanzforderungen angestellt, die insbesondere zur 'Verschulung' des bisher 'bildungsfreien' Vorschulraums vorliegen und aufgrund fehlender bildungstheoretischer Grundlagen unterschiedliche Vorstellungen über Ziele und Inhalte geradezu provozieren. Hinsichtlich der Umsetzung des Modells müssen deshalb Realisierungsprobleme erwartet werden, die sich unter anderem im früher als bisher erlaubten Kompetenzerwerb in Lesen und Mathematik artikulieren. Vorgestellt wird das Forschungsdesign einer empirischen Studie, die die politikrelevante These prüft, welche Kinder wann, wie und unter welchen Bedingungen lesen und rechnen lernen und welche Auswirkungen damit auf ihre persönliche Entwicklung und auf die anderer Kinder der Klasse verbunden sind. (DIPF/Orig.) ; The author discusses the new Swiss model of school entrance, the "ground level" or "basic level". On the basis of its presentation, of on outline of the state of the art in research and of the ongoing discussions, the author presents theoretical considerations regarding the demand for educationalpolitical relevance which have been formulated especially with regard to the integration of the, until now rather "educational-free", field of the pre-school into the school system and which have, due to a lack of educational-theoretical fundamental principles, provoked diverse conceptions of its aims and content. Therefore, problems have to be expected regarding the realization and implementation of this model, - problems, for instance, in the field of the much earlier acquisition of reading and mathematical competences. The research design of an empirical study is outlined which examines the politically relevant question of when, how, and under what circumstances which children learn how to read and count and which consequences this has on their individual development and on that of other children in the class. (DIPF/Orig.)
The objective of the EU Timber Regulation (EUTR), enforced since March 2013, is for importers and exporters to commit to reducing the risk of trading timber products from illegal sources in the EU. EUROSTAT time series on monthly trade with wood products from January 1988 to August 2016 were used to monitor the law's impact. The time series, subdivided into sections before and after the implementation of EUTR, were investigated in time and frequency domains. The analyses in the time domain indicated the adequateness of the AR (1) and ARMA (1, 1) models. As the confidence intervals for their estimates before and after EUTR do not overlap, the respective time series are considered as different and the influence of EUTR legislation probable (also confirmed by the significant models with EUTR as intervening event). Long term variation of the monthly time series (March 2013 to August 2016) show an increasing linear trend for all wood products and for wood products with tropical woods excluded. Since EU imports of tropical wood were falling before EUTR, the stagnant imports thereafter are judged as uncertainty and time the markets need to adapt to a new legislative situation. The analyses in frequency domain based on inference from periodogram revealed cycles of 3, 4, 6 and 12 months, except for time series of tropical wood imports after EUTR. If cycles are thought of as inherent to import time series, this lack in tropical wood imports can be an indication of a 'wait-and-see' attitude of importers as a consequence of EUTR. ; Die Europäische Holzhandelsverordnung (EUTR) trat im März 2013 in Kraft. Diese Verordnung zielt darauf ab, die Verpflichtung der Marktteilnehmer in der EU zur Vermeidung des Holzhandels aus illegalen Quellen zu stärken. Um die Auswirkungen von EUTR auf Holzhandel zwischen Europa und nichteuropäischen Ländern bewerten zu können, wurden, auf EUROSTAT Daten basierend, umfangreiche Zeitreihenanalysen für den Zeitraum vom Januar 1988 bis August 2016 durchgeführt. Die Zeitreihen wurden sowohl im Zeit- als auch im Frequenzbereich untersucht. Dabei zeigte sich, dass zur mathematisch-statistischen Modellierung der monatlichen Handelsmengen mit Holzprodukten autoregressive AR(1) bzw. Autoregressiv-Moving-Average Modelle ARMA(1, 1) adäquat sind. Die Analyse der partitionierten Abschnitte der Zeitreihen vor und nach Inkrafttreten der EUTR ergab statistisch signifikante Unterschiede, so dass der Einfluss der Holzhandelsverordnung als Interventionseffekt im Holzhandel als wahrscheinlich erachtet wird. Wichtig ist allerdings, dass der Holzhandel wegen EUTR keine quantitativen Einbrüche verzeichnet: der Handel mit allen Holzprodukten weist sogar einen positiven, linearen Trend ab März 2013. Da die Importe der tropischen Holzprodukte vor dem Inkrafttreten der EUTR rückläufig waren, kann die Stagnation des Holzhandels mit den tropischen Holzprodukten nach EUTR auf eine Unsicherheit der Marktteilnehmer und eine Art von 'wait-and-see' Verhalten hindeuten. Festgestellt wurde auch eine auffällige Veränderung der Zeitreihen im Frequenzbereich: die vor EUTR deutliche 3, 4, 6 und 12 monatliche Zyklen bei Importmengen aus den tropischen Ländern konnten in den Zeitreihen nach Inkrafttreten der EUTR nicht mehr nachgewiesen werden.
Die Europäische Holzhandelsverordnung (EUTR) trat im März 2013 in Kraft. Diese Verordnung zielt darauf ab, die Verpflichtung der Marktteilnehmer in der EU zur Vermeidung des Holzhandels aus illegalen Quellen zu stärken. Um die Auswirkungen von EUTR auf Holzhandel zwischen Europa und nichteuropäischen Ländern bewerten zu können, wurden, auf EUROSTAT Daten basierend, umfangreiche Zeitreihenanalysen für den Zeitraum vom Januar 1988 bis August 2016 durchgeführt. Die Zeitreihen wurden sowohl im Zeit- als auch im Frequenzbereich untersucht. Dabei zeigte sich, dass zur mathematisch-statistischen Modellierung der monatlichen Handelsmengen mit Holzprodukten autoregressive AR(1) bzw. Autoregressiv-Moving-Average Modelle ARMA(1, 1) adäquat sind. Die Analyse der partitionierten Abschnitte der Zeitreihen vor und nach Inkrafttreten der EUTR ergab statistisch signifikante Unterschiede, so dass der Einfluss der Holzhandelsverordnung als Interventionseffekt im Holzhandel als wahrscheinlich erachtet wird. Wichtig ist allerdings, dass der Holzhandel wegen EUTR keine quantitativen Einbrüche verzeichnet: der Handel mit allen Holzprodukten weist sogar einen positiven, linearen Trend ab März 2013. Da die Importe der tropischen Holzprodukte vor dem Inkrafttreten der EUTR rückläufig waren, kann die Stagnation des Holzhandels mit den tropischen Holzprodukten nach EUTR auf eine Unsicherheit der Marktteilnehmer und eine Art von 'wait-and-see' Verhalten hindeuten. Festgestellt wurde auch eine auffällige Veränderung der Zeitreihen im Frequenzbereich: die vor EUTR deutliche 3, 4, 6 und 12 monatliche Zyklen bei Importmengen aus den tropischen Ländern konnten in den Zeitreihen nach Inkrafttreten der EUTR nicht mehr nachgewiesen werden. ; The objective of the EU Timber Regulation (EUTR), enforced since March 2013, is for importers and exporters to commit to reducing the risk of trading timber products from illegal sources in the EU. EUROSTAT time series on monthly trade with wood products from January 1988 to August 2016 were used to monitor the law's impact. The time series, subdivided into sections before and after the implementation of EUTR, were investigated in time and frequency domains. The analyses in the time domain indicated the adequateness of the AR (1) and ARMA (1, 1) models. As the confidence intervals for their estimates before and after EUTR do not overlap, the respective time series are considered as different and the influence of EUTR legislation probable (also confirmed by the significant models with EUTR as intervening event). Long term variation of the monthly time series (March 2013 to August 2016) show an increasing linear trend for all wood products and for wood products with tropical woods excluded. Since EU imports of tropical wood were falling before EUTR, the stagnant imports thereafter are judged as uncertainty and time the markets need to adapt to a new legislative situation. The analyses in frequency domain based on inference from periodogram revealed cycles of 3, 4, 6 and 12 months, except for time series of tropical wood imports after EUTR. If cycles are thought of as inherent to import time series, this lack in tropical wood imports can be an indication of a 'wait-and-see' attitude of importers as a consequence of EUTR.
Gedruckt erschienen im Universitätsverlag der TU Berlin, ISBN 978-3-7983-3058-0 (ISSN 2512-5141). ; Die Technologien und Anwendungsgebiete für UAV und kleine Nutzflugzeuge haben im zivilen Bereich in letzter Zeit eine rasante Entwicklung erfahren. Da der Betrieb dieser Systeme mit erheblichen Sicherheitsrisiken für den Luftverkehr verbunden ist, wird für die Soft- und Hardwareentwicklung der erforderlichen komplexen und sicherheitskritischen Avioniksysteme ein Prozess benötigt, der eine vergleichbare Zuverlässigkeit wie die für die Entwicklung von CS-25-Flugzeugen gebräuchlichen Methoden bietet. Dafür werden detaillierte, aber dennoch echtzeitfähige Simulationsmodelle benötigt, die die spezifischen Besonderheiten dieser kleineren Luftfahrzeuge berücksichtigen, die häufig der CS-23-Kategorie zuzuordnen sind. Solche spezialisierten Modelle sind wegen des üblicherweise auf klassischen Nachweismethoden beruhenden Entwicklungsprozesses und der bisher geringen wirtschaftlichen Bedeutung dieser Flugzeugklasse kaum verfügbar. Die hierzu benötigten Modellierungsansätze haben sich auf Komponentenebene in anderen Anwendungsbereichen zwar prinzipiell etabliert, ihre Integration in eine systemdynamische Echtzeitflugsimulation ist aber in der Regel nicht trivial. Der wissenschaftliche Beitrag der Arbeit betrifft diesen Integrationsprozess und die damit verbundenen Herausforderungen und erforderlichen Maßnahmen, die neben einer effizienten Implementierung u.a. die Ableitung quasistationärer Ersatzmodelle für hochfrequente Teildynamiken und die effiziente numerische Behandlung unstetiger und nichtlinearer Phänomene betreffen. Dabei müssen spezifische Merkmale kleiner Nutzflugzeuge berücksichtigt werden, die eine direkte Übertragung entsprechender Modelle aus dem CS-25-Bereich oder militärischen Anwendungen ausschließen. Ein Beispiel für die Simulation eines solchen Nutzflugzeuges stellt das flugmechanische Modell dar, das für das Motorsegelflugzeug STEMME S15 zur Entwicklung eines hochdynamischen, vollauthoritären automatischen Flugsteuerungssystems aufgebaut wurde. Das Modell zeichnet sich durch sehr detaillierte und feingranulare Ansätze bei der Modellierung verschiedener Teilsysteme (Aerodynamik, Triebwerk, Geländemodell, Fahrwerk, Aktuatorik, Sensorsysteme, etc.) aus, die im Rahmen eines Überblicks skizziert werden. Eine detaillierte Darstellung aller Einzelheiten der Modellbildung und der Implementierung im Rahmen der Echtzeitsimulation erfolgt exemplarisch für die Aktuatorik und das Fahrwerk. Bei den eingesetzten Aktuatoren handelt es sich um rotatorische, elektromechanische Stellantriebe mit Wellgetriebe (HDT, Harmonic Drive Transmission), die über ein mechanisches Steuergestänge mit den Stellflächen verbunden sind. Das Fahrwerk ist als nicht einziehbares, gummibereiftes Dreibeinfahrwerk ausgeführt. Für die Stoßdämpfung werden neben der natürlichen Strukturelastizität Elastomerfederpakete eingesetzt. Die Bugradlenkung erfolgt mit Hilfe von Steuerseilen. Ein besonderes Augenmerk bei der Modellbildung liegt auf nichtlinearen Eigenschaften und Störeinflüssen des mechanischen Übertragungsweges, der Nachgiebigkeit der Ansteuerung sowie der Strukturelastizität und Seitenführungsdynamik des Fahrwerks. Diese Effekte können Verhalten und Leistungsfähigkeit des Regelungssystems maßgeblich beeinflussen. Für beide Teilsysteme wird die mathematische Modellbildung, die Implementierung und die Parameterbestimmung in einer Ausführlichkeit beschrieben, die die Ergebnisse für den Fachmann nachvollziehbar macht. Die entwickelten Teilmodelle werden zunächst einzeln durch speziell darauf ausgelegte Experimente validiert. Anschließend wird die erfolgreiche Integration in die echtzeitfähige Gesamtsimulation anhand von ausgesuchten Fallstudien dokumentiert. Die gewählten Beispiele demonstrieren den Nutzen für den Entwicklungsprozess und die Relevanz der detaillierten Modellbildung. Abschließend werden die erreichten Ergebnisse zusammengefasst, Verbesserungspotentiale aufgezeigt und weiterführende Fragestellungen angesprochen. ; New civil applications for UAV and smaller utility aircrafts have been rapidly unclosed by recent advances in UAV-Technology. The operation of these systems implies a considerable safety risk. For the soft- and hardware development of the complex and safety critical avionic systems involved a process is required, which is able to guarantee a comparable reliability like methods used for the development of CS-25 aircraft. This calls for detailed, but still real time capable simulation models, which adequately account for the characteristics of these smaller aircraft typically attributed to the CS-23 category. Such models are rarely available yet, due to the still minor commercial relevance of this aircraft class, as well as the common development process, which primary relies on classical verification methods based on experimental and calculative evidence. The required modelling approaches on a component level are established in other applications. However, their integration into system dynamical real-time flight simulation is seldom trivial. The contribution of this work concerns this integration process. Challenges and methods are addressed, comprising not only an efficient implementation, but also the derivation of analogous quasi stationary models for higher frequency sub dynamics as well as numerical methods able to cope with discontinuous and nonlinear model behavior. Specific attributes of CS-23-type aircraft have to be considered though, impeding a direct reuse of equivalent models common for CS-25 and military aircrafts. The flight mechanical model which has been established for the motor glider STEMME S15 in order to enable the development of a high bandwidth, full authority automatic flight control system can be considered as a representative example for the simulation of such small utility aircraft. The model is characterized by a high level of detail applied for the modelling of various subsystems (aerodynamics, power plant, ground model, landing gear, actuation and sensor systems, etc.) which will be outlined in a general overview. The modelling approaches for the actuators and the landing gear as well as their implementation into the real time simulation will be exemplified in all detail. The actuators employed may be characterized as rotative electro mechanic servo motors equipped with a harmonic drive transmission (HDT). They are linked to the control surfaces by means of a mechanical control rod assembly. The undercarriage is designed as non-retractable tricycle gear with pneumatic rubber tires. Suspension is provided by elastomer pads in addition to the natural structural elasticity. Control cables are used to steer the nose gear. During modelling, special attention has been payed to the mechanical transmission path being prone to various nonlinear parasitic effects, as well as to the control weakness, structural elasticity and slippage characteristics of the landing gear. These effects may significantly influence the control system behavior and performance. The mathematical modelling approach, the implementation as well as the parameter determination is described in a level of detail allowing the results to be followed and reproduced by the experts. The developed sub models will first be individually validated by experiments specifically designed for that purpose. Afterwards the successful implementation in the real-time flight simulation of the entire aircraft will be documented using selected case studies. These examples greatly demonstrate the benefit to the FCL\footnote{Flight Control Laws} development process as well as the relevance of the detailed modelling concepts chosen. Finally the achievements will be summarized and potential improvements as well as subsequent research topics will be identified. ; BMWi, 20F0603, LAPAZ – Automatisches Flugsteuerungssystem für Luftarbeitsflugzeuge ; BMWi, 20F0603A, LAPAZ 2 – Erweiterung des Flugsteuerungssystems um die Funktionalität Böenlastabminderung und ATOL
Das Ziel dieser Arbeit war die Entwicklung einer Methode zur Berechnung der flächenhaften Verteilung von Luftverunreinigungen. Atmosphärische Ausbreitungsmodelle modellieren die Verteilung von Gasen oder Partikel anhand mathematisch formulierbarer Wirkmechanismen. Messergebnisse von Luftverunreinigungen werden nur zur Validierung der berechneten Verteilung, bzw. zur Modellentwicklung eingesetzt. Jedoch ist die Verwendung vieler, gut verteilter Messdaten als Modelleingabe die einzige Möglichkeit, die tatsächlich existierende Verteilung der gesuchten Komponente zu berücksichtigen. Mit einem Netz von Passivsammlern kann eine solche Verteilung kostengünstig und zeitgleich erhoben werden. Im Rahmen des UNOPS-Projekts "Preliminary Assessment of Ambient Air Quality in Cyprus" wurde an 270 Punkten NO2 Passivsammler in sechs Messkampagnen exponiert. Auf diese Weise entstand eine gute Datenbasis für die Entwicklung einer Methode, mit der man die tatsächlich gemessene Verteilung von Luftverunreinigungen berücksichtigen kann. Darüber hinaus sollte man bei einem realitätsnahen Modell die wichtigsten Einflüsse, wie etwa die Bevölkerungsdichte oder die Emissionsverteilung miteinbeziehen. Gegenwärtig erfüllen drei Verfahren diese Anforderungen: Regressionsmodelle, Interpolation und Künstliche Neuronale Netze. Künstliche Neuronale Netze sind derzeit die einzige Möglichkeit, ein Modell unter Berücksichtigung der obengenannten Kriterien zu entwickeln. Der heute meistverwendete Netzwerktyp im Bereich Luftqualitätsmodellierung ist das sogenannte "Multilayer Perceptron", das auch im Rahmen dieser Arbeit zum Einsatz kam. Im Trainingsmodus wurde ein sogenannter kontrollierter Lernalgorithmus verwendet, bei dem der Anwender das Netz mit Ein- und bekannten Ausgangsvariablen, also Luftverunreinigungsmessungen trainiert. Die Aufgabe des neuronalen Netzes ist das Erlernen der zumeist nichtlinearen Zusammenhänge zwischen Ein- und Ausgabe. Zu diesem Zweck wurde ein Analysegitter mit 1x1 km Kantenlänge über das Untersuchungsgebiet Zypern gelegt und jeder Gitterzelle wurden die entsprechenden Eingabevariablen, wie etwa die UTM-Koordinaten zugeordnet. Bei den Gitterzellen mit Passivsammlern konnten die Zusammenhänge zwischen Eingabe und Ausgabe ermittelt und anschließend auf alle anderen Zellen übertragen werden. Im Laufe der Entwicklung wurden alle verfügbaren Variablen in uni- und multivariaten Modellen getestet. Mit den UTM-Koordinaten als Eingangsdatensatz konnte zunächst eine neuronale Interpolation erzielt werden. Das Ergebnis war eine vereinfachte Interpolationskarte mit NO2 Konzentrationen von 30 bis 40 μg/m³ in den Städten und geringeren Konzentrationen in ländlichen Gebieten. Bemerkenswert sind hierbei unrealistische, gerade Streifen von NO2 Konzentrationen um 20 μg/m³, welche die Städte Nicosia, Limassol und Larnaka miteinander verbinden. Anschließend wurde dem Analysegitter ein digitales Höhenmodell angepasst und das Netzwerk mit den resultierenden Höhenwerten trainiert. Auch hier traten physikalisch unmögliche Werte auf, wie etwa hohe NO2 Konzentrationen in Flusstälern. Ein sehr wichtiger Einfluss auf die Verteilung von Luftverunreinigungen sind die atmosphärischen Ausbreitungsbedingungen. Da alle meteorologischen Parameter ständig variieren ist es unmöglich ein mittleres Windfeld zu berechnen. Windstatistiken wären eine mögliche Lösung, können jedoch nicht direkt als Eingabe verwendet werden, da es sich im Falle der Windrichtung um eine Verteilung von mehreren Werten handelt. Um dennoch die Ausbreitungsbedingungen zu berücksichtigen, wurden Abgasfahnen der wichtigsten Emissionsquellen in Zypern berechnet. Methodisch kamen hierbei das Gauß-Modell P&K 3782 und statistische Analyseverfahren wie Regressionsanalysen zum Einsatz. Die Ergebnisse wurden mit einem neuen rechnerischen Ansatz auf das Analysegitter verteilt, wobei das Konzept der "Distributed Emissions" entwickelt wurde. Mit diesem Input für das Neuronale Netz konnte bereits eine sehr genaue NO2 Immissionskarte berechnet werden, auf der die Lage der Quellen und deren Emissionsstärken gut wiedergegeben werden. Nach den oben beschriebenen univariaten Modellen wurden multivariate Berechnungen durchgeführt, um auch noch die vorhandenen weiteren Einflussparametern miteinzubeziehen. Alle Modelle mit UTM-Koordinaten und Höhenwerten als Eingabe produzierten wiederum unrealistische Verteilungsmuster. Das beste Ergebnis konnte mit einem Neuronalen Netzwerk erzielt werden, das mit "Verteilten Emissionen" und der Populationsdichte trainiert wurde. Diese Modellkonfiguration bewahrte die positiven Aspekte der univariaten Ansätze und machte außerdem noch weitere Quellen wie Dörfer deutlich sichtbar. Eine realistische, fein strukturierte Immissionskarte von Zypern ist das Resultat dieser Berechnungen. ; The objective of this work was to develop a method to calculate realistic air pollutants distribution maps. Most common state of the art dispersion models are limited in using air pollutant measurement data. They are only used for validation of the results - a fact that does not limit the importance of this model type which is still first choice for many questions. Yet, the usage of many, well distributed measurement data as a model input is the only possibility to provide a direct link to the actual air pollution distribution. So the first demand to the model was the ability to consider such data in its algorithm. Diffusive samplers are a predestined method to assess the spatial distribution of air pollutants, since they are the only economic possibility to carry out simultaneous measurements at many places. During the UNOPS project "Preliminary Assessment of Ambient Air Quality in Cyprus" NO2 diffusive samplers were exposed at 270 sites in six campaigns throughout one year. A second requirement for the model was the ability to consider the most important influence parameters, like the emissions or the population density - most available methods are limited in this respect. Three methods were found to generally fulfil these requirements: Regression models, interpolation algorithms and artificial neural networks. First, the regression analysis was excluded since it is too rigid, too limited to reproduce non-linear correlations and based on too many theoretical statistical assumptions that are hard to be kept. Interpolation is a well-developed standard method that is also recommended by the European Union. It was therefore tried to investigate the possibilities that lay in this approach. Simple interpolation failed to reproduce a realistic distribution of air pollutants, although exact interpolation algorithms preserve the measured values. The result maps depend strongly on the location of the measurement site; sources in between are neglected. In air pollution modelling and comparable fields of neural network application, it is common sense that multilayer perceptrons with backpropagation deliver the best results. In training mode, a so-called "controlled learning" was applied, where the user provides the input data together with a set of known outputs. The task of the network is to learn the correlation between inputs and outputs. For this purpose, an analysis grid of 1x1 km was laid over the research area of Cyprus and the most important influencing variables were intersected with this grid. For all grid cells with diffusive samplers, the correlations of the annual NO2 concentration with the input variables were calculated. First of all a neural interpolation of the diffusive sampler measurements could be established by using the UTM coordinates as input. The result was a simplified interpolation map with NO2 concentrations around 30 to 40 μg/m³ in the cities and lower concentrations in rural areas. Remarkable here are unrealistic straight stripes of medium NO2 concentrations of about 20 μg/m³ connecting the cities of Nicosia, Limassol and Larnaka where the highest concentrations were measured. A very important influence on the distribution of air pollutants are the dispersion conditions. The only realizable possibility to include meteorological data was to consider case studies for the major emission sources in Cyprus. So the dispersion plumes for the most important sources were calculated using annual wind statistics: For the largest cities, the power plants, one cement factory and the highways. Applied methods for this purpose were the Gaussian dispersion model P&K 3782 and statistical evaluations including regression analysis. Finally the plumes were transferred into so-called distributed emissions. Trained with this input data, the network reproduced the actual location and strength of all the sources that were used as input. After using univariate models, multivariate calculations were carried out to depict the complex correlations that influence the distribution of air pollutants. All models with UTM coordinates again created unrealistic large and regular plumes coming from the south-eastern bottom of the map, which lead to their exclusion. The same is true for the altitude. For both maps the population density was added with no positive effect. Finally, the best result could be established with a model that uses the enhanced emissions inventory and the population density as inputs. This configuration preserved the positive aspects of the univariate model with emissions and added additional sources like villages, which were omitted in the emissions inventory. A realistic, fine structured map was the result.
Was man aus der deutschen PIAAC-Studie als prägnanteste Zusammenfassung herausziehen könnte, wäre: jeder sechste deutsche Erwachsene liest und rechnet auf dem Kompetenzniveau eines zehnjährigen Schülers und jeder zehnte deutsche Erwachsene kann mit einer "Maus" nicht umgehen. Oder, in Anlehnung an PIAAC: Im deutschen Bildungssystem besteht anscheinend nicht für alle Menschen die Möglichkeit, ein über elementare Grundkompetenzen hinaus gehendes Niveau zu erreichen. Diese Ergebnisse sind zwar statistisch valide und belastbar, verkürzen jedoch ohne weitere Differenzierungen das Gesamtanliegen von PIAAC. (DIPF/Orig.) ; The concise resume that could be drawn from the German PIAAC study would be: Every sixth German adult reads and calculates at a ten-year-old students competence level and every tenth German adult can not handle a "mouse". Or, according to PIAAC: the German educational system apparently doesn't offer all people the chance to achieve basic competences that exceed over an elementary level. Though these results are statistically valid and reliable, they reduce without further differentiation PIAACs overall intentions. (DIPF/Orig.)
Many functions that at one time could only be performed by humans can nowadays be carried out by machines. Automation impacts many areas of life including work, home, communication and mobility. In the driving context, in-vehicle automation is considered to provide solutions for environmental, economic, safety and societal challenges. However, automation changes the driving task and the human-machine interaction. Thus, the expected benefit of in-vehicle automation can be undermined by changes in drivers' behaviour, i.e. behavioural adaptation. This PhD project focuses on motivational as well as higher cognitive processes underlying behavioural adaptation when interacting with in-vehicle automation. Motivational processes include the development of trust and acceptance, whereas higher cognitive processes comprise the learning process as well as the development of mental models and Situation Awareness (SA). As an example for in-vehicle automation, the advanced driver assistance system Adaptive Cruise Control (ACC) was investigated. ACC automates speed and distance control by maintaining a constant set cruising speed and automatically adjusting vehicle's velocity in order to provide a specified distance to the preceding vehicle. However, due to sensor limitations, not every situation can be handled by the system and therefore driver intervention is required. Trust, acceptance and an appropriate mental model of the system functionality are considered key variables for adequate use and appropriate SA. To systematically investigate changes in motivational and higher cognitive processes, a driving simulator as well as an on-road study were carried out. Both of the studies were conducted using a repeated-measures design, taking into account the process character, i.e. changes over time. The main focus was on the development of trust, acceptance and the mental model of novice users when interacting with ACC. By now, only few studies have attempted to assess changes in higher level cognitive processes, due to methodological difficulties posed by the dynamic task of driving. Therefore, this PhD project aimed at the elaboration and validation of innovative methods for assessing higher cognitive processes, with an emphasis on SA and mental models. In addition, a new approach for analyzing big and heterogeneous data in social science was developed, based on the use of relational databases. The driving simulator study investigated the effect of divergent initial mental models of ACC (i.e., varying according to correctness) on trust, acceptance and mental model evolvement. A longitudinal study design was applied, using a two-way (3×3) repeated measures mixed design with a matched sample of 51 subjects. Three experimental groups received (1) a correct ACC description, (2) an incomplete and idealised account omitting potential problems, and (3) an incorrect description including non-occurring problems. All subjects drove a 56-km track of highway with an identical ACC system, three times, and within a period of 6 weeks. Results showed that after using the system, participants' mental model of ACC converged towards the profile of the correct group. Non-experienced problems tended to disappear from the mental model network when they were not activated by experience. Trust and acceptance grew steadily for the correct condition. The same trend was observed for the group with non-occurring problems, starting from a lower initial level. Omitted problems in the incomplete group led to a constant decrease in trust and acceptance without recovery. This indicates that automation failures do not negatively affect trust and acceptance if they are known beforehand. During each drive, participants continuously completed a visual secondary task, the Surrogate Reference Task (SURT). The frequency of task completion was used as objective online-measure for SA, based on the principle that situationally aware driver would reduce the engagement in the secondary task if they expect potentially critical situations. Results showed that correctly informed drivers were aware of potential system limitations and reduced their engagement in the secondary task when such situations arose. Participants with no information about limitations became only aware after first encounter and reduced secondary task engagement in corresponding situations during subsequent trials. However, trust and acceptance in the system declined over time due to the unexpected failures. Non occurring limitations tended to drop from the mental model and resulted in reduced SA already in the second trial. The on-road study investigated the learning process, as well as the development of trust, acceptance and the mental model for interacting with ACC in real conditions. Research questions aimed to model the learning process in mathematical/statistical terms, examine moments and conditions when these processes stabilize, and assess how experience changes the mental model of the system. A sample of fifteen drivers without ACC experience drove a test vehicle with ACC ten consecutive times on the same route within a 2-month period. In contrast to the driving simulator study, all participants were fully trained in ACC functionality by reading the owner's manual in the beginning. Results showed that learning, as well as the development of acceptance and trust in ACC follows the power law of learning, in case of comprehensive prior information on system limitations. Thus, the major part of the learning process occurred during the first interaction with the system and support in explaining the systems abilities (e.g. by tutoring systems) should therefore primarily be given during this first stage. All processes stabilized at a relatively high level after the fifth session, which corresponds to 185 km or 3.5 hours of driving. No decline was observable with ongoing system experience. However, in line with the findings from the simulator study, limitations that are not experienced tended to disappear from the mental model if they were not activated by experience. With regard to the validation of the developed methods for assessing mental models and SA, results are encouraging. The studies show that the mental model questionnaire is able to provide insights into the construction of mental models and the development over time. Likewise, the implicit measurement approach to assess SA online in the driving simulator is sensitive to user's awareness of potentially critical situations. In terms of content, the results of the studies prove the enduring relevance of the initial mental model for the learning process, SA, as well as the development of trust, acceptance and a realistic mental model about automation capabilities and limitations. Given the importance of the initial mental model it is recommended that studies on system trust and acceptance should include, and attempt to control, users' initial mental model of system functionality. Although the results showed that also incorrect and incomplete initial mental models converged by experience towards a realistic appreciation of system functionality, the more cognitive effort needed to update the mental model, the lower trust and acceptance. Providing an idealised description, which omits potential problems, only leads to temporarily higher trust and acceptance in the beginning. The experience of unexpected limitations results in a steady decrease in trust and acceptance over time. A trial-and-error strategy for in-vehicle automation use, without accompanying information, is therefore considered insufficient for developing stable trust and acceptance. If the mental model matches experience, trust and acceptance grow steadily following the power law of learning – regardless of the experience of system limitations. Provided that such events are known in advance, they will not cause a decrease in trust and acceptance over time. Even over-information about potential problems lowers trust and acceptance only in the beginning, and not in the long run. Potential problems should therefore not be concealed in over-idealised system descriptions; the more information given, the better, in the long run. However, limitations that are not experienced tend to disappear from the mental model. Therefore, it is recommended that users be periodically reminded of system limitations to make sure that corresponding knowledge becomes re-activated. Intelligent tutoring systems incorporated in automated systems could provide a solution. In the driving context, periodic reminders about system limitations could be shown via the multifunction displays integrated in most modern cars. Tutoring systems could also be used to remind the driver of the presence of specific in-vehicle automation systems and reveal their benefits.:Table of contents LIST OF FIGURES I LIST OF TABLES II LIST OF ABBREVIATIONS III ACKNOWLEDGEMENTS IV SUMMARY V ZUSAMMENFASSUNG VIII 1 INTRODUCTION 12 2 THEORETICAL BACKGROUND 14 2.1 BEHAVIOURAL ADAPTATION AND HIGHER COGNITIVE PROCESSES 14 2.2 VEHICLE AUTOMATION AND ADAPTIVE CRUISE CONTROL 17 2.3 MENTAL MODELS 20 2.3.1 Definition 20 2.3.2 Mental model construction and update 20 2.3.3 Discussion of existing measures 21 2.3.4 Development of the mental model questionnaire 23 2.4 SITUATION AWARENESS 24 2.4.1 Definition 24 2.4.2 Relationship between mental models and Situation Awareness 26 2.4.3 Situation Awareness as comprehension process 27 2.4.4 Discussion of existing measures 27 2.4.5 Development of the Situation Awareness measurement technique 29 2.5 LEARNING, ACCEPTANCE AND TRUST IN AUTOMATION 30 2.5.1 Power law of learning 30 2.5.2 Acceptance 31 2.5.3 Trust in automation 31 2.5.4 Related research on learning, acceptance and trust in ACC 32 3 OVERALL RESEARCH QUESTIONS 34 4 OVERALL METHODOLOGICAL CONSIDERATIONS 35 4.1 DRIVING SIMULATOR STUDIES AND ON-ROAD TESTS 35 4.2 DATABASE-FRAMEWORK FOR DATA STORAGE AND ANALYSIS 37 5 DRIVING SIMULATOR STUDY 42 5.1 AIMS AND RESEARCH QUESTIONS 42 5.2 METHOD AND MATERIAL 43 5.2.1 Sampling and participants 43 5.2.2 Research design and procedure 44 5.2.3 Facilities and driving simulator track 45 5.2.4 Secondary task SURT 46 5.2.5 System description 46 5.2.6 Dependent variables trust, acceptance and mental model 47 5.2.7 Contrast analysis 48 5.3 RESULTS 49 5.3.1 Mental model 49 5.3.2 Trust and acceptance 51 5.3.3 Situation Awareness 52 5.4 DISCUSSION 56 6 ON-ROAD STUDY 59 6.1 AIMS AND RESEARCH QUESTIONS 59 6.2 METHOD AND MATERIAL 59 6.2.1 Research design and procedure 59 6.2.2 Sampling and participants 60 6.2.3 Facilities and apparatus 60 6.2.4 Dependent variables mental model, trust, acceptance, learning and ACC usage 62 6.3 RESULTS 63 6.3.1 ACC usage 63 6.3.2 Trust and acceptance 64 6.3.3 Learning 65 6.3.4 Mental model 67 6.4 DISCUSSION 68 7 GENERAL DISCUSSION AND CONCLUSIONS 70 7.1 THEORETICAL AND PRACTICAL CONSIDERATIONS 70 7.2 METHODOLOGICAL CONSIDERATIONS 71 7.3 LIMITATIONS AND DIRECTIONS FOR FUTURE RESEARCH 74 8 REFERENCES 76 9 APPENDIX 88 9.1 QUESTIONNAIRES USED IN THE DRIVING SIMULATOR STUDY 88 9.1.1 Original German version 88 9.1.2 English translation 91 9.2 ACC DESCRIPTIONS USED IN THE DRIVING SIMULATOR STUDY 94 9.2.1 Correct description 94 9.2.2 Incomplete description 95 9.2.3 Incorrect description 96 9.3 SCHEMATIC OVERVIEW OF THE DRIVING SIMULATOR TRACK 97 9.4 QUESTIONNAIRES USED IN THE ON-ROAD STUDY 99 9.4.1 Original German version 99 9.4.2 English translation 103 9.5 SEMINAR PROGRAMME: DATABASES AS ANALYSIS TOOL IN SOCIAL SCIENCE 107 9.6 CURRICULUM VITAE AND PUBLICATIONS 109 ; Viele Aufgaben, die ehemals von Menschen ausgeführt wurden, werden heute von Maschinen übernommen. Dieser Prozess der Automatisierung betrifft viele Lebensbereiche von Arbeit, Wohnen, Kommunikation bis hin zur Mobilität. Im Bereich des Individualverkehrs wird die Automatisierung von Fahrzeugen als Möglichkeit gesehen, zukünftigen Herausforderungen wirtschaftlicher, gesellschaftlicher und umweltpolitischer Art zu begegnen. Allerdings verändert Automatisierung die Fahraufgabe und die Mensch-Technik Interaktion im Fahrzeug. Daher können beispielsweise erwartete Sicherheitsgewinne automatisch agierender Assistenzsysteme durch Veränderungen im Verhalten des Fahrers geschmälert werden, was als Verhaltensanpassung (behavioural adaptation) bezeichnet wird. Dieses Dissertationsprojekt untersucht motivationale und höhere kognitive Prozesse, die Verhaltensanpassungen im Umgang mit automatisierten Fahrerassistenzsystemen zugrunde liegen. Motivationale Prozesse beinhalten die Entwicklung von Akzeptanz und Vertrauen in das System, unter höheren kognitiven Prozessen werden Lernprozesse sowie die Entwicklung von mentalen Modellen des Systems und Situationsbewusstsein (Situation Awareness) verstanden. Im Fokus der Untersuchungen steht das Fahrerassistenzsystem Adaptive Cruise Control (ACC) als ein Beispiel für Automatisierung im Fahrzeug. ACC regelt automatisch die Geschwindigkeit des Fahrzeugs, indem bei freier Fahrbahn eine eingestellte Wunschgeschwindigkeit und bei einem Vorausfahrer automatisch ein eingestellter Abstand eingehalten wird. Allerdings kann ACC aufgrund von Einschränkungen der Sensorik nicht jede Situation bewältigen, weshalb der Fahrer übernehmen muss. Für diesen Interaktionsprozess spielen Vertrauen, Akzeptanz und das mentale Modell der Systemfunktionalität eine Schlüsselrolle, um einen sicheren Umgang mit dem System und ein adäquates Situationsbewusstsein zu entwickeln. Zur systematischen Erforschung dieser motivationalen und kognitiven Prozesse wurden eine Fahrsimulatorstudie und ein Versuch im Realverkehr durchgeführt. Beide Studien wurden im Messwiederholungsdesign angelegt, um dem Prozesscharakter gerecht werden und Veränderungen über die Zeit erfassen zu können. Die Entwicklung von Vertrauen, Akzeptanz und mentalem Modell in der Interaktion mit ACC war zentraler Forschungsgegenstand beider Studien. Bislang gibt es wenige Studien, die kognitive Prozesse im Kontext der Fahrzeugführung untersucht haben, unter anderem auch wegen methodischer Schwierigkeiten in diesem dynamischen Umfeld. Daher war es ebenfalls Teil dieses Dissertationsprojekts, neue Methoden zur Erfassung höherer kognitiver Prozesse in dieser Domäne zu entwickeln, mit Fokus auf mentalen Modellen und Situationsbewusstsein. Darüber hinaus wurde auch ein neuer Ansatz für die Analyse großer und heterogener Datenmengen im sozialwissenschaftlichen Bereich entwickelt, basierend auf dem Einsatz relationaler Datenbanken. Ziel der der Fahrsimulatorstudie war die systematische Erforschung des Effekts von unterschiedlich korrekten initialen mentalen Modellen von ACC auf die weitere Entwicklung des mentalen Modells, Vertrauen und Akzeptanz des Systems. Eine Stichprobe von insgesamt 51 Probanden nahm an der Studie teil; der Versuch wurde als zweifaktorielles (3x3) gemischtes Messwiederholungsdesign konzipiert. Die 3 parallelisierten Versuchsgruppen zu je 17 Personen erhielten (1) eine korrekte Beschreibung des ACC, (2) eine idealisierte Beschreibung unter Auslassung auftretender Systemprobleme und (3) eine überkritische Beschreibung mit zusätzlichen Hinweisen auf Systemprobleme, die nie auftraten. Alle Teilnehmer befuhren insgesamt dreimal im Zeitraum von sechs Wochen dieselbe 56 km lange Autobahnstrecke im Fahrsimulator mit identischem ACC-System. Mit zunehmendem Einsatz des ACC zeigte sich im anfänglich divergierenden mentalen Modell zwischen den Gruppen eine Entwicklung hin zum mentalen Modell der korrekt informierten Gruppe. Nicht erfahrene Systemprobleme tendierten dazu, im mentalen Modell zu verblassen, wenn sie nicht durch Erfahrung reaktiviert wurden. Vertrauen und Akzeptanz stiegen stetig in der korrekt informierten Gruppe. Dieselbe Entwicklung zeigte sich auch in der überkritisch informierten Gruppe, wobei Vertrauen und Akzeptanz anfänglich niedriger waren als in der Bedingung mit korrekter Information. Verschwiegene Systemprobleme führten zu einer konstanten Abnahme von Akzeptanz und Vertrauen ohne Erholung in der Gruppe mit idealisierter Beschreibung. Diese Resultate lassen darauf schließen, dass Probleme automatisierter Systeme sich nicht zwingend negativ auf Vertrauen und Akzeptanz auswirken, sofern sie vorab bekannt sind. Bei jeder Fahrt führten die Versuchsteilnehmer zudem kontinuierlich eine visuell beanspruchende Zweitaufgabe aus, die Surrogate Reference Task (SURT). Die Frequenz der Zweitaufgabenbearbeitung diente als objektives Echtzeitmaß für das Situationsbewusstsein, basierend auf dem Ansatz, dass situationsbewusste Fahrer die Zuwendung zur Zweitaufgabe reduzieren wenn sie potentiell kritische Situationen erwarten. Die Ergebnisse zeigten, dass die korrekt informierten Fahrer sich potentiell kritischer Situationen mit möglichen Systemproblemen bewusst waren und schon im Vorfeld der Entstehung die Zweitaufgabenbearbeitung reduzierten. Teilnehmer ohne Informationen zu auftretenden Systemproblemen wurden sich solcher Situationen erst nach dem ersten Auftreten bewusst und reduzierten in entsprechenden Szenarien der Folgefahrten die Zweitaufgabenbearbeitung. Allerdings sanken Vertrauen und Akzeptanz des Systems aufgrund der unerwarteten Probleme. Erwartete, aber nicht auftretende Systemprobleme tendierten dazu, im mentalen Modell des Systems zu verblassen und resultierten in vermindertem Situationsbewusstsein bereits in der zweiten Fahrt. Im Versuch unter Realbedingungen wurden der Lernprozesses sowie die Entwicklung des mentalen Modells, Vertrauen und Akzeptanz von ACC im Realverkehr erforscht. Ziele waren die statistisch/mathematische Modellierung des Lernprozesses, die Bestimmung von Zeitpunkten der Stabilisierung dieser Prozesse und wie sich reale Systemerfahrung auf das mentale Modell von ACC auswirkt. 15 Versuchsteilnehmer ohne ACC-Erfahrung fuhren ein Serienfahrzeug mit ACC insgesamt 10-mal auf der gleichen Strecke in einem Zeitraum von 2 Monaten. Im Unterschied zur Fahrsimulatorstudie waren alle Teilnehmer korrekt über die ACC-Funktionen und Funktionsgrenzen informiert durch Lesen der entsprechenden Abschnitte im Fahrzeughandbuch am Beginn der Studie. Die Ergebnisse zeigten, dass der Lernprozess sowie die Entwicklung von Akzeptanz und Vertrauen einer klassischen Lernkurve folgen – unter der Bedingung umfassender vorheriger Information zu Systemgrenzen. Der größte Lernfortschritt ist am Beginn der Interaktion mit dem System sichtbar und daher sollten Hilfen (z.B. durch intelligente Tutorsysteme) in erster Linie zu diesem Zeitpunkt gegeben werden. Eine Stabilisierung aller Prozesse zeigte sich nach der fünften Fahrt, was einer Fahrstrecke von rund 185 km oder 3,5 Stunden Fahrzeit entspricht. Es zeigten sich keine Einbrüche in Akzeptanz, Vertrauen bzw. dem Lernprozess durch die gemachten Erfahrungen im Straßenverkehr. Allerdings zeigte sich – analog zur Fahrsimulatorstudie – auch in der Realfahrstudie ein Verblassen von nicht erfahrenen Systemgrenzen im mentalen Modell, wenn diese nicht durch Erfahrungen aktiviert wurden. Im Hinblick auf die Validierung der neu entwickelten Methoden zur Erfassung von mentalen Modellen und Situationsbewusstsein sind die Resultate vielversprechend. Die Studien zeigen, dass mit dem entwickelten Fragebogenansatz zur Quantifizierung des mentalen Modells Einblicke in Aufbau und Entwicklung mentaler Modelle gegeben werden können. Der implizite Echtzeit-Messansatz für Situationsbewusstsein im Fahrsimulator zeigt sich ebenfalls sensitiv in der Erfassung des Bewusstseins von Fahrern für potentiell kritische Situationen. Inhaltlich zeigen die Studien die nachhaltige Relevanz des initialen mentalen Modells für den Lernprozess sowie die Entwicklung von Situationsbewusstsein, Akzeptanz, Vertrauen und die weitere Ausformung eines realistischen mentalen Modells der Möglichkeiten und Grenzen automatisierter Systeme. Aufgrund dieser Relevanz wird die Einbindung und Kontrolle des initialen mentalen Modells in Studien zu automatisierten Systemen unbedingt empfohlen. Die Ergebnisse zeigen zwar, dass sich auch unvollständige bzw. falsche mentale Modelle durch Erfahrungslernen hin zu einer realistischen Einschätzung der Systemmöglichkeiten und -grenzen verändern, allerdings um den Preis sinkenden Vertrauens und abnehmender Akzeptanz. Idealisierte Systembeschreibungen ohne Hinweise auf mögliche Systemprobleme bringen nur anfänglich etwas höheres Vertrauen und Akzeptanz. Das Erleben unerwarteter Probleme führt zu einem stetigen Abfall dieser motivationalen Faktoren über die Zeit. Ein alleiniges Versuchs-Irrtums-Lernen für den Umgang mit automatisierter Assistenz im Fahrzeug ohne zusätzliche Information wird daher als nicht ausreichend für die Entwicklung stabilen Vertrauens und stabiler Akzeptanz betrachtet. Wenn das initiale mentale Modell den Erfahrungen entspricht, entwickeln sich Akzeptanz und Vertrauen gemäß einer klassischen Lernkurve – trotz erlebter Systemgrenzen. Sind diese potentiellen Probleme vorher bekannt, führen sie nicht zwingend zu einer Reduktion von Vertrauen und Akzeptanz. Auch zusätzliche überkritische Information vermindert Vertrauen und Akzeptanz nur am Beginn, aber nicht langfristig. Daher sollen potentielle Probleme in automatisierten Systemen nicht in idealisierten Beschreibungen verschwiegen werden – je präzisere Information gegeben wird, desto besser im langfristigen Verlauf. Allerdings tendieren nicht erfahrene Systemgrenzen zum Verblassen im mentalen Modell. Daher wird empfohlen, Nutzer regelmäßig an diese Systemgrenzen zu erinnern um die entsprechenden Facetten des mentalen Modells zu reaktivieren. In automatisierten Systemen integrierte intelligente Tutorsysteme könnten dafür eine Lösung bieten. Im Fahrzeugbereich könnten solche periodischen Erinnerungen an Systemgrenzen in Multifunktionsdisplays angezeigt werden, die mittlerweile in vielen modernen Fahrzeugen integriert sind. Diese Tutorsysteme können darüber hinaus auch auf die Präsenz eingebauter automatisierter Systeme hinweisen und deren Vorteile aufzeigen.:Table of contents LIST OF FIGURES I LIST OF TABLES II LIST OF ABBREVIATIONS III ACKNOWLEDGEMENTS IV SUMMARY V ZUSAMMENFASSUNG VIII 1 INTRODUCTION 12 2 THEORETICAL BACKGROUND 14 2.1 BEHAVIOURAL ADAPTATION AND HIGHER COGNITIVE PROCESSES 14 2.2 VEHICLE AUTOMATION AND ADAPTIVE CRUISE CONTROL 17 2.3 MENTAL MODELS 20 2.3.1 Definition 20 2.3.2 Mental model construction and update 20 2.3.3 Discussion of existing measures 21 2.3.4 Development of the mental model questionnaire 23 2.4 SITUATION AWARENESS 24 2.4.1 Definition 24 2.4.2 Relationship between mental models and Situation Awareness 26 2.4.3 Situation Awareness as comprehension process 27 2.4.4 Discussion of existing measures 27 2.4.5 Development of the Situation Awareness measurement technique 29 2.5 LEARNING, ACCEPTANCE AND TRUST IN AUTOMATION 30 2.5.1 Power law of learning 30 2.5.2 Acceptance 31 2.5.3 Trust in automation 31 2.5.4 Related research on learning, acceptance and trust in ACC 32 3 OVERALL RESEARCH QUESTIONS 34 4 OVERALL METHODOLOGICAL CONSIDERATIONS 35 4.1 DRIVING SIMULATOR STUDIES AND ON-ROAD TESTS 35 4.2 DATABASE-FRAMEWORK FOR DATA STORAGE AND ANALYSIS 37 5 DRIVING SIMULATOR STUDY 42 5.1 AIMS AND RESEARCH QUESTIONS 42 5.2 METHOD AND MATERIAL 43 5.2.1 Sampling and participants 43 5.2.2 Research design and procedure 44 5.2.3 Facilities and driving simulator track 45 5.2.4 Secondary task SURT 46 5.2.5 System description 46 5.2.6 Dependent variables trust, acceptance and mental model 47 5.2.7 Contrast analysis 48 5.3 RESULTS 49 5.3.1 Mental model 49 5.3.2 Trust and acceptance 51 5.3.3 Situation Awareness 52 5.4 DISCUSSION 56 6 ON-ROAD STUDY 59 6.1 AIMS AND RESEARCH QUESTIONS 59 6.2 METHOD AND MATERIAL 59 6.2.1 Research design and procedure 59 6.2.2 Sampling and participants 60 6.2.3 Facilities and apparatus 60 6.2.4 Dependent variables mental model, trust, acceptance, learning and ACC usage 62 6.3 RESULTS 63 6.3.1 ACC usage 63 6.3.2 Trust and acceptance 64 6.3.3 Learning 65 6.3.4 Mental model 67 6.4 DISCUSSION 68 7 GENERAL DISCUSSION AND CONCLUSIONS 70 7.1 THEORETICAL AND PRACTICAL CONSIDERATIONS 70 7.2 METHODOLOGICAL CONSIDERATIONS 71 7.3 LIMITATIONS AND DIRECTIONS FOR FUTURE RESEARCH 74 8 REFERENCES 76 9 APPENDIX 88 9.1 QUESTIONNAIRES USED IN THE DRIVING SIMULATOR STUDY 88 9.1.1 Original German version 88 9.1.2 English translation 91 9.2 ACC DESCRIPTIONS USED IN THE DRIVING SIMULATOR STUDY 94 9.2.1 Correct description 94 9.2.2 Incomplete description 95 9.2.3 Incorrect description 96 9.3 SCHEMATIC OVERVIEW OF THE DRIVING SIMULATOR TRACK 97 9.4 QUESTIONNAIRES USED IN THE ON-ROAD STUDY 99 9.4.1 Original German version 99 9.4.2 English translation 103 9.5 SEMINAR PROGRAMME: DATABASES AS ANALYSIS TOOL IN SOCIAL SCIENCE 107 9.6 CURRICULUM VITAE AND PUBLICATIONS 109