Im Rahmen der vorliegenden Studie sollte der Versuch unternommen werden, Einsicht in die aktuellen Lebensprobleme und Bewältigungsstrategien der Österreicher zu erhalten. Von besonderem Interesse war dabei der Stellenwert, den die Psychotherapie als professionelles Hilfsangebot einnimmt. Befragt wurden ausschließlich Personen mit niedrigem Schulabschluss, die nicht im psychosozialen Bereich tätig waren. Unter den Lebensproblemen dominierten Arbeitsplatzprobleme und Existenzängste, gefolgt von intrafamiliären Beziehungs- und körperlichen Gesundheitsproblemen. Jeder Problemkreis hat erwartungsgemäß sein spezifisches Lösungsmuster, dennoch zeichnen sich über alle Problemkreise hinweg drei bevorzugt genannte Strategien ab: Selbsthilfe, private Aussprache sowie das Aufsuchen diverser öffentlicher Beratungsstellen. Die grundlegende Einstellung zur Psychotherapie war fast durchwegs ambivalent bis negativ. Bei Zuhilfenahme von Psychotherapie scheint für viele das soziale Image wie auch das Selbstbewusstsein gefährdet, zudem werden häufig zu hohe Kosten beklagt. In den weniger häufigen positiven Statements zur Psychotherapie wird diese als Lebenshilfe, als Hilfe zur Persönlichkeitsentwicklung oder einfach als Aussprachemöglichkeit gesehen. Insgesamt belegt die Studie die Notwendigkeit von Maßnahmen, die den Zugang zur Psychotherapie erleichtern. Weitere Untersuchungen zur Klärung der Frage, warum weite Kreise der Bevölkerung der Psychotherapie noch immer mit großer Reserviertheit begegnen, werden angeregt.Schlüsselwörter: Lebensprobleme, Bewältigung, Psychotherapie, Psychotherapieforschung, Image der Psychotherapie. ; This study is intended to gain an insight into the problems Austrians experience in their lives and the strategies developed to overcome them. One of the most intriguing questions was how psychotherapy is assessed as a method for giving professional help. All the persons polled had no higher education and did not work in the psychosocial field. Life-related problems turned out to be, first and foremost, problems at work and existential anxiety, followed by problems concerning relationships within families and physical troubles. As could be expected, each problem area has its own specific solution pattern; however, there seem to be three preferred strategies applied in all areas: self-help, personal talks, and seeking advice at public counselling centers. The underlying attitudes to psychotherapy were almost invariably ambivalent or even negative. Resorting to psychotherapy is perceived by many people as a threat to their social image and self-confidence. What is more, those surveyed frequently complained about costs being too high. Positive comments on psychotherapy were made less often and referred to psychotherapy as something that helps people cope with their lives or develop their personality, or simply as an opportunity to talk. One of the study's main findings is that measures facilitating access to psychotherapy are needed. Further studies on elucidating the question why there is still so much suspicion about psychotherapy among the population are encouraged.Keywords: Life-related problems, coping, psychotherapy, psychotherapeutic research, image of psychotherapy. ; La présente étude constitue une tentative \ d'évaluer les problèmes existentiels dont souffre actuellement un échantillon de la population autrichienne et d'examiner les stratégies utilisées pour les gérer. Nous nous sommes particulièrement intéressés à la valeur attribuée à la psychothérapie en tant qu'offre professionnelle de soutien. Le groupe étudié est constitué de 87 personnes ayant un bas niveau de scolarité et ne travaillant pas dans le domaine psychosocial.Des difficultés mentionnées par les participants, ce sont les problèmes liés au monde du travail, l'angoisse face à l'insécurité matérielle et des problèmes de relations au sein de la famille qui dominent, suivies de problèmes de santé (niveau somatique). Concernant les deux premiers aspects, l'étude indique clairement que la situation actuelle sur le marché du travail n'est pas seulement problématique aux niveaux économique et politique ; elle a déjà des conséquences sérieuses sur le plan psychosocial : peur du chômage, pressions croissantes et dégradation du climat dans les entreprises provoquent des tensions et peuvent entraîner des symptômes tels la fatigue, l'épuisement et des troubles psychosomatiques. L'individu risque de «perdre le contrôle», dans le sens où il a de moins en moins le sentiment de pouvoir influer sur ce qui se passe - et ceci peut provoquer une sensation d'impuissance ou des réactions inadéquates. Quant aux problèmes familiaux, ils s'accompagnent toujours d'un sentiment d'impuissance, de résignation et de blocage et comportent une forte composante affective.Chacun des types de problèmes examinés tend à être résolu de manière spécifique; il reste qu'on peut cerner trois stratégies qui sont mentionnées le plus fréquemment par rapport aux différents types : la personne concernée tente de s'aider elle-même, elle parle de son problème avec des connaissances ou elle s'adresse à un service public de consultation. Ce n'est qu'en bas de liste que sont mentionnés d'autres moyens de trouver un soutien, entre autres : psychologue/psychiatre/psychothérapeute, hôpital/foyer, politiciens, médecin de famille. Lorsque les problèmes sont en rapport avec le monde du travail ou l'insécurité matérielle la majorité des personnes interrogées cherche à s'aider elle-même. Certaines d'entre elles pensent que seule une modification des conditions sociétales, dans le cadre des lois ou de la politique sociale, pourrait apporter un changement positif. Par contre, pour gérer des problèmes de relation au sein de la famille on compte beaucoup moins sur ses propres ressources et s'adresse souvent à des connaissances. C'est aussi dans ce domaine que les personnes concernées sont le plus disposées à rechercher un soutien professionnel. Dans l'échantillon inclus dans l'étude, personne n'a fait l'expérience personnelle d'un traitement psychothérapeutique. Mais le tiers environ des répondants connaît quelqu'un (connaissance ou parent) qui a fait une psychothérapie. Les expériences vécues par d'autres ne suffisent pas à faire évoluer l'attitude que ces personnes ont envers la psychothérapie - du moins lorsque celle-ci est clairement définie. Toutes sont en fait fondamentalement ambivalentes à son égard ou vont jusqu'à la considérer comme négative. De plus, lorsqu'on analyse les réponses, on constate que celles qui expriment un point de vue positif ne le font pas avec beaucoup de conviction : on pense d'une part que la psychothérapie peut apporter un «soutien dans la vie», qu'elle peut offrir des expériences et un certain savoir-faire ou «des conseils». On perçoit les thérapeutes comme des professionnels compétents qui, le cas échéant, vont apporter un soutien au niveau social ou familial. De nombreuses personnes indiquent que le secret professionnel et la « neutralité» du psychothérapeute constituent des aspects positifs. D'autre part, certaines réponses mentionnent que la psychothérapie peut fournir un soutien au niveau du « développement de la personnalité ». Le thérapeute est compétent, on peut lui parler de soi et de ses problèmes et ceci peut apporter une amélioration de la « qualité de vie ». Parmi les réponses exprimant un point de vue négatif, l'argument le plus fréquent est celui selon lequel la psychothérapie n'est utile que lorsque quelqu'un souffre de «troubles psychiques », de «maladie mentale» ou de «gros problèmes ». On ne peut s'empêcher de penser que les répondants font parfois de la psychothérapie une démarche très spéciale pour s'en démarquer aussi nettement que possible. Ils construisent une sorte de barrière : « bien sûr j'ai des problèmes plus ou moins importants, mais tant qu'ils ne sont pas potentiellement 'mortels' consulter un psychothérapeute ne se justifie pas ». La prophylaxie ou la prévention d'évolutions possibles ne semblent pas appréciées. De plus, accepter un soutien psychothérapeutique paraît s'accompagner pour de nombreuses personnes d'une perte de prestige social ou de confiance en soi. Un obstacle supplémentaire sur la voie conduisant au cabinet du thérapeute est constitué de gêne - on n'ose pas confier à un «parfait étranger» ses «secrets» personnels et intimes. «Le divan » est encore souvent mentionné en tant qu'association; il symbolise sans doute le traitement de longue durée que seuls les membres des classes supérieures peuvent s'offrir. Dans ce sens, les thérapeutes comme leurs clients sont perçus comme appartenant à un milieu social plus élevé que celui des répondants. Nombreux sont d'ailleurs ceux qui considèrent que les traitements psychothérapeutiques sont trop chers. Dans l'ensemble, l'étude confirme qu'il est indispensable de mettre en œuvre des mesures qui faciliteraient l'accès aux traitements. Il serait également souhaitable que d'autres études soient menées qui permettraient de mieux définir les raisons qui font que de larges couches de la population ont une attitude très réservée par rapport à la psychothérapie.
Ein Anspruch von Lernwerkstätten ist es, an der Entwicklung der jeweiligen Institution mitzuwirken. Der Band zeigt die Bedeutung von Hochschullernwerkstätten für die Gestaltung von Hochschullandschaft(en) und fokussiert fünf Themenbereiche: Welche historischen Entwicklungen lassen sich feststellen? Wodurch werden die Selbstverständnisse in Hochschullernwerkstätten geprägt? Wie können Hochschulen und Universitäten von Prozessen der Inklusion / Exklusion in Hochschullernwerkstätten partizipieren? Welche spezifischen Perspektiven werden in Bezug auf Professionalisierung und Reflexion deutlich? Inwiefern können Kooperationen und kooperatives Lernen innerhalb von Hochschullernwerkstätten auf andere universitäre Bereiche übertragen werden? (DIPF/Orig.)
Die Inhalte der verlinkten Blogs und Blog Beiträge unterliegen in vielen Fällen keiner redaktionellen Kontrolle.
Warnung zur Verfügbarkeit
Eine dauerhafte Verfügbarkeit ist nicht garantiert und liegt vollumfänglich in den Händen der Blogbetreiber:innen. Bitte erstellen Sie sich selbständig eine Kopie falls Sie einen Blog Beitrag zitieren möchten.
Neue Daten der "nacaps"-Promovierendenbefragung zeigen: Der Anteil der Doktoranden, die ihre Zukunft in Hochschulen und Forschungsinstituten sehen, ist eingebrochen. Woran liegt das? Und was folgt daraus?
Bild: Mohamed Hassan form PxHere.
EINE AKADEMISCHE KARRIERE wird für Promovierende an deutschen Hochschulen deutlich unattraktiver, zeigen neue "nacaps"-Auswertungen des Deutschen Zentrums für Hochschul- und Wissenschaftsforschung (DZHW). Die Abkürzung "nacaps" steht für "National Academics
Panel Study", es handelt sich um eine regelmäßig wiederholte, deutschlandweit repräsentative Längsschnittstudie über Promovierende und Promovierte. Die Ergebnisse lagen mir vorab vor und sind von Dienstagnachmittag an online abrufbar.
Befragt, in welchem Beschäftigungssektor sie nach Abschluss ihrer Dissertation arbeiten wollen, nannten 2021/22 nur noch 14 Prozent der Doktoranden die Hochschulen, ein Rückgang um acht Prozentpunkte gegenüber 2017/18. Weitere vier Prozent strebten 2021/22 eine Karriere an außeruniversitären Forschungseinrichtungen an, womit sich der Wert von 2017/18 sogar halbiert hat.
Die neuen "nacaps"-Ergebnisse passen zu den Zahlen einer anderen DZHW-Befragung, die im März Debatten in der Hochschulpolitik verursacht hatte. Laut "Barometer für die Wissenschaft", gaben darin 71 Prozent aller befristet beschäftigten Postdocs an, sie hätten in den vergangenen zwei Jahren ernsthaft den Ausstieg aus der Wissenschaft erwogen. Und nur noch 16 Prozent der Promovierenden hatten als Berufsziel die Professur.
Wer in der Hochschulpolitik bislang noch bezweifelte, dass eine Nachwuchskrise in der deutschen Wissenschaft droht, bekommt durch die am Dienstag veröffentlichten "nacaps"-Daten ein weiteres Warnsignal – und das kurz bevor der BMBF-Entwurf einer Novelle des Wissenschaftszeitvertragsgesetzes (WissZeitVG) abschließend im Bundestag verhandelt wird. Befragt wurden bei "nacaps" in jeder der bislang drei Kohorten mindestens 15.000 Promovierende von über 60 Hochschulen.
"Der akademische Arbeitsmarkt hat sich gedreht"
"Unsere Ergebnisse belegen, dass sich der akademische Arbeitsmarkt gedreht hat", sagt "nacaps"-Leiter Kolja Briedis. "Früher war es ein Arbeitgebermarkt. Jetzt ist es ein Arbeitnehmermarkt." Gerade der hohe Anteil befristeter Arbeitsverträge in der Wissenschaft werde von jungen Forschenden heute viel stärker als Problem thematisiert als vor einigen Jahren. "Sie können es sich leisten, weil in Zeiten des allgemeinen Fachkräftemangels genügend Alternativen da sind."
Abgenommen hat laut "nacaps" auch die Präferenz für den öffentlichen Dienst (acht Prozent statt elf vier Jahre zuvor). Interessanterweise stagniert zugleich aber der Anteil der Promovierenden, die in die Privatwirtschaft wollen (30 versus 29 Prozent). Stark gewachsen ist allein die Gruppe der Unentschlossenen (+12 Prozentpunkte auf 37 Prozent). Die Promovierenden halten sich ihre Entscheidung also offen – aus Unsicherheit oder weil sie das Gefühl haben, es sich leisten zu können?
DZHW-Forscher Briedis sagt: "Nicht nur die Initiative #IchBinHanna hat die Debatte über Wissenschaftskarrieren verändert, auch Fragen der mentalen Gesundheit, des Mobbing und der Machtverhältnisse und -abhängigkeiten spielen heute in der öffentlichen Wahrnehmung eine viel größere Rolle. All das führt dazu, dass sich junge Wissenschaftlerinnen und Wissenschaftler heute viel mehr Gedanken darüber machen, ob sie unter den herrschenden Bedingungen wirklich in der Wissenschaft weitermachen wollen."
Der hohe Anteil an Unentschlossenen könnte freilich darauf hindeuten, dass die – potenziellen – Vorteile einer akademischen Karriere durchaus noch wahrgenommen werden: vor allem die Chance, in Forschung und Lehre der Neugier und den eigenen Interessen zu folgen. Aus Sicht von Hochschulen, Forschungseinrichtungen und Wissenschaftspolitik eine echte Chance – wenn sie durch Reformen eine echte Veränderungsbereitschaft signalisieren. "Im Augenblick aber", sagt Briedis, "erscheint vielen das Gras außerhalb der Wissenschaft grüner."
Spannend ist, dass die Wahrnehmung einer mangelnden Attraktivität wissenschaftlicher Karrieren in der "nacaps"-Umfrage kontrastiert wird durch einige berichtete Verbesserungen, teilweise als Folge der letzten WissZeitVG-Novelle, wie bereits deren Evaluation vor zwei Jahren belegte. So sind die durchschnittlichen Vertragslaufzeiten zwischen 2017/18 und 2021/22 gestiegen. 66 (statt 65) Prozent liegen jetzt bei 24 bis 36 Monaten und 13 (statt neun) Prozent bei über drei Jahren. Und umgekehrt nur noch 20 Prozent unter zwei Jahre, ein Rückgang um fünf Prozentpunkte. "Das mag nach keinem wahnsinnig großen Effekt aussehen, ist aber durchaus eine nennenswerte Verschiebung", sagt Briedis. Denn ein größerer Anteil der verbleibenden Kurzzeitverträge seien insofern sinnvoll, weil sie der Überbrückung dienten.
Gleichzeitig vergrößerte sich der Umfang der Promotionsstellen. Inzwischen haben 54 Prozent der Stellen mindestens einen Zwei-Drittel-Umfang (2017/18: 48 Prozent) und nur noch 27 (statt 38 Prozent) sind mit disziplinenübergreifend mit weniger als 50 Prozent dotiert.
Wie aber ist zu interpretieren, dass die Promovierenden 2021/22 deutlich mehr Zeit für ihre Dissertation aufwanden als vier Jahre zuvor? Konkret: 49 Prozent berichteten, sie säßen mehr als 30 Stunden pro Woche dran, sieben Prozentpunkte mehr als vier Jahre vorher, wobei der Zuwachs allein im Bereich zwischen 40 Stunden und mehr stattfand. Mehr Leistungsdruck? Oder ein vorübergehender Corona-Effekt, weil die Promovierenden mangels Freizeitalternativen und sozialer Kontakte mehr gearbeitet haben? Kolja Briedis sagt, womöglich spiegelten die Ergebnisse auch eine dauerhafte Veränderung der akademischen Arbeitswelt nach der Pandemie wider, "mit mehr Homeoffice, mehr digitalen Besprechungen und dadurch weniger Zeit, die etwa für Pendelei draufgeht".
Sicherlich drückt die gestiegene Arbeitszeit auch den starken Trend zu kumulativen Dissertationen aus, die über die gesamte Promotionszeit hinweg aufgrund mehrerer Publikationstermine einen hohen zeitlichen Aufwand erfordern. Inzwischen geben 39 Prozent der Promovierenden an, kumulativ zu promovieren, zehn Prozentpunkte mehr als 2017/18. Die klassische Monografie macht noch 47 Prozent aus, nach 51 Prozent vier Jahre zuvor. Was unter Qualitätsgesichtspunkten in jedem Fall positiv zu bewerten sein dürfte, bedeuten kumulative Promotionen doch, dass die einzelnen Bestandteile über ein unabhängiges Peer-Review-Verfahren laufen. Auch werden deutlich mehr Betreuungsvereinbarungen schriftlich fixiert.
Dass mit 16 Prozent inzwischen dreimal so viele Promovierende zwischen 2500 und 3000 Euro pro Monat verdienen und statt 19 nur noch 13 Prozent unter 1000 Euro, sieht dagegen nur auf den ersten Blick wie ein signifikanter Fortschritt aus. Nach Abzug der Inflation dürfte vom realen Zuwachs nicht mehr so viel übrig geblieben sein.
Stimmen aus Hochschulen und Politik zu den neuen "nacaps"-Ergebnissen
"Ausufernde Befristung macht Wissenschaft als Beruf unattraktiv", kommentierte Amrei Bahr von der Initiative "#IchbinHanna" auf Anfrage. "Die Reform des WissZeitVG muss dem endlich ein Ende machen: mit einer Befristungshöchstquote und einer frühzeitigen Anschlusszusage".
Der Präsident des Deutschen Hochschulverbandes, Lambert T. Koch, sagte, erhalte die Ergebnisse "in der Tat für alarmierend Sie rufen Politik und Hochschulen zum raschen und konzertierten Handeln auf." Es gehe nicht nur um verlässlichere und attraktivere Karriereperspektiven, sondern auch um ein breiteres Spektrum an dauerhaften Beschäftigungsoptionen neben der Professur. Ein Maßnahmenpaket in diese Richtung umzusetzen, könne nur gelingen, wenn Bund und Länder rasch die gesetzgeberischen und finanziellen Voraussetzungen dafür schaffen. "Wir haben keine Zeit mehr für ideologisches Geplänkel."
Die grüne Bundestagsabgeordnete Laura Kraft sagte, wenn Deutschland ein attraktiver Hochschulstandort bleiben solle, "müssen wir endlich für verlässlichere Beschäftigungsverhältnisse sorgen." Mit einer Reform des WissZeitVG allein sei es hierbei nicht getan. "Wir brauchen strukturelle und finanzielle Veränderungen im Hochschulsystem. Das wird eine Aufgabe der Politik für die nächsten zehn Jahre und darüber hinaus." Ein erster Schritt in die richtige Richtung könne das von uns Grünen mitinitiierte Bund-Länder-Programm für moderne Personalstrukturen sein. "Ich erwarte dazu ein entsprechendes Konzept bis spätestens September aus dem BMBF." Auch der Wissenschaftsrat erarbeitet gerade Vorschläge zu dem Thema. "Diese Expertise sollten wir nutzen."
Krafts FDP-Kollege Stephan Seiter sagte, die Studienergebnisse stellten den Ländern ein schlechtes Zeugnis hinsichtlich ihrer Attraktivität als Arbeitgeber aus. "Landesregierungen in allen Bundesländern haben sich über Jahrzehnte hinweg vor der Frage gedrückt, welche Mittel sie den Hochschulen zur Gestaltung eines wirklich attraktiven Arbeitsumfeldes an die Hand geben möchten. Wenn Hochschulen mit der freien Wirtschaft mithalten sollen, müssen sie vor allem in der Personalentwicklung besser werden." Vielfach schienen Fakultäten in Fragen der Personalentwicklung am Anfang zu stehen, fügte Seiter hinzu. "Die Versteifung auf das WissZeitVG verstellt den Blick für die Komplexität des
Problems und spielt Wissenschaftliches Personal und Hochschulleitungen gegeneinander aus."
"Alarmierend" nennt die "nacaps"-Ergebnisse auch die SPD-Wissenschaftspolitikerin Carolin Wagner. "Ich weiß aus zahlreichen Gesprächen mit Beschäftigten aus der Wissenschaft, wie begeistert sie von ihrer Tätigkeit sind, aber wie ihnen die Arbeitsbedingungen immer schwerer zu schaffen machen." Viel zu lange habe sich die Academia darauf verlassen, dass sich immer wieder neue kluge Köpfe um befristete Stellen bemühten, so habe die Wissenschaft die Beschäftigungsrisiken auf den Schultern der ArbeitnehmerInnen belassen können. Die Arbeitsbedingungen in der Wissenschaft müssten sich ändern, wenn Deutschland nicht an Innovationskraft nicht einbüßen wolle." Für mich als Bundespolitikerin macht das deutlich: Wir müssen den Beschäftigten mit der Reform des WissZeitVGs ganz stark entgegen kommen!" Und an die Länder appelliere sie: "Schafft mehr Dauerstellen an den Universitäten und haltet gutes Personal für Forschung und Lehre!"
Der Präsident der Hochschulrektorenkonferenz (HRK), Walter Rosenthal, betonte, die Hochschulen qualifizieren durch Studium und Promotion "nicht primär oder gar ausschließlich" für eine Laufbahn an Hochschulen. Jährlich würden knapp 30.000 Promotionen abgeschlossen, im Wissenschaftssystem disziplinübergreifend aber nur etwa 4.000 unbefristete Stellen neu besetzt. Die große Mehrheit der Doktoranden verlasse die Hochschulen nach dem erfolgreichen Abschluss der Promotion, um eine Tätigkeit in anderen Berufsfeldern der Gesellschaft, in Wirtschaft, Verwaltung oder auch in der forschenden Industrie aufzunehmen. "Das ist gesellschaftlich auch genau so gewünscht und systemisch notwendig." Die während der Promotionsphase erworbenen Kompetenzen und wissenschaftlichen Fertigkeiten qualifizierten für viele berufliche Aufgaben. "Daher ist den Hochschulen bewusst, dass sie auch in einem Wettbewerb mit Arbeitgebern außerhalb der Wissenschaft stehen." Ziel müsse es sein, attraktive Beschäftigungsverhältnisse und transparente Karrierewege an den Hochschulen zu gewährleisten. "Auf diesem Weg befinden sich viele Hochschulen bereits, etwa bezogen auf die Gestaltung der durchschnittlichen Vertragslaufzeiten, die zeitliche Erhöhung des Beschäftigungsumfangs oder die Entwicklung neuer Karrierepfade."
Kostenfreien Newsletter abonnieren
In eigener Sache
Dieser Blog hat sich zu einer einschlägigen Adresse der Berichterstattung über die bundesweite Bildungs- und Wissenschaftspolitik entwickelt. Bitte helfen Sie mit, damit er für alle offen bleibt.
Wie Sie Blog und Newsletter unterstützen können, erfahren Sie hier...
Der Verlust der biologischen Vielfalt stellt eines der größten Umweltprobleme dar. In der 1992 gegründeten Konvention zur Biologischen Vielfalt (CBD) koordinieren sich nun die bislang 196 Mitgliedsstaaten in ihrem Bestreben, die Biodiversität zu erhalten. Jedoch wurden die globalen Biodiversitätssziele für 2010 weit verfehlt. Die Analysen des vierten Global Biodiversity Outlook (GBO-4) sowie aktuelle wissenschaftliche, globale Studien zeigen auf, dass bei derzeitigen Entwicklungen auch die in Aichi (Japan) beschlossenen Biodiversitätssziele des Strategischen Planes für die Periode bis 2021 nicht erreicht werden (Tittensor et al. 2014). Sich dieser Entwicklung entgegenzustellen ist eine besonders schwierige Aufgabe für biodiversitätsreiche Länder des globalen Südens, die Umweltschutzziele mit ökonomischen Interessen koordinieren müssen. Peru ist eines der 20 megadiversen Länder der Erde, Mitglied der CBD und verfolgt eine ambitionierte Strategie zum Schutz und zur nachhaltigen Nutzung von Biodiversität. Zum anderen ist Perus ökonomische Entwicklung auf Expansion und Extraktion von natürlichen Ressourcen ausgerichtet. Politische Maßnahmen zum Schutz der biologischen Vielfalt sind somit stets einem starken Interessenkonflikt ausgesetzt. Ziel dieser Arbeit ist es, am Beispiel Perus Ansatzpunkte zu identifizieren, mit deren Hilfe die Politik zum Schutz der biologischen Vielfalt effektiver gestaltet werden kann. Nach einer Einleitung in die Debatte der Effektivität der Biodiversitätspolitik und einer Vorstellung der Fallstudie Peru werden die folgenden wissenschaftlichen Fragestellungen untersucht (die Nummerierung entspricht der jeweiligen Publikation): 1. Welcher Narrative bedienen sich peruanische Biodiversitätsexperten, um das Problem des Biodiversitätsverlustes und ihre Perspektive auf eine nachhaltige Entwicklung zu beschreiben? 2. Wie sind Biodiversitätsnarrative im Verhältnis zur geschichtlichen Entwicklung Perus entstanden und welchen Einfluss hatten diese Bewegungen auf den nationalen Diskurs? 3. Wie bewerten lokale Experten die Auslöser und Effekte des Biodiversitätsverlustes und welche Schlussfolgerungen können daraus für die nationale Politik gezogen werden? 4. Inwieweit ist der Schutz der Biodiversität in die Strategien der nationalen, politischen Sektoren integriert? 5. Welche Bedingungen bei der Landnutzungsplanung in Migrantengemeinden in der Pufferzone des Nationalparks Cordillera Azul ermöglichten die Integration von lokalem und technischem Wissen zur Bildung von adaptiver Kapazität? Für die Betrachtung des Problems "Biodiversitätsverlust" und der Herausforderung, Naturschutzpolitik effektiver zu gestalten, war eine Verwendung von verschiedenen methodologischen Blickwinkeln notwendig. So wurden 72 semi-strukturierte, qualitative Einzelinterviews mit Experten, die im Bereich der Biodiversitätsschutzes tätig sind, durchgeführt. Durch die Anwendung des theoretischen Samplings wurde sichergestellt, dass möglichst verschiedene Perspektiven und Akteursgruppen repräsentiert werden. Alle interviewten Experten wurden danach befragt, wie sie das Biodiversitätsproblem bewerten, auf welche Auslöser oder Ursachen es zurückzuführen ist und wie mögliche Lösungsansätze aussehen könnten. Unter Anwendung der Grounded Theory konnten dann die fünf Narrativgruppen "Biodiversity Protectionists", "Biodiversity Capitalists", "Biodiversity Traditionalists", "Biodiversity Localists" and "Biodiversity Pragmatists" identifiziert werden. Publikation 1 analysiert die Narrativgruppen und diskutiert ihre Gemeinsamkeiten und Unterschiede in den fünf biodiversitätsrelevanten Kategorien "Konzept von Biodiversität", "Rolle von Akteuren", "Werte- und Wissenssysteme und Nachhaltigkeit" sowie "politische Lösungsstrategien". Publikation 2 setzt die Narrativgruppen in den historischen Kontext, auf den sie sich aufgrund ihrer Argumentationslinien beziehen. Für Publikation 3 wurden im Rahmen des partizipativen Prozesses zur Entwicklung einer neuen Biodiversitätsstrategie im Jahre 2012 Fokusgruppendiskussionen mit verschiedenen, von Regionalregierungen entsandten Experten aus Politik, Forschung, Wirtschaft und Naturschutzverbänden durchgeführt. In diesen Fokusgruppen - Diskussionen sollten die Experten die wichtigsten Auslöser und Effekte des Biodiversitätsverlustes in ihrer Region bestimmen. Durch die Anwendung einer qualitativen Inhaltsanalyse wurden diese Auslöser und Effekte charakterisiert und gruppiert. Es wird so ein Kontext des Biodiversitätsverlustes aufgezeigt, anhand dessen sich eine Reihe wichtiger Implikationen für die nationale Biodiversitätspolitik herauskristallisieren. Die Berücksichtigung dieser Implikationen in den Strategien der nationalen, politischen Sektoren wird in Publikation 4 untersucht. Dem Ansatz der "Environmental Policy Integration" (EPI) folgend wird hier untersucht, inwieweit nationale, politische, biodiversitätsrelevante Sektoren in Peru das Ziel des Biodiversitätsschutzes in ihre politischen Strategien integrieren. Für die Untersuchung wurden neben den Strategieplänen der einzelnen Sektoren Experteninterviews geführt und weitere Dokumente analysiert, die sich im Zuge der Untersuchung als für die Fragestellung besonders relevant erwiesen. Für Publikation 5 wurden die Faktoren analysiert, die während der partizipativen Landnutzungsplanung in Migrantengemeinden in der Pufferzone des Nationalparks Cordillera Azul zur Entwicklung von adaptiven Kapazitäten geführt haben. Eine kartographische Analyse von Satellitenbildern half bei der Erhebung der Entwaldungsrate in der Region. Basierend auf qualitativen Interviews mit Gemeindemitgliedern und -vertretern, NGO-Angestellten und den Prozessmoderatoren wurden Faktoren identifiziert, die die erfolgreiche Integration technischen und lokalen Wissens in das Ressourcenmanagement der Gemeinden ermöglichten. In einer abschließenden Synthese ergeben sich vier Faktoren, die sich, basierend auf den Ergebnissen der induktive Forschungsansätze der Publikationen, als wesentlich für die Effektivität der peruanischen Biodiversitätspolitik ergaben. Diese sind: die Definition von Biodiversitätszielen unter Einbindung verschiedener Wissens- und Wertesysteme, das Operationalisieren von Biodiversitätszielen, die Kapazitätenentwicklung für integrierte Biodiversitätsplanung sowie die Bildung von Sozialkapital für Zusammenarbeit. Abschließend wurde untersucht, inwieweit diese Faktoren in den Aktivitäten des Biodiversitätssektors aufgegriffen werden. Als empirisches Material dienten dazu die Peruanische Biodiversitätsstrategie, qualitative Experteninterviews und Beobachtungen aus der Teilnahme am partizipativen Prozess zur Erstellung der Biodiversitätsstrategie. ; Biodiversity loss is one of the most pressing global environmental problems of our generation. Member states to the Convention on Biological Diversity are developing national biodiversity strategies to conserve biodiversity in their countries. In the current global negotiations, different financial mechanisms are developed to particularly support poor, biologically diverse countries in the global South in their conservation efforts. In order to assure effectiveness of those efforts, research is needed to shed light on the policy processes in those countries. My research aims at developing a model to evaluate the effectiveness of biodiversity policies on various levels. As a first step towards this ambitious target, factors that are found to be crucial for the performance of biodiversity policies are evaluated in separate sub-projects and published as articles. Those aspects will later add to a comprehensive model for the assessment of biodiversity policies. Article 1 (Conservation Narratives in Peru - Envisioning Biodiversity in Sustainable Development) use grounded theory to distinguish the five groups of conservation narratives Biodiversity Protectionists, Biodiversity Traditionalists, Biodiversity Localists, Biodiversity Pragmatists and Biodiversity Capitalists. These groups are each presented along comparable aspects, such as the location of biodiversity in relation to the human life, valuation and knowledge systems, participation and leadership, substitutability of natural capital and its predominant political strategy. The presented results present an analytical scaffold to organise the conservation debates in Peru. These findings serve an example of how to break down the complex concepts of biodiversity conservation and sustainability and relate them to their political context and local implementation. Article 2 (Incorporating Biodiversity Conservation in Peruvian Development - A history with different episodes) connects the narrative groups identified in article 1 to historical conservation movements in Peru. This article analyses how these different groups emerged and started to develop a discourse on biodiversity conservation. After conducting qualitative interviews with stakeholders, discourse groups were identified and described with regard to their historical appearance. While those different discourse groups do not automatically contradict or exclude each other, this article sheds light on the different historical situations and motivations underlying these discourses. Article 3 (Learning from local knowledge in Peru—Ideas for more effective biodiversity conservation) explores the causes and effects that experts from Peruvian political regions connect to biodiversity loss. In four macro-regional workshops, experts from 22 Peruvian political regions were asked to state causes and effects of biodiversity loss in focus groups. Analysing this data, I show that even though biodiversity appears as a broad, complex concept of human-nature interactions, it can be clustered into different categories of tangible aspects. Furthermore I propose analysis of the problem of biodiversity loss in three dimensions of ecological impacts, human activities and developments, and political output. I argue that doing so can help enhancing transparency and effectiveness of biodiversity policies. Article 4 (Biodiversity Policy Integration as Conceptual Approach to Mainstreaming - Experiences from Peru) evaluates the inclusion of biodiversity conservation into sectoral policies along the dimensions inclusion, operationalization, coherence, capacity and weighting. Sectoral action plans, the design and institutional arrangement of policy instruments and qualitative expert interviews serve as the main sources for this study. As part of the participatory process leading to the development of the updated Peruvian Biodiversity Strategy and Action Plan (NBSAP), the integration of biodiversity targets into the national development plan, and the organisation of the different political actors in a national commission on biodiversity further help integrating the target of biodiversity. However, while the issues of environmental degradation and biodiversity loss are taken up by the strategy plans, they lack operationalization and institutional capacity for its implementation. Economic processes with a high potential of threats to biodiversity, such as overfishing, ecosystem degradation through extractive processes and infrastructural expansion are only marginally targeted. Possible institutional mechanisms for the coordination of political interests, such as an integrated land-use planning on the regional and local level still lack a necessary legal framework and appear to lack the necessary political commitment. Artikle 5 (Building adaptive capacity in changing SES: Integrating knowledge in communal land-use planning in the Peruvian Amazon) analyses adaptive capacity in social-ecological systems (SES) in the buffer zone of Cordillera Azul national Park (Peru). Communal participative land use planning (Zonificación Participativa Comunal– ZPC) is a tool designed for communities to organize their land use integrating conservation measures, while building knowledge on the SES. In this article, we assess to what extent the ZPC process has led to the development of adaptive capacities within SES around local communities along the dimmensions social capital, learning capacities, adaptive management and governance. Analysing these dimensions helps understanding the needs for resilient SES to cope with environmental, political, economic or social changes. It was particularly the long-term process building social capital between the instrument and local stakeholders, as well as continuously integrating, testing and reflecting technical and local knowledge that enabled communities to develop internal mechanisms supporting their adaptive capacities. Furthermore, taking leadership throughout the process, communities could adjust the ZPC to be integrated in existing formal and informal institutions governing resource use. The factors specification of contextual biodiversity targets, operationalization, social capital and the use of integrative planning instruments were identified as conditioning effective biodiversity governance. In a test of the Peruvian National Biodiversity Strategy and Action Plan (NBSAP) strengths and weaknesses are assessed and options for effective implementation are identified.
Lärm gehört zu den größten Umwelt- und Gesundheitsproblemen unserer Zeit und folgt somit an zweiter Stelle nach der Luftverschmutzung. In der Europäischen Union (EU) sind rund 40 Prozent der Bevölkerung Lärm ausgesetzt, der die Grenze der Belästigung von 55 dB überschreitet. Die Motivation zu dieser Arbeit ist daher einerseits die hohe Dringlichkeit der Lärmbekämpfung aufgrund der großen Gesundheitsgefahr und andererseits die schlechte Qualität der Lärmkarten, die in der Praxis zur Information der breiten Öffentlichkeit verwendet werden. Diese sogenannten strategischen Lärmkarten bilden die Grundlage zur Bewertung von Umgebungslärm und für die Öffentlichkeitsbeteiligung, das heißt sie sind das Kommunikations- und Informationsmittel. Hauptinhalt der Karten ist die Schallimmission, dargestellt anhand des Lärmindexes Lden für Straßen-, Schienen-, Flug- und Industrielärm, der jeweils einzeln in einer Karte darzustellen ist. Lden ist der gewichtete A-bewertete äquivalente Dauerschallpegel für alle Tage eines Jahres. Er wird anhand von farbigen Isophonen, das sind Linien gleicher Lärmbelastung, in 5-dB-Klassen dargestellt. Die zu verwendenden Farben sind in der der Verordnung über die Lärmkartierung, festgeschrieben und in einer DIN definiert. Das vorgegebene Schema entspricht jedoch nicht dem aktuellen Forschungsstand der kartografischen Gestaltung. Bestehend aus einer Abfolge von Hellgrün, Mittelgrün, Dunkelgrün, Gelb, Ocker, Orange, Rot, Dunkelrot, Lila, Hellblau und Dunkelblau, ist es qualitativ und die Farben aufgrund des Fehlens einer systematischen Helligkeits- und Sättigungsverteilung nicht den ansteigenden Werten der dB-Skala zuzuordnen. Ziel der vorliegenden Arbeit war daher, die Lärmkarten, wie sie entsprechend der END zur Öffentlichkeitsbeteiligung verwendet werden, zu analysieren und für den wichtigsten Karteninhalt, die Schallimmissionen, ein neues Farbschema zu entwickeln. Neben einer qualitativen kartografischen Analyse, einer Bestandsanalyse der Lärmkarten der 27 deutschen Ballungsräume, die zur Lärmkartierung verpflichtet sind, und einer Task-Analyse, wurden in einer Anforderungsanalyse die Voraussetzungen für die Entwicklung des neuen Farbschemas bestimmt und in einem nutzerorientierten, iterativen Prozess ein neues Farbschema zur Darstellung der Schallimmissionen entwickelt. Bedingt durch die Farbwahrnehmung und bei genauerer Betrachtung des Anwendungsfalles, der Darstellung der Schallimmissionen, werden die Herausforderungen zur Erstellung eines Farbschemas klar. Die Schallimmissionen werden zwar in 5-dB-Klassen dargestellt, aber der zugrundeliegende Schalldruckpegel ist ein logarithmisches Maß, dadurch tragen höhere Werte stärker zu einem Mittelwert bei und die dargestellte Wertespanne ist sehr groß. Um eine sinngemäße Interpretation zu ermöglichen, müssen diese daher auch in der Darstellung stärker betont werden, was durch einen starken Anstieg der Sättigung der Farben für hohe Werte erreicht wurde. Da Lärmkarten die Lärmbelastung darstellen, ist es für eine verbesserte Interpretation sinnvoll, Farben zu wählen, die mit der Belastung assoziativ sind. Aus diesem Grund wurde von der kartografischen Konvention abgewichen und ein Schema mit zwei Farbtonübergängen gewählt. Insgesamt besteht das entwickelte Farbschema aus zehn Farben, die drei Wirkungsklassen bilden. Jeder Wirkungsklasse ist ein Farbton zugeordnet - Blaugrün, Orange und Lila - der assoziativ mit dem Grad der Belästigung und dem Gesundheitsrisiko ist und somit die Interpretation erleichtert. Da es pro Farbton somit nur drei bis vier Helligkeitsstufen gibt, werden die Unterscheidbarkeit und die Zuordnung der Farben zur Legende erleichtert. Durch die Vermeidung von Ampelrot und –grün konnte die Eignung für Menschen mit Farbenfehlsichtigkeiten stark gesteigert werden. Um die Farbtöne in eine visuelle Hierarchie zu bringen, wurden die Helligkeit und die Sättigung systematisch variiert. Die Helligkeit ist am größten bei der vierten Farbe und nimmt in Richtung beider Enden ab, die Sättigung hingegen nimmt v. a. zum unteren Ende der Skala, d. h. in Richtung der hohen Werte, stark zu. Durch dieses "bipolare" Schema wird eine Betonung der Regionen erreicht, die von größtem Interesse sind: die positiven, ruhigeren Bereiche und die Bereiche hoher Belastung. Das Schema wurde in vier Nutzerstudien evaluiert, die Ergebnisse flossen jeweils in die Weiterentwicklung ein. Die Ergebnisse der ersten Studie zeigten, dass es signifikante Einflüsse des Farbschemas auf die Interpretation der Lärmbelastung gibt. Weitere Studien ergaben, dass die verwendeten Farben unterscheidbar sowie assoziativ mit der Belastung sind und dass großeWertespannen besser anhand konträrer Farben, wie beispielsweise Komplementärfarben dargestellt werden, was sehr für das Farbschema mit Farbtonübergängen spricht. Es zeigt sich, dass die Farben auch für Menschen mit Farbenfehlsichtigkeit unterscheidbar sind. Der Anwendungsfall zur Entwicklung waren deutsche Straßenlärmkarten, daher wurden die Anwendbarkeit in anderen EU-Ländern und die Übertragbarkeit auf andere Lärmquellen untersucht. Zur Übertragbarkeit auf andere Lärmquellen sowie auf Daten aus Crowdsourcing müssen die Anforderungen und darauf aufbauend die Darstellung an die spezifischen Charakteristika der Werte angepasst werden, wie zum Beispiel die Wiederholungsrate, die Dauer, oder die Häufigkeit von Messungen. Über das Farbschema hinaus ergab die Analyse u. a., dass zur Vermittlung einer wahrnehmungsgetreuen Lärminformation psychoakustische Aspekte der Wahrnehmung integriert werden müssen, denn physikalische Parameter, wie Lden, scheinen dafür nicht auszureichen und kein ausreichendes Bild einer tatsächlich wahrgenommenen Lärmsituation zu liefern. ; Noise is one of the most serious environmental and health risks, a close runner-up to air pollution. Roughly 40 percent of the population in the European Union (EU) are exposed to a noise level of 55 dB, which is at the verge of annoyance. Therefore, the motivation for this research project was the acuteness for noise abatement due to high health risk, on the one hand, and the lack of quality that can be observed in noise maps used for public information on the other hand. These so-called strategic noise maps have to be drawn up every five years according the EU Environmental Noise Directive (END, RL 2002/49/EG). They form the basis for noise assessment and public participation and, therefore, they are a major tool of communication and information. The main map content is sound immission, presented by means of the noise index Lden for road traffic, train noise, airport noise, and industrial noise; each noise source has to be presented in a separate map. Lden is the A-weighted equivalent continuous sound level for all days of a year. It is represented by means of colored isophones, which are areas of equal noise pollution, in 5 dB steps. The colors that have to be used are established in the German regulation about noise mapping, and defined in a German standard. However, this predefined color scheme does not conform to the latest standard in cartographic research and science. Being composed of a sequence from light green, green, dark green, yellow, light brown, orange, red, dark red, purple, light blue, and dark blue it is counterintuitive because a systematic change of lightness and saturation is missing. Also, the colors cannot be matched with the increasing values of the dB-scale. The aim of this research effort, therefore, is to analyze END-conform noise maps and to develop a color scheme for the most important map content, the sound immission. Besides a qualitative, cartographic analysis the author undertook a status analysis of the maps published by the 27 agglomerations, which are legally obliged to draw up noise maps, an analysis of the tasks users carry out in accordance with their aims, and a requirements analysis for noise maps. The requirements are the foundation for the user-centered and iterative color design process to develop a new color scheme for the presentation of noise immission. Looking at the vast number of cartographic research on color-design the development of a color scheme might seem trivial. However, due to color perception and the specific case of application challenges become clear. Noise immission is presented in 5-dB-classes, but the underlying sound pressure is logarithmic. The effect is that higher values contribute more to the energetic mean value and the span between extreme values is big. To support that colors are logically assignable to the characteristics of noise data, higher values have to be highlighted. This is achieved by an increase of saturation for higher values. To facilitate interpretation it makes sense to choose colors that are associative with the presented noise pollution. That was the reason for choosing a color scheme with two color transitions against cartographic custom. In total the color scheme consists of ten colors and three color hues – blue-green, orange, and purple. The color hues symbolize three levels of noise exposure as well as health risk and support recognition. For each hue there are only three to four lightness steps, which supports distinguishability and the matching of colors in the map with colors in the legend. Through avoidance of red and green the scheme's suitability for people with color vision deficiencies was achieved. A systematic change of saturation and lightness supports a visual hierarchy of the presentation. The fourth color is the lightest while lightness decreases at both ends of the scale. Saturation, in contrast, increases for higher values. By means of this "bipolar" scheme areas of interest are highlighted, which are quiet areas as well as highly polluted areas. The scheme is evaluated in four user studies following an iterative design. Thereby results of the studies are considered for the further development of the scheme. Results of the first study show that color schemes have an influence on the interpretation of noise maps. The other studies prove that the colors of the scheme can be distinguished, also by users with color vision deficiencies, and are associative with the level of pollution. Studies also show that contrary colors with a high color or lightness contrast are appropriate to represent a big span between extreme values. This is the argument for the proposed scheme with two hue transitions. The case of application for the development of this new color scheme were German traffic noise maps, therefore the adaptability of results for other EU member states and for other noise sources was evaluated. Results show that there is no effect between place of residence and color association. Consequently, the color scheme can also be used in countries other than Germany. To be used for other noise sources as well as data from crowdsourcing, requirements and presentation styles have to be adapted to the specific data characteristics, such as repetition rate, duration, or the frequency of metering. Beyond insights for the color scheme the analysis revealed that the presentation of physical parameters like Lden is not sufficient to represent noise information that is in line with the individual perception of affected people. Therefore, psychoacoustic aspects have to be integrated to a greater degree.
Hunger ist nach wie vor ein weit verbreitetes Problem. Nach der jüngsten Schätzung der FAO hungern weltweit noch immer über 800 Mio. Menschen. Prognosen gehen davon aus, dass die Agrarproduktion bis 2050 verdoppelt werden muss, um der steigenden Nachfrage nach Agrarprodukten durch Bevölkerungswachstum, Bioenergieproduktion und sich verändernde Ernährungsgewohnheiten zu begegnen. Unter vielen Möglichkeiten, das Welternährungsproblem zu beschreiben, wird in dieser Dissertation das Konzept der Ernährungssicherheit nach der Definition der FAO herangezogen. Ernährungssicherheit umfasst als wichtigste Aspekte die Verfügbarkeit von Nahrungsmitteln und den ökonomischen Zugang zu Nahrungsmitteln. Nahrungsmittelverfügbarkeit ist in erster Linie von einer global ausreichenden Produktion abhängig, der Zugang zu Nahrung von der Kaufkraft der Haushalte. Die Kaufkraft wird sowohl durch das Einkommen wie auch die Agrarpreise beeinflusst. Die Nahrungsmittelverfügbarkeit kann vor allem durch Ertragssteigerungen erhöht werden. Sollen die Ertragssteigerungen ressourcenschonend erfolgen, muss die Produktivität der Agrarproduktion bezogen auf alle Produktionsfaktoren inkl. Umweltgütern steigen. Nur durch technische und organisatorische Innovation kann dies realisiert werden. Ertragssteigerungen in Entwicklungsländern erhöhen gleichzeitig die Einkommen von potenziell von Hunger Betroffenen. Eine Begrenzung der Nachfrage nach Agrargütern kann global in erster Linie in den Bereichen Bioenergie und Konsum tierischer Produkte erfolgen. Simulationen können helfen, den Einfluss einzelner Faktoren der globalen Nachfrage und des Angebots nach Agrarrohstoffen und -produkten auf die Welternährungslage genauer abzuschätzen. Ein Großteil der Simulationen in der Literatur kommt mithilfe von partiellen oder allgemeinen Gleichgewichtsmodellen zu Aussagen über gehandelte Mengen und Preise oder Wohlfahrtseffekte. In dieser Arbeit wird ein einfaches partielles Gleichgewichtsmodell für den Weltmarkt für Biotreibstoffe, Fleisch und Getreide entwickelt und mit der Methode der FAO zur Schätzung der Zahl der Hungernden gekoppelt. Dies ermöglicht die Abschätzung des Einflusses verschiedener Szenarien auf die Zahl der Hungernden. Für das Referenzjahr 2011 werden Szenarien alternativer Nachfrage nach Fleisch und Biotreibstoffen simuliert, ebenso wie ein Szenario alternativer landwirtschaftlicher Produktivität in der Europäischen Union. Die Schätzungen ergeben einen signifikanten Einfluss der simulierten Nachfrage- und Angebotsverschiebungen. Im Vergleich mit dem Status Quo führt eine Reduktion des Fleischkonsums in den OECD-Ländern um 50% zu einer Reduktion der Zahl der Hungernden um 5%. Eine ii Flächenproduktivität im Getreideanbau in der EU auf dem Niveau von 1980 steigert die Zahl der Hungernden um mehr als 5%, ein Anstieg der Biotreibstoffquote in der OECD auf 10% erhöht die Zahl der Hungernden gar um 10%. Die Durchsetzung geeigneter politischer Maßnahmen zur Verbesserung der Welternährungslage kann durch eine breite öffentliche Unterstützung beschleunigt oder erst ermöglicht werden. Über die öffentliche Meinung zu Fragen der Welternährung in Deutschland existieren bisher keine expliziten Studien. In den Themenbereichen landwirtschaftliche Produktion und Nahrungsmittelkonsum stellt das Thema Welternährung nur einen Aspekt dar, der neben Fragen nach z.B. der Lebensmittelsicherheit und Gesundheit sowie den Auswirkungen von Agrarproduktion auf Landschaft und Umwelt steht. Hier werden Ergebnisse einer Online-Befragung zum Thema Welternährung präsentiert, die im März 2012 mit einer repräsentativen Stichprobe 1.200 deutscher Internetnutzer durchgeführt wurde. Die Befragung beinhaltete im Wesentlichen die Bewertung der Wirkung verschiedener potenzieller Ursachen der weltweiten Unterernährung, sowie Maßnahmen und Entwicklungen zu ihrer Lösung. Die Ergebnisse zeigen, dass das Thema Welthunger in erster Linie mit Merkmalen akuter (Hunger-) Krisen in Verbindung gebracht wird. Die vielversprechendsten Lösungsmaßnahmen sind in den Augen der Befragten der Ausbau des Fairen Handels, Absatzmärkte für Kleinbauern sowie ein Lebensmittelspekulationsverbot. Der intensiven Landwirtschaft in der Welt wie auch in Europa sowie insbesondere der Grünen Gentechnik wird kein Potenzial zur Lösung des Problems zugesprochen. Die Antwortmuster lassen auf die Präsenz eines Halo-Effekts mit einer Übertragung unterstellter negativer Umweltwirkungen auf das Thema Welternährung schließen. Die Grüne Gentechnik ist eine Agrartechnologie, die potenziell zur Angebotsausweitung von Agrarprodukten genauso beitragen kann wie zu einer ressourcenschonenderen Landwirtschaft. Bisherige Anwendungen, hauptsächlich Herbizidtoleranz sowie Insektenresistenz, haben u.a. zu einer Steigerung der effektiven Erträge, einer Einsparung von Insektiziden und einer Steigerung der Profite vor allem im Baumwollanbau beigetragen. Trotz zahlreicher Belege besteht über die Auswirkungen von gentechnisch veränderten (GV) Nutzpflanzen eine anhaltende Kontroverse. Ein Großteil der europäischen Bevölkerung lehnt den Anbau ebenso ab wie einen Verzehr von Produkten aus GV-Pflanzen. Unterstellte sozio-ökonomische Auswirkungen oder Auswirkungen auf die Welternährung sind nur zwei Determinanten von vielen, die zu den Einstellungen zur Grünen Gentechnik beitragen. Zur Konsolidierung des Wissens im Bereich agronomischer sowie sozio-ökonomischer Auswirkungen von GV-Pflanzen wurde eine Meta-Analyse durchgeführt. In wissenschaftlichen Datenbanken wurden iii 147 Primärstudien identifiziert, die für die Meta-Analyse verwendet wurden. Die Analyse beschränkt sich auf gentechnisch veränderte Sojabohnen, Mais und Baumwolle. Als mittlere Effekte des Anbaus von GV-Pflanzen ergibt die Meta-Analyse eine Steigerung des Ertrages um 22%, eine Reduktion der Menge der angewendeten Pflanzenschutzmittel um 37% und eine Steigerung der Profite der Bauern um 68%. Die Höhe der Effekte hängt stark von verschiedenen Faktoren ab. Die Effekte sind für alle drei genannten Variablen in Entwicklungsländern betragsmäßig größer als in Industrieländern. Auch sind die Effekte des Anbaus von GV-Pflanzen bei Erträgen und beim Pflanzenschutzmitteleinsatz betragsmäßig höher für insektenresistente Pflanzen als bei solchen mit Herbizidtoleranz. Aus den in der Arbeit gewonnenen Erkenntnissen kann geschlussfolgert werden, dass sowohl das Nahrungsmittelangebot gesteigert als auch die Nachfrage begrenzt werden sollte. Dies verlangt eine standortangepasste Ausnutzung vorhandener und die Entwicklung neuer Technologien. Auch die Gentechnik kann einen Beitrag leisten. Der Kleinbauernsektor muss vordringlich gefördert werden. Zur Begrenzung der Nachfrage können neben der Politik, welche vor allem die Biotreibstoffnachfrage beeinflussen kann, auch Konsumenten durch Verzicht auf tierische Produkte beitragen. Dies wie auch die Durchführung effektiver politischer Maßnahmen sind auf eine unverzerrte Sichtweise der Öffentlichkeit auf das Thema Welternährung angewiesen. Dazu muss das Thema in Wissenschaftskommunikation und Bildung stärker thematisiert werden. ; Hunger is still a widespread problem. According to newest estimates of the FAO, more than 800 million people are not able to fulfil their basic dietary needs. Projections estimate that the global agricultural production will have to be doubled by 2050 to meet the growing demand driven by population growth, bioenergy, and changing dietary habits. Among many possible ways to describe the world hunger problem we choose the concept of food security according to the FAO. Food security is comprised of four pillars, the two first of which are food availability and the economic access to food. Food availability is mainly dependent on a sufficient global agricultural production; the access to food depends on the purchasing power of the households. The main determinants of purchasing power, in turn, are the household income as well as agricultural prices. Food availability can mainly be increased through an increase in agricultural yields. In order for the yield increases to be resource conserving, the productivity of all production factors including environmental resources must be enhanced. This can only be achieved through technical and organizational innovation. Yield gains in developing countries simultaneously increase the incomes of small scale farmers who are potentially in danger of undernutrition. A limitation to global demand for agricultural commodities can foremost be achieved in the domain of bioenergy and animal products. Simulations are a valid tool to assess the influence of certain factors of global demand and supply of agricultural commodities. In large parts, simulations use computer generated total or partial equilibrium models to assess shifts in quantities traded, prices, or welfare. In this dissertation, we develop a simple partial equilibrium model for the world market for biofuels, meat, and grains. This model is then connected to the FAO method for the estimation of the prevalence of undernutrition. This enables us to estimate the impact of different scenarios on the number of undernourished people in the world. For the year 2011, several scenarios with an alternative demand for meat or biofuels are simulated as well as one scenario with an alternative agricultural productivity in the European Union. The estimations show a significant effect of the simulated shifts in demand and supply. In comparison with the status quo, an OECD-wide reduction in meat consumption leads to a reduction in the number of undernourished people by 5%. A simulated land productivity in grain production in the EU at the level of 1980 leads to an increase in the number of undernourished people by 10%. In order for appropriate policies concerning the world food situation to be put in place, wide public support will be necessary. So far there exists no evidence about the public opinion concerning the problem of world hunger. In the areas of agriculture and food consumption, the issue of world food v security is only one side aspect within an array of issues as food safety and health, as well as the impacts of agriculture on landscapes and the environment. In this dissertation we present the results of an online survey concerning the issue of world hunger. The survey was carried out with a representative sample of 1,200 German internet users in March 2012. In the main parts of the survey, respondents were asked to rate different potential causes and remedies of the world hunger problem. The results show that the world hunger is mainly associated with attributes of famines and acute crises. In the view of the respondents, the most promising remedies to world hunger are an increase of Fair Trade, the creation of market outlets for smallholder farmers in developing countries, and the interdiction of speculation on agricultural commodities. Intensive agriculture in the world and also in Europe is not rated having any potential to improve world food security; the same holds true for GM (Genetically Modified) crops. The patterns of the responses suggest that there might be a halo effect whereby assumed negative consequences of intensive agriculture and genetic engineering are transmitted to the evaluation with respect to the issue of world hunger. Genetic engineering in agriculture is a technology that can potentially help increase agricultural production and also have resource-conserving effects. Current applications, mainly insect resistance and herbicide tolerance have, among others, led to an increase in effective yields, a reduction in the application of insecticides, and an increase in farmers' profits. Despite evidence from numerous studies there is still a high level of controversy regarding the impacts of GM crops. Large parts of the European public oppose both the cultivation of GM crops and consumption of GM food. Assumed socio-economic impacts or impacts on food security are only two minor aspects of many determinants of the attitude towards this technology. To consolidate the evidence on agronomic and economic impacts for farmers, we conducted a meta-analysis. Through keyword search in scientific databases, 147 studies were identified and used in the analysis. The meta-study is limited to results on the most widespread GM crops worldwide: soybeans, maize, and cotton. We estimate mean effect sizes of GM crop cultivation which are an increase in yield by 22%, a reduction in pesticide quantity by 37% on average, and an increase in farmer profits by 68%. The magnitude of the effects is determined by various factors. For all three variables named above, the impact of GM crop cultivation is larger in developing than in developed countries. Yield effects as well as impacts of GM crops on pesticide quantity are relatively larger for insect resistant crops than for herbicide tolerant crops.
Die Zielsetzung der Arbeit ist eine Bewertung der Demokratien in vier Ländern: Deutschland, Frankreich, Spanien und Portugal. Innerhalb der Demokratieforschung gab es in den letzten Jahren eine Entwicklung weg von der Einstufung der politischen Systeme in Demokratie-Autokratie zu unterschiedlichen Abstufungen von Demokratie bzw. der Qualität von Demokratie (Pickel/Pickel 2006:152; Fuchs/Roller 2008:77; Schmidt 2000, 2002, Lauth 2004; Berg-Schlosser 1999). Anhand von Indikatoren und Messindizes wird versucht, die Demokratiegrade von vier unterschiedlichen Ländern in vergleichender Weise herauszufinden. Der Vergleich zwischen bereits etablierten Demokratien stellt dabei eine besondere Herausforderung dar. Anhand der Darstellung der verschiedenen theoretischen Konzepte innerhalb des Forschungsstandes der Demokratieforschung, wie z. B. von R. A. Dahl (1989, 1998), David Beetham (1993, 1994, 2003), Merkel et al. (2003) und Leonardo Morlino (2004) wird gezeigt, dass alle Konzepte von einem Mindeststandard ausgehen, um von Demokratie sprechen zu können. Der Ansatz von Merkel et al. (2003) der "Defekten Demokratie" liegt unterhalb des Schwellenwertes. Die Ansätze von Beetham (1993, 1994, 2004), der "Democratic Audit" sowie der von Morlino (2004), ",Good' and ,Bad' Democracies: How to Conduct Research into the Quality of Democracy", erfassen die Qualität von Demokratien, womit sie oberhalb des genannten Schwellenwertes liegen. In der vorliegenden Forschungsarbeit wird das Konzept der "Defekten Demokratie" von Merkel et al. (2003) herangezogen, da nicht ausgeschlossen werden kann, dass in den ausgewählten Ländern Defekte vorliegen. Morlinos Konzept (2004) wurde aus zwei Gründen ausgewählt: Erstens zielt es im Unterschied zu dem Ansatz der "Defekten Demokratie" auf die Ermittlung der Qualität von Demokratien ab, d. h. also von politischen Systemen, die zweifelsfrei eine Demokratie sind, und zweitens handelt es sich um ein sehr systematisch entwickeltes Konzept. Anhand der Ansätze von Merkel et al. (2003), Morlino (2004) und deren Fallstudien, die im Rahmen dieser Forschungsarbeit analysiert werden, müssen geeignete Indikatoren gefunden werden, um die Defekte und die Qualität der Demokratien der Länder Deutschland, Frankreich, Spanien und Portugal messen zu können. Hinsichtlich der Indikatoren ergab sich ein etwas überraschendes Problem: Obwohl Merkels Ansatz (2003) Defekte und Morlinos Ansatz (2004) die Qualität von Demokratien bestimmt, gibt es viele inhaltliche Überschneidungen zwischen den Ansätzen, d. h. dass zum Teil gleiche Indikatoren innerhalb der beiden Konzepte verwendet werden. Dieser Sachverhalt nötigte zu einer genauen Festlegung, welcher Indikator welches theoretische Konstrukt messen soll. Bei einigen dieser Indikatoren mussten Ergänzungen als auch inhaltliche Modifikationen, sowie bei einigen wenigen ein Ausschluss vorgenommen werden. Bezüglich der Messung der Demokratien haben beide Konzepte Vorschläge unterbreitet, die in vorliegender Forschungsarbeit zuerst aufgeführt und anschließend diskutiert werden. Da aber beide Konzepte zu keiner vollkommen zufriedenstellenden Lösung führen, wurde ein kombiniertes Messinstrument entwickelt. Dieses beruht auf einer dichotomen Bewertung bezüglich jedes Indikators beider Konzepte, d. h. die Indikatoren bei Merkel et al. (2003) werden als "defekt" oder als "nicht defekt" sowie die Indikatoren bei Morlino (2004) als "Qualitätsmerkmal" oder als "kein Qualitätsmerkmal" bewertet. Dabei werden alle Indikatoren als gleichwertig behandelt, um mögliche Probleme bezüglich der Gewichtung zwischen den Teilregimen bzw. den Dimensionen, die z. B. bei Morlino (2004) auftraten, auszuschließen. Anhand der Summe der Defekte und der Qualitätsmerkmale der jeweiligen Länder kann hinsichtlich deren Qualität der Demokratie eine Abstufung erfolgen. Die empirischen Ergebnisse zeigen, dass in allen vier Ländern sowohl Defekte vorliegen, aber auch Merkmale, die für die Qualität der Demokratien der jeweiligen Länder sprechen. Unter Verwendung des kombinierten Messinstruments ergab sich, dass Deutschland am besten abschnitt. Danach kann mit einem signifikanten Abstand Portugal, anschließend Frankreich und zuletzt Spanien positioniert werden. Positiv bewertet werden kann in allen vier Ländern das Wahlregime, die Assoziationsfreiheit, der politische Pluralismus sowie die effektive Regierungsgewalt bezüglich des Verhältnisses Politik und Militär. Weitere besondere Stärken liegen bei der Bundesrepublik Deutschland hinsichtlich der Unabhängigkeit der Justiz und des Bundesverfassungsgerichts, der Souveränität des Rechtstaates sowie der Souveränität der Verfassung vor. Positiv konnte für Spanien und Portugal die Einhaltung internationaler und europäischer Vorgaben bewertet werden sowie die Durchsetzung von Antikorruptionsmaßnahmen. Frankreich fiel insbesondere durch einige demokratische Qualitätsverluste auf, die sich vor allem in der Verletzung von Bürger- und Menschenrechten mit einhergehenden Defiziten innerhalb des Justizapparates und bei den Polizei- und Sicherheitskräften ausdrückt. Trotz dieser Ergebnisse muss festgehalten werden, dass alle vier Länder Defekte vorweisen, zum Teil mit steigender Tendenz. Besonders hervorzuheben ist, dass in allen vier Ländern sowohl Einschränkungen der Meinungs-, Presse- und Informationsfreiheit, der Menschenrechtsverletzungen, Einschränkungen in den Justizrechten und Korruption vorzufinden sind. Die Unterschiedlichkeit der Eingriffe und Intensität spiegelt sich in den Endergebnissen der Bewertungen der Demokratien wider. Nicht zuletzt erleiden insbesondere Portugal und Spanien aufgrund der aktuellen Wirtschaftskrise tiefgreifende Einschränkungen in ihrer Souveränität. ; The aim of this dissertation is to assess the democracies of four countries: Germany, France, Spain and Portugal. In recent years there has been a development in democracy research away from categorizing political systems along the lines of the democracy-autocracy model towards classifying them according to their different degrees of democracy or rather their quality of democracy (see Pickel/Pickel 2006:152; Fuchs/Roller 2008:77; Schmidt 2000, 2002, Lauth 2004; Berg-Schlosser 1999). Basing itself on specific indicators and measuring indices this study paper aims at identifying the degrees of democracy of four different countries by way of comparison. In this process, comparing democracies which are well-established has proved to be particularly challenging. This paper introduces the different theoretical conceptions currently prevailing in democracy research, such as the conceptions of R. A. Dahl (1989, 1998), David Beetham (1993, 1994, 2003), Merkel et al. (2003) as well as of Leonardo Morlino (2004), and shows that all conceptions base themselves on a minimum standard in order to classify a political system as a democracy. The approach of "defective democracy" put forward by Merkel et al. (2003) refers to a level below the minimum democratic threshold. The "democratic audit" approach of Beetham (1993, 1994, 2004) and the approach of Morlino (2004), elaborated in his article ",Good' and ,Bad' Democracies: How to Conduct Research into the Quality of Democracy", both deal with the quality of democracies, therefore referring to a level above the minimum democratic threshold. The conception of "defective democracy" developed by Merkel et al. (2003) has been included in this research paper as it cannot be precluded that defects in the selected countries do in fact exist. Morlino's conception (2004) has been chosen for the following two reasons: Firstly, and in contrast to the "defective democracy" approach, it aims at identifying the quality of democracies, i.e. of political systems which are democracies beyond doubt. Secondly, it represents a conception which has been developed very systematically. Based on the approaches of Merkel et al. (2003) and Morlino (2004) it was necessary to find appropriate indicators for measuring the defects and the quality of the democracies in Germany, France, Spain and Portugal. In this process, a somewhat unexpected problem arouse with regard to the use of indicators: Although Merkel's approach (2003) is geared towards determining the defects and Morlino's approach (2004) towards determining the quality of democracies, there turned out to be many content overlaps between both approaches. It meant that to some extent both conceptions make use of identical indicators. It therefore became necessary to exactly define the specific theoretical construct that would be assessed by each of the indicators. Some indicators had to be either complemented or modified with regard to their content, and a few of them had even to be excluded. This research paper takes into account the proposals on how to assess democracies put forward by both conceptions. These proposals are first introduced and then discussed. However, as no completely satisfying result can be reached using either of these two conceptions, a combined measuring instrument has been developed. This instrument is based on a dichotomous assessment with regard to every indicator of both conceptions, i.e. the indicators of Merkel et al. (2003) are assessed as "defective" or "non-defective" and the indicators of Morlino (2004) are assessed as "with quality feature" or "without quality feature". All indicators are thereby considered equal so as to avoid problems which could arise in the weighting process between the regime elements or the dimensions which were e.g. introduced by Morlino (2004). Based on the number of defects and quality features of the respective countries a scale can be worked out with regard to their quality of democracy. According to the empirical findings, all the four countries show both defects and, at the same time, features which stand for the quality of the democracies in the respective countries. Using this combined measuring instrument Germany showed the highest performance. Significantly lower were the results for Portugal, then France and finally Spain. In all four countries the electoral regime, right to association, political pluralism and effective governance with regard to the relationship between political bodies and military can be given a positive rating. Apart from this, the Federal Republic of Germany shows further special strengths with regard to the independence of the judiciary and Federal Constitutional Court, the sovereignty of the constitutional state as well as the sovereignty of the constitution. Spain and Portugal proved eligible to be given a positive rating for complying with international and European requirements as well as for implementing anti-corruption measures. France notably stood out for quality deterioration in several democratic aspects, which manifested themselves above all in the violation of civil and human rights and included deficits within the judicial apparatus and among the police and security forces. Notwithstanding these results it must be noted that defects have been identified in all four countries, partly indicating a growing tendency. Especially to be emphasized is the fact that in all four countries restrictions of the freedom of opinion, press and information, violation of human rights, restrictions of judicial rights and corruption have been identified. Differences in the type of interventions and intensity are reflected in the final results of the assessments on democracy. Last but not least, as a result of the current economic crisis it is especially Portugal and Spain which are subject to drastic restrictions of sovereignty.
Die vorliegende Arbeit beschäftigt sich mit Edelmetallarbeiten, die aus skythischen Bestattungen des nördlichen Schwarzmeergebiets stammen. Ausgangspunkt für die Untersuchungen bilden die Funde aus dem Solocha-Kurgan, der in den Jahren 1912/13 von dem russischen Archäologen N.I. Veselovskij ausgegraben wurde. Nach einem einleitenden Kapitel zur allgemeinen Forschungsgeschichte der sogenannten graeco-skythischen Toreutik wird im zweiten Kapitel der Solocha-Kurgan vorgestellt. Von den beiden Katakombengräbern, die Veselovskij öffnete, datiert die zentrale Bestattung in die Zeit um 400 v. Chr., das Seitengrab um 370 v. Chr. Aufgrund der Beraubung der zentralen Bestattung steht vor allem die reiche Beigabenausstattung der ungestörten seitlichen Katakombe im Vordergrund der Betrachtung. In Einzeluntersuchungen werden die Edelmetallarbeiten – der berühmte Kamm, Gefäße und Prunkwaffen - zunächst im Kontext ihrer jeweiligen Gattung betrachtet. Hierfür werden die Stücke jeder Gattung vorgestellt und das jeweilige Objekt aus dem Solocha-Kurgan vor diesem Hintergrund diskutiert. Zur Veranschaulichung dienen tabellarische Zusammenstellungen von Gefäßausstattungen und Prunkwaffen in skythischen Bestattungen des 5. – 4. Jhs. v. Chr. Die Gesamtbetrachtung zeigt, dass sich einige der Edelmetallfunde aus dem Solocha-Kurgan gut in die allgemeine Entwicklung der Edelmetallbeigaben in skythischen Bestattungen einfügen. Dazu gehören die importierten Silbergefäße, die mit Appliken versehenen Holzschalen sowie das Trinkhorn aus der seitlichen Katakombe. Auch der dort gefundene Prunkakinakes besitzt Vorgänger im skythischen Material. Ein Novum hinsichtlich Form und Dekor stellen dagegen der berühmte Goldkamm, die kugeligen Silberflaschen, die Silberschalen mit den segmentförmigen Griffen sowie der großformatige Silberbeschlag des Goryts aus der Seitenbestattung dar. Obwohl sie teilweise an frühere Formen anknüpfen, stellen sie eigenständige Gestaltungen dar. Aufgrund figürlicher Darstellungen im Stil des sogenannten ethnographischen Realismus können einige Stücke enger zusammengeschlossen werden und sind wohl als Erzeugnisse einer einzelnen Auftragsarbeit zu deuten. Aufgrund der fehlenden Vorläufer ist es eher unwahrscheinlich, dass diese Arbeiten von einem Skythen in Auftrag gegeben werden konnten. Die anfangs noch geringe Anzahl derartiger Objekte spricht darüber hinaus auch gegen eine Interpretation als Handelsware. Da analog zur Verbreitung der späteren Erzeugnisse graeco-skythischer Toreutik von einer Fertigung im Bosporanischen Reich - am ehesten in Pantikapaion - ausgegangen werden kann, scheint folgende Erklärung am plausibelsten: Die Prunkobjekte aus dem Solocha-Kurgan stellen "politische" Geschenke dar, die der bosporanische Herrscher Leukon I. (389/88-349/48 v. Chr.) in Auftrag gab und an einen skythischen Verbündeten übermittelte. Dementsprechend wären die in den Darstellungen gegeneinander kämpfenden Skythen als Verbündete und Gegner des Bosporanischen Reiches zu erklären. Als Grundlage für die Bearbeitung der einzelnen toreutischen Werke dient ein ausführlich kommentierter Katalog der Fundkomplexe, aus denen die Objekte stammen. Hierbei gibt der Bestattungszeitraum einen ersten Anhaltspunkt für die Datierung der Edelmetallarbeiten, weiter können aus ihrer Lage innerhalb der Bestattung und der Vergesellschaftung mit anderen Fundstücken Rückschlüsse auf ihre Funktion gezogen werden. Daneben wurde für die einzelnen Gegenstände ein Objektkatalog getrennt nach Gattungen angelegt, in dem der Aufbewahrungsort sowie Maße, Datierung, Beschreibung und Literatur angegeben sind. ; Scythian Gold in greek style : Studies on northpontic toreutics based on the vessels and armament from the Solokha-Kurgan The thesis deals with gold and silver objects which were found in Scythian kurgans of the northern Black Sea region. In the focus stand the finds from the Solokha Kurgan which was excavated in 1912/13 by the Russian archaeologist N.I. Veselovskij. An introductory chapter deals with the history of research on the so called Graeco-Scythian toreutics, the Solokha Kurgan is presented in the second chapter. Under the burial mound Veselovskij opened two catacomb graves; the central burial is dated to the end of the 5 th century BC, the second grave in the south west part of the kurgan to about 370 BC. Because the central tomb was almost entirely robbed, the attention is directed particularly on the rich grave goods from the undisturbed lateral catacomb. In individual studies the different objects - the different vessels, the well known comb and the decorative weapons – are first seen in the context of their respective genres (chap. 2-4). For this purpose, the pieces for each genre are described in chronological order and the particular object from the Solokha Kurgan is discussed against this background. Tabular compilations illustrate the equipment of Scythian burials of the 5th and 4th century BC with vessels and weapons made of precious metals. The overall analysis shows that some of the finds from the Solokha Kurgan fit well into the general development of precious grave goods in Scythian burials. This refers to the imported silver vessels, the wooden bowls with gold appliques and the drinking horn from the side catacomb. Also the akinakes which was found there has predecessors in Scythian finds. However, a novelty in form and decoration represent the gold comb, the spherical silver bottles, the silver bowls with the segment-shaped handles and the large-sized silver overlay of the gorytos from the side funeral. Although these things are linked in part to earlier scythian forms, they represent new created designs. Some of the pieces can be grouped together because of their figural representations in the style of the so-called ethnographic realism; probably they have to be interpreted as the products of a single commission. Due to the lack of precursors, it is unlikely that these pieces were ordered by a Scythian noble. The initially small number of such objects also speaks against an interpretation as normal trade goods. By analogy with the spread of the somewhat later objects of Graeco-Scythian toreutics a production in the Bosporan kingdom - most likely in Pantikapaion - can be expected. So the following explanation seems to be most plausible: The precious metal objects from the Solokha-Kurgan probably were "political" gifts which Leukon I., the ruler of the Bosporan kingdom from 389/88 to 349/48 BC commissioned and gave to a Scythian ally. Accordingly, the fighting Scythians of the battle scenes of the comb and the gorytos overlay are to be interpreted as allies and opponents of the Bosporan Kingdom. As basis for the study serves a detailed annotated catalogue of scythian burial mounds from which the objects originated. The funeral date gives a first hint at the dating of the objects of precious metals; their position within the burials and the combination with other finds provide clues to their function. In a second catalogue the gold and silver objects are described with measurements, dating, and literature. (Translation: A. Wieland/G. Wahl) ; Or scythe dans un style grec : Recherches sur la toreutique des régions du Pont-Euxin septentrional: les offrandes funéraires du kourgane de Solokha Cette étude aborde les oeuvres en métal précieux provenant des sépultures scythes du littoral nord de la Mer Noire. Les trouvailles du kourgane de Solokha, qui fut fouillé en 1912-13 par l'archéologue russe N.I. Veselovskij, en constituent le point de départ. L'introduction dresse l'état de la recherche dans le domaine de la toreutique « gréco-scythe ». Elle est suivie d'un chapitre présentant le kourgane de Solokha dont deux tombes furent mises au jour par Veselovskij : la sépulture principale, située au milieu du kourgane et datée des environs de 400 av. J.- C., et la sépulture latérale, datée vers 370 av. J.-C. C'est le riche mobilier métallique de la seconde sépulture - trouvée intacte, contrairement à la première qui était violée- qui est ici présenté en détail. Les objets en métal précieux du kourgane de Solokha – le fameux peigne, la vaisselle et les armes d'apparat – sont étudiés au sein de leurs catégories typologiques. Confrontée aux pièces du même genre qui sont également discutées, chaque oeuvre est ainsi placée dans son contexte typologique. La présentation est complétée par des tableaux synthétiques regroupant les vases et les armes d'apparat accompagnant des sépultures scythes des Ve et IVe siècles av. J.-C. Cette vue d'ensemble montre que certains parmi les objets en métal précieux du kourgane de Solokha s'insèrent bien dans l'évolution générale des offrandes funéraires luxueuses trouvées dans des sépultures scythes : la vaisselle d'argent importée, les vases à boire en bois décorés d'appliques ainsi que le rhyton de la tombe latérale en font partie tout comme l'akinakès précieux de la même sépulture, qui a des antécédents au sein du matériel scythe. En revanche, le célèbre peigne d'or et les objets en argent, tels les vases à panse sphérique, les coupes à anses arrondies et le grand revêtement de goryte de la tombe latérale sont nouveaux autant pour leur forme que pour leur décor. Tout en restant en partie rattachées à des formes antérieures, ces oeuvres témoignent d'un caractère original. En raison de leurs compositions figurées dans un style connu sous le nom de « réalisme ethnographique », certaines oeuvres peuvent être regroupées dans un ensemble restreint et doivent être issues d'une seule commande. Cependant, l'absence d'antécédents rend leur association avec un commanditaire scythe peu probable. Par ailleurs, le nombre à l'origine limité de ce type d'objets empêche de les interpréter comme des produits de commerce. Au contraire, la large diffusion des plus récentes créations de la toreutique « gréco-scythe » laisse présumer une fabrication locale, dans le royaume du Bosphore – plus probablement à Pantikapaion. Ainsi, l'hypothèse suivante semble la plus plausible pour expliquer ce phénomène : les oeuvres luxueuses du kourgane de Solokha représenteraient des cadeaux diplomatiques que le roi du Bosphore Leukon Ier (389/88-349/48 av. J.-C.) aurait commandités afin de les offrir à un de ses alliés scythes. A cet égard, les Scythes en combat figurant dans les scènes représentées devraient être interprétés comme des alliés et des ennemis du royaume du Bosphore. Le recensement des sépultures et des ensembles funéraires sous forme de catalogue commenté est fourni à l'appui des arguments avancés au sujet du mobilier toreutique. Ainsi, les datations proposées pour une sépulture livrent un premier indice pour la datation des objets en métal précieux qui l'accompagnaient, tandis que leur emplacement à l'intérieur de la tombe tout comme leur relation aux autres offrandes permettent de mieux cerner leur fonction. Un second catalogue regroupe les objets classés par genre avec les informations sur le lieu de leur conservation, leurs dimensions, la datation, la description et la bibliographie. (Traduction : K. Charatzopoulou)
Water resources in north-eastern Morocco are increasingly under pressure from a growing human demand and a regional drying trend caused by changing climate patterns. Recently, water resources have reached or already fallen below critical limits. The human exploitation of water resources represents the main reason for an alarming decrease of freshwater resources: caused by population growth, high agricultural irrigation water needs, and the recent implementation of a water-intense tourism sector. The lack of appropriate policies to respond to these challenges determines regional vulnerability und puts socio-economic development at risk. The overarching research objective of this thesis is the identification of human and climateinduced rivers for increasing water stress in north-eastern Morocco with a focus on regional tourism development. With particular regard to climate change and to the water-intense regional development plans, it is necessary to analyse how this will influence the near-term water situation and water demand, respectively. The key economic sectors with the highest share of working population are highly waterdependent,thus sufficient water availability represents the basis for socio-economic development. Climate change in the region can aggravate the scarcity situation: precipitation is now the main hydrological variable, as the quality and quantity of groundwater resources has seriously deteriorated and as water efficiency measures and technologies currently are not appropriate to cover increasing demands. Further, this thesis aims to support the development process of improved water managementstrategies for the facilitation of socio-economic development. By the means of an integrative research approach the vulnerability to increasing water scarcity is empirically investigated. The chosen research design is a vulnerability assessment approach. Vulnerability assessments have emerged over the past decade as appropriate frame of analysis to assess the impact and scope of different drivers causing socio-ecological vulnerability in the context of climate change. The underlying hypothesis is that regional climate change aggravates existing water scarcity in northeastern Morocco, which is currently pressured by an inadequate demand-supply ratio (water deficit situation). From this general aim overarching research questions and issues have emerged and were refined by sub-questions during the process of research. The causes and theextent of vulnerability and the development and governance context of water scarcity are subject to four articles which support the present thesis. Article I outlines the specific regional problems of the coastal zone of the case study area under climate change and socioeconomic development pressure. Article II contrasts the human influence (indicators: population growth, water demand) on decreasing freshwater availability with the potential impacts of a changing regional climate (indicators: precipitation, temperatures, evapotranspiration). Article III analyses the additional water demand in north-eastern Morocco caused by the recent establishment of a large-scale luxury tourism sector in the coastal zone. Article IV discusses the sustainability of regional development plans in the light of severe water problems and outlines concrete adaptation measures for the regional water management. The results show that water availability already fell below minimum water levels needed to ensure the water regional water supply. The regional water situation is in a situation of disequilibrium of water abstraction and water availability. Further population growth and waterintense economic development pathways will increase the risk of recurring water shortfalls. The analysis of long-term climate series reveals a manifest drying trend and shifting climate patterns. The "absolute water scarcity level" that is "beyond the water barrier of manageable capability" has become a normal situation (based on the Falkenmark Index; Falkenmark 1989; Gleick et al. 2002). Governmental development plans focus on luxury tourism to diversify the regional economy. Tourism is a promising sector in Morocco, and is needed to diversify the agriculture-dependent economy. However, tourism requires continuous water supply and contributes to the increase of seasonal water demand. All four articles in this thesis emphasize the urgent need for societal and institutional responses to safeguard water supply in the Moulouya basin. Given the aggravating water situation and the underlying two-fold causes, three main strategies are considered reasonable and achievable: (1) Increase of regional water efficiency: the modernization of water infrastructures (no-open channel water transport, no gravity irrigation), the inclusion of 'green' water in calculations of water supply, innovative and traditional water collection measures, using the opportunities of virtual water trade; (2) Modernization of the regional water management: monitoring of the water situation and climatic variability, participatory approaches to engage the local population and to create awareness; and the (3) Implementation of and compliance with legally-binding regulations for the public administration, supported by national water policies. Clearly, these measures require substantial investments. However, this thesis emphasizes, that regional natural water resources are finite and already in a state of severe degradation. A better understanding of the respective influence of climate-induced or human-induced pressures provides the basis for the implementation of adequate adaptation strategies. Human-induced impact can be influenced by policies, and with this the degree of socio-economic vulnerability. Water-based economies which do not explicitly react to aggravating pressures, are at risk of economic failure, as (a) climate change is an irreversible process, and (b) as socio-economic development builds upon water availability. ; Weltweit nimmt der Druck auf die natürlichen Wasserressourcen zu. Dies hat unterschiedliche Gründe, ist jedoch zum größten Teil verursacht durch einen stetig ansteigenden Bedarf. Faktoren wie Bevölkerungswachstum, die In- und Extensivierung landwirtschaftlicher Produktion, veränderte Lebensstile mit gleichzeitiger Erhöhung des individuellen Wasserverbrauchs, tragen regional unterschiedlich zu einer Verknappung bei. Neben dem anthropogenem Einfluss auf Wasserressourcen stellt Klimawandel ein zusätzliches Problem dar. Viele Länder sind sich der begrenzten Verfügbarkeit ihrer Ressourcen zwar bewusst, einfache Lösungen zur nachhaltigen Bewältigung des steigenden Bedarfs existieren jedoch zumeist nicht. Momentan folgen die meisten Länder dem Paradigma des ökonomischen Wachstums, um Ernährungssicherheit, Beschäftigung und sozialen Fortschritt zu gewährleisten. Die exzessive Ausbeutung natürlicher Ressourcen stellt immer noch den Standard dar, um sozio-ökonomische Entwicklung zu ermöglichen. Daher ist bei der Vereinbarung von ökonomischem Wachstum und Umweltnachhaltigkeit nur schwer ein Fortschritt zu erkennen. In diesem Zusammenhang spielt Wasser eine Schlüsselrolle: der Zugang zu und die Nutzung von Wasser war und ist eine wesentliche Voraussetzung für sozio-ökonomische Entwicklung. In den vergangenen Jahrzehnten wurden kritische Wasserlimits trotz wachsenden Bedarfs überschritten. Demnach mangelt es in vielen Ländern an einem angepassten Wassermanagement. Zudem sind Maßnahmen zum Schutz der Wasserressourcen insbesondere im Hinblick auf eine zukünftige Nutzung unzureichend. Nord-Afrika ist eine Region mit schwerwiegenden Problemen bezüglich ausreichender Wasserverfügbarkeit. Die Übernutzung hat bereits zu einem alarmierenden Rückgang vorhandener Frischwasserressourcen geführt. Wasser ist aber gleichermaßen die Schlüsselressource für ökonomisches Wachstum und sozio-ökonomische Entwicklung. Daher ist die Implementierung einer adäquaten Wasserbedarfsteuerung unentbehrlich. Der thematische Fokus dieser Dissertation liegt auf der Analyse der problematischen Wassersituation im nordöstlichen Marokko. In der Region sind Wasserressourcen in hohem Maße vulnerabel durch einen stetig steigenden Bedarf. Dieser ist verursacht durch Bevölkerungswachstum, hohen landwirtschaftlichen Bewässerungsbedarf sowie durch die jüngst erfolgte Etablierung eines wasser-intensiven Tourismussektors. Zusätzlich wirkt sich Klimawandel auf die bereits übernutzten Ressourcen aus. Der momentane Mangel an angepassten Strategien als Antwort auf die Herausforderungen eines steigenden Bedarfs verstärkt durch Klimawandel hat negative Auswirkungen auf die regional angestrebte sozio-ökonomische Entwicklung. Diese Dissertation untersucht die Gründe einer sich verringernden regionalen Wasserverfügbarkeit unter Einbeziehung des menschlichen sowie des klimatischen Einflusses auf das Wasserbudget. Die regionale Ökonomie hängt ab von der ausreichender Wasserverfügbarkeit. Wasserpolitiken sind daher wichtig und sollten die Ursachen der Wasserprobleme realistisch betrachten. Der räumliche Rahmen vorliegender Analyse ist das Einzugsgebiet des Moulouya-Flusses. Dieses stellt eine hydrologische Einheit dar, und umfasst ca. 54.000 km2. Der Fluss selbst hat eine Länge von ca. 600 km und mündet in einem Delta mit einzigartigen Feuchtgebieten an der Küste des Mittelmeers. Der Moulouya-Fluss ist der wichtigste Frischwasserversorger der gesamten nordöstlichen Landesregion. Mit einer jährlichen Niederschlagsumme von ca. 330 mm gehört die Region zu den trockensten des Landes. Ein Ziel der vorliegenden Arbeit ist es, Forschungslücken zu füllen und Information bereitzustellen, die Zusammenhänge der Exponiertheit gegenüber Wasserstress verdeutlichen können. Zudem soll die Etablierung eines verbesserten Wassermanagements als Grundlage sozio-ökonomischer Entwicklung unterstützt werden. In einer interdisziplinären Herangehensweise wird Wasserknappheit in der Region empirisch analysiert. In vier wissenschaftlichen Artikeln werden die Gründe und das Ausmaß von Vulnerabilität sowie der Entwicklungs-Governance-Kontext im Hinblick auf Wasserknappheit untersucht. Artikel I erörtert die spezifischen regionalen Probleme der Küstenzone, die sich unter starkem Entwicklungsdruck befindet und die Auswirkungen des Klimawandels bereits spürt. Artikel II kontrastiert den menschlichen Einfluss auf Frischwasserverfügbarkeit (Indikatoren: Bevölkerungswachstum, Wassernachfrage) mit den möglichen Auswirkungen einer regionalen Klimaveränderung (Indikatoren: Niederschlag, Temperaturen, Evapotranspiration). Artikel III analysiert den zusätzlichen Wasserbedarf in Nord-Ost-Marokko, der durch die Etablierung von Luxustourismusresorts entsteht, die in der Küstenzone errichtet werden. Artikel IV diskutiert die Nachhaltigkeit der regionalen Entwicklungspläne im Lichte des Wasserproblems. Die Ergebnisse zeigen, dass die Wassernachfrage die Wasserverfügbarkeit bereits überschritten hat. Bevölkerungswachstum und wasserbasierte ökonomische Entwicklung werden diesen Trend verstärken, so dass die Region mit hoher Wahrscheinlichkeit unter problematischen Wassermangel leiden wird. Die Analysen regionaler Klimatrends deuten hin auf eine Verschiebung der Niederschlagsmuster bei gleichzeitigem Rückgang der Niederschlagssummen. In Verbindung mit den aktuellen Nachfrageraten ist die Verfügbarkeitsgrenze bereits überschritten. Regierungspläne, die den Ausbau des Luxustourismus fördern, haben zum Ziel, die regionale Ökonomie zu diversifizieren und die Abhängigkeit vom Agrarsektor zu reduzieren. Luxustourismus ist allerdings auf permanente Wasserversorgung angewiesen und wird dadurch eine zusätzliche Belastung für die regionale Wasserverfügbarkeit darstellen. Alle vier Artikel betonen die Notwendigkeit für rasche soziale und institutionelle Antworten auf die beschriebenen Herausforderungen, um die Wasserversorgung zu gewährleisten. Daher werden folgende Empfehlungen formuliert: • Erhöhung der Wassereffizienz (z.B. durch modernisierte Bewässerungstechnologien, "green water management" für regenwasser-gespeiste Bewässerung); • Etablierung moderner Wassertechnologien zum Wasserschutz, oder unkonventioneller Wasserproduktion); • Etablierung urbaner und ländlicher Abwassersammlung und –behandlung, sowie Wiederverwertung; • Einbeziehung von Klimawandel in Berechnungen des zukünftigen Wasserbudgets; • Aufbau von kleinskaligen Wasseraufbereitungsanlagen für wasserintensive Unternehmen, z.B. Tourismusinfrastrukturen. Derartige Maßnahmen sind kostenintensiv. Dennoch ist es das Ziel dieser Dissertation zu betonen, dass natürliche Wasservorräte begrenzt und in Nord-Ost-Marokko bereits stark degradiert sind. Ein besseres Verständnis der jeweiligen Einflussfaktoren, anthropogen oder klimatisch verursacht, ist die Basis für die Implementation problem-ausgerichteter Anpassungsstrategien. Anthropogen verursachte Auswirkungen können durch Politiken beeinflusst werden. Wenn wasserbasierte Volkswirtschaften nicht adäquat auf den zunehmenden Druck auf Wasserressourcen reagieren, riskieren sie ökonomisches Scheitern.
From the introduction: 'The more you know about the Olympics, the less it is about sport'. (Bob Perry, Design director of Olympic Projects at Scott Carver Pty. Ltd, http://www.infolink.com.au). The Olympic Games as a mega sports event attracts millions of people from all over the world. New records, fascinating performances, scandals or gigantic celebrations are just some of the attractions provided by this event. One attraction for urban planners is the fact that the Games imply opportunities to promote urban development. From an urban planning perspective, the Olympic Summer Games in Barcelona 1992 set a new standard in defining success of an event of this scale. The city used the Games to promote urban development and planning strategies, profiting from the event in a long-term perspective. Furthermore, the city took another opportunity to find again a place on the 'global map" through the Olympic Games. The case of Barcelona is one of the mostly cited successful urban development initiatives connected with a mega sports event. Olympic Cities have taken the opportunity to promote urban development with the event very differently in the history of the Olympics. The International Olympic Committee (IOC) as the event-owner sets some requirements giving only a few cities the right to stage the event. These requirements are checked in the bidding process ending with the decision which city succeeds in getting the right of staging the event. Integrating the success of an Olympic City in terms of urban development and in terms of the bidding process, the main question from an urban planning perspective is: What is the relevance of Urban Development in the Bidding Process for Olympic Games? To answer the definition of the city's success in terms of urban development and the Olympic Games bidding process, it is helpful to investigate the role of Olympic Infrastructure with a view towards urban sustainability. As such, it is believed that respecting specific planning principles in the bidding process can help to (1) ensure sustainable urban development and (2) enhance the quality of the bid. - The first aspect is relevant for the success of the city in terms of urban development to benefit from the Games in a long time perspective. - The second aspect is relevant for the city's success in the bidding process to acquire the right for staging the Games. The aim of this thesis is to examine how the quality of the bid may respond to principles of sustainable urban development. Two main objectives are identified to reach the aim: 1. Identifying opportunities and threats connected to Olympic Infrastructure in the history of the Olympics in order to formulate six main principles of sustainable urban development for the Olympic Games. 2. Analyzing official bidding documents of the IOC connected with these principles in order to understand how sustainable urban development can be considered in the bidding process. The thesis will conclude with recommendations which can be realized in the bidding process striving to ensure the defined success for the city. Abstract: This thesis is structured in four major parts. Part I consists of chapter 2 and 3 and includes the theoretical framework and methodology of the thesis. Chapter 2 describes the character of mega-events and mega sports events in specific. Based on a concept of sustainable urban development, it will place mega sports events in the context of such a development, forming a theoretical approach for the thesis. Chapter 3 presents the methodology used. Part II consists of chapter 4 and 5 and provides an overall understanding of the Olympic Games in the context of urban development. Chapter 4 gives an overview of the characteristics of the Olympic Games in order to understand the event and its background. Chapter 5 examines the relationship between urban development and the Olympic Games. A model will be presented in order to define 'Olympic Urban Development" for the following sections of the chapter. The chapter will then continue with an historical overview of Olympic Urban Development and present the decisions determining the scale of development. Finally, chapter 5 concludes with the summary of opportunities and threats identified in a literature review of the Olympic Games. The research questions of Part II can be defined as follows: - What are the significant characteristics of the Olympics in terms of mega-event factors? - How can Olympic Urban Development be defined and modelled? - Which are the opportunities and threats for the built, natural, economic and social environment related to Olympic Urban Infrastructure? An intermediate result re-structures the identified opportunities and threats putting them in connection with the concepts presented in the theoretical part. Chapter 6 will conclude with a definition of six principles of sustainable urban development for planning the Olympic Games. The research question leading to the intermediate result can be defined as follows: - Which kind of principles may respond to a sustainable Olympic Urban Development? The second part ends with Chapter 7 in which relevant IOC documents about sustainable urban development will be presented. Part III sets the bidding process in connection with sustainable urban development. Chapter 8 provides relevant information to understand the bidding process, its different phases and the selection procedure. Chapter 9 finally analyses the official bidding documents of the IOC for the defined principles of sustainable urban development. Summaries and recommendations will introduce the main findings for each principle and respond to three main research questions: - Which parts in the bidding documents deal with the principle? - How relevant is the principle in the evaluation of the bid? - Which strategies support the quality of the bid and contribute to meet the objectives of the principle? Part IV includes the conclusion of the thesis and summarizes the main findings of the analysis.Inhaltsverzeichnis:Table of Contents: Preface0 Index1 List of Figures and Tables4 1.INTRODUCTION5 1.1Aim and purpose of the thesis5 1.2Structure of the thesis6 PART I: THEORETICAL FRAMEWORK AND METHODOLOGY 2.THEORETICAL FRAMEWORK9 2.1Mega Events9 2.2Factors of mega-events11 2.3Mega Sports Events12 2.3.1Phases of Mega Sports Events13 2.3.2Bidding14 2.3.3Impacts of Mega Sports Events14 2.4Physical Impact: Mega sports event Infrastructure18 2.5Sustainable Urban Development20 2.6Sustainable Urban Development in the context of a mega sports event22 2.7Definitions and Limitations23 3.METHODOLOGY25 PART II: UNDERSTANDING THE OLYMPIC GAMES IN THE CONTEXT OF URBAN DEVELOPMENT 4.Olympic Games Characteristics29 4.1History of the Olympic Games29 4.2The Olympic Movement30 4.3Olympic Games Factors31 4.4Olympic Games Phases35 5.Olympic Urban Development37 5.1Definition37 5.1.1Olympic Infrastructure38 5.1.2Urban Infrastructure38 5.1.3Modelling an Olympic City40 5.2History of Olympic Urban Development42 5.3Decisions determining Olympic Urban Development47 5.3.1Local distribution of Olympic Infrastructure48 5.3.2Funding Model50 5.3.3Expenditure on Olympic Infrastructure51 5.3.4Use of existing Olympic Infrastructure53 5.4Opportunities and Threats54 5.4.1Built environment54 5.4.2Natural Environment57 5.4.3Economic Environment60 5.4.4Social Environment61 5.4.5Summary64 6.Intermediate Result: Defining Principles of Sustainable Urban Development for Planning Olympic Infrastructure66 6.1Principles66 6.2Objectives68 7.Relevant IOC Documents on Sustainable Urban Development70 7.1Olympic Charter70 7.2Olympic Agenda 2170 7.3IOC Manual on Sports and the Environment72 7.4Olympic Games Study Commission73 PART III: THE BIDDING PROCESS IN THE CONTEXT OF SUSTAINABLE URBAN DEVELOPMENT 8.Olympic Games Bidding Process74 8.1History of the Olympic Games Bidding Process74 8.2The process78 8.2.1Phase 1: Candidature Acceptance Procedure (CAP)78 8.2.2Evaluation of the Working Group Report79 8.2.3Phase 2: Candidature Procedure83 8.3Selection of the Host City85 8.3.1Election Procedure85 8.3.2Decision Making in the Electing Procedure for a host city86 8.4Summary88 9.Analysing Principles of Sustainable Urban Development in the Bidding Process90 9.1Principle 1: Integrate Olympic Infrastructure in urban development plans92 9.1.1Phase 1: Candidature Acceptance Procedure92 9.1.2Evaluation in the Working Group Report92 9.1.3Phase 2: Candidature Procedure94 9.1.4Summary95 9.1.5Recommendations96 9.2Principle 2: Ensure Post-Event Use for Olympic Infrastructure97 9.2.1Phase 1: Candidature Acceptance Procedure97 9.2.2Evaluation in the Working Group Report98 9.2.3Phase 2: Candidature Procedure99 9.2.4Summary100 9.2.5Recommendations101 9.3Principle 3: Maximise the use of existing infrastructure by respecting the city's budget104 9.3.1Phase 1: Candidature Acceptance Procedure104 9.3.2Evaluation in the Working Group Report105 9.3.3Phase 2: Candidature Procedure107 9.3.4Summary107 9.3.5Recommendations108 9.4Principle 4: Ensure environmental standards for Olympic Infrastructure and accessibility to environmental goods109 9.4.1Phase 1: Candidature Acceptance Procedure109 9.4.2Evaluation in the Working Group Report109 9.4.3Phase 2: Candidature Procedure111 9.4.4Summary112 9.4.5Recommendations113 9.5Principle 5: Integration of citizens in the planning process of Olympic Infrastructure114 9.5.1Phase 1: Candidature Acceptance Procedure114 9.5.2Evaluation in the Working Group Report114 9.5.3Phase 2: Candidature Procedure115 9.5.4Summary116 9.5.5Recommendations117 9.6Principle 6: Stimulate improvement of Urban Infrastructure through Olympic Infrastructure118 9.6.1Phase 1: Candidature Acceptance Procedure118 9.6.2Evaluation in the Working Group Report119 9.6.3Phase 2: Candidature Procedure120 9.6.4Summary121 9.6.5Recommendations122 PART IV: CONCLUSION126 10.Conclusion126 10.1Conclusion of the analysis126 10.1.1Relevance of Sustainable Urban Development in the Bidding Process126 10.1.2How to respond to principles of sustainable urban development in the bid127 10.2General Conclusions130 10.2.1The interest of the IOC in Sustainable Urban Development130 10.2.2The real winner of a bidding process130 10.2.3Outlook on the future of the Games131 11.Appendix133 11.1References133 11.2Abbreviations137 11.3Extracts from Bidding Documents138 11.3.1Phase 1: Candidature Acceptance Procedure (CAP)138 11.3.2Evaluation: Working Group Report140 11.3.3Phase 2: Candidature Procedure142Textprobe:Text Sample: Chapter 5.4, Opportunities and Threats: This section study provides a discussion on opportunities and threats related to Olympic Infrastructure. Potential effects are presented and ordered according to the different environments of a city (section 2.4). The IOC officially uses the term 'Legacy' for potential post-event effects preferably underlining positive ones. The sources used in this literature review (Cashman, 2002; Essex Chalkley, 2003; Furrer, 2002; Matos, 2006; Liao Pitts, 2006; Preuss, 2006; Centre On Housing Rights and Evictions (COHRE), 2007; Ward, 2007; WWF, 2004) reflect the potential effects of the Olympics critically from different perspectives (researchers, NGOs, IOC related person). If applicable, the opportunities and threats are illustrated with examples. A summary is given in the end of this section as a basis for developing principles of sustainable urban development. As the potential effects have a multidimensional character, two selection criteria limit their number: - Time: The potential effect might occur at any period of the event but must have a relevance for the city in a long-time perspective. - Space: The potential effect might occur at a micro (e.g. dislocation) or macro (e.g. polycentric development) level but is relevant mainly for a city (not a region or nation). 5.4.1, Built environment: - Boost for urban development projects and urban renewal. Locational decision on Olympic Infrastructure opens the opportunity for a city to boost its urban development projects in favour of the city. There is a chance to connect a city's urban development strategy with Olympic Infrastructure projects. History of the Olympics shows that cities have dealt very differently with this opportunity (see section 4.1). Some have used the Olympics to reinvent the city while others have concentrated solely on the successful organization of the event itself. In many cases, Olympic Infrastructure is also used to trigger massive urban regeneration projects and the idea to create new centralities within the city. Development corridors can be focused through Olympic Infrastructure and stimulate urban development nearby. Strategic positioning of Olympic Infrastructure in specific urban areas may contribute to a polycentric development. This is especially true for the positioning of key Olympic Infrastructure represented by the Olympic Main Stadium, the main indoor halls and the aquatic centre. Barcelona 1992 is probably the most successful Olympics regarded to large-scale urban development. Urban planners of the city saw the Olympic Games as an useful instrument to achieve the objectives of development plans which had been the improvement of transport system, creation of new facilities, definition of central space and balancing the city. The initial authorized to make the first draft of the Olympic from an urban perspective was part of the Olympic Bidding Team and later entered into the Organizing Committee. The changes of the entire urban fabric connected to Olympic Infrastructure based on what was already existing in Barcelona became a best practice in terms of mega-event related urban development. - Changes of Urban Development plans in favour of the event/bid. Potential changes of existing urban development plans can occur in the preparation phase of the event due to tight time constraints. To speed up land acquisition for Olympic Infrastructure some cities approve special legislative acts and give power to Organizing Committees. Special building permits are created in the area where Olympic Infrastructure has to be built and can contribute to long-lasting procedural changes in the city. A special law for the Athens 2004 Games recognized the strategic significance of the Olympic Games to the evolution of the metropolitan area. The location of Olympic Infrastructure was determined as to be in accordance with the regional, environmental and urban development guidelines of the master plan of Athens. Through this legislation and the installation of special agencies it was possible to accelerate permits of Olympic Works. - Modernization and Upgrading of existing facilities. In terms of existing infrastructure, the Olympics bring the opportunity to upgrade and modernize sports facilities. This may also decrease financial risk. The main Olympic Stadium as the centrepiece of Olympic Infrastructure relies traditionally on public funding. Some Olympic Cities have strived to use existing facilities or refurbished ones for this major infrastructure project. Naturally, development of sports facilities had to be faced by almost all Olympic cities. Moscow 1980 and Barcelona 1992 used mainly existing sports facilities and refurbished existing Stadiums to Main Olympic Stadiums. Los Angeles 1984 used existing facilities to a large extent. - Unused large-scale facilities. The history of the Olympic Games shows that many Olympic sports facilities received poor post-Games usage. International Olympic Sports Federations have often pushed host cities to provide over-ambitious state-of-the-art facilities which are not in line with the local popularity of the sport. Furthermore, local agendas have often pushed for grandiose landmark legacies to be built in order to showcase the local economy and engineering ability. These objects might be designed over-sized and turn in a post-event period to 'White elephants'. They may neither integrate a long-term urban planning policy nor relate to the population's need for leisure and culture facilities. It is sometimes difficult to convince leading teams in specific sports to move their home ground to new Olympic Infrastructures. Another problem in this respect is the difficulty to attract large crowds to newly developed parts of the city away from trying to opportunity the citizens habits. The Olympic stadium of Sydney 2000 generated continuing losses at A$38 million/year six years after the event. The competition for sports events with other stadia in Sydney caused limited booking and shows the lack of post-use planning. 'Sydney Jurassic Park' is a symbolic expression used by criticizers of the post-use of Sydney Olympic Park. - Increase of Housing stock through Olympic Village. The Olympic Village is often located close to the sports facilities and represents the accommodation for the Olympic Family. It is an essential part of Olympic Infrastructure and has to be addressed by every hosting city. In many cases, Olympic Villages become residential areas for local people or halls of residences for a local university or college after the Games. Thus, an Olympic Village is a chance to increase the city's housing stock and provide facilities for alternative uses in a post-event period. 'In Barcelona and Sydney the former Olympic Villages now provide a mixture of housing that contributes to the cities' housing stock and adds a valuable source of revenue to cover Games-related expenditure'. - Improvement of transport infrastructure. As we have seen in the previous chapter, Olympic Infrastructure induces also the upgrade of the city's transport infrastructure. For an effective transport of athletes, spectators and officials during the event many host cities tend to expand their transport system Investment of previous Olympic Cities is often focused especially on underground or light rail system. Recent Olympic Cities (Athens and Beijing) invest in tram and overhead urban rail system due to high costs and implementation difficulties of underground transport. This may contribute to a better infrastructure for citizens and decreases traffic pressure in inner city and congestion. Asian Olympic Cities have strongly linked the Games to transport infrastructure. Between 1957 and 1964 Tokyo established 73 km underground, 13.2 km monorail and 500 km Shinkansen connecting Tokyo, Kyoto and Osaka. Seoul added 157.1 km to the length of its underground network from 1978 to 1993 for the preparation of the Games. Finally, Beijing extended its light rail length by 87.1 km before 2008. A strong reliance to public transport can be observed in Seoul and Tokyo through this investment related to Olympic Infrastructure. - Development of other Infrastructure. Furthermore, development of Olympic Infrastructure can be a driver for additional infrastructural improvements in the city, affecting the entire urban fabric. A basic infrastructure is needed serving Olympic facilities. Many cities have used the event as a catalyst to induce such investment and bring other infrastructure to a higher level appropriate for international visitors. Such investments can enhance the Quality of life for citizens, tourists and attract inward investment. Tokyo included the improvement of water supply system, higher public health standards for refuse collection, street cleaning, public toilets and three sewage disposal plants. Barcelona, Atlanta and Sydney invested in telecommunication systems through the staging of the event. Cultural and research facilities (Olympic Studies Centre, Olympic Museum) close to Olympic Infrastructure supporting the Olympic Cultural Programme were realized in many Olympic Cities. - Destruction of cultural heritage. There is a potential risk that Olympic Infrastructure may affect the cultural heritage of a city negatively. The potential risk seems to be higher for Olympic Cities approaching development in the inner city. Consequently, disregarding the laws may lead to the destruction of culturally built environment and displacement of residents. Infrastructure development for the Games of Beijing 2008 negatively affected the cultural heritage of the city. Demolition in Beijing was an ongoing process in the whole city, especially threatening the old 'hutong' and 'siheyuan' areas. According to reports of COHRE the violation of Cultural Heritage Protection laws and regulations effected both irreparably damaged cultural heritage and also violated residents' rights to adequate housing.
Mit der Einführung des "Green Deal" hat die Europäische Union das Ziel der Klimaneutralität bis zum Jahr 2050 formuliert. Die notwendigen Maßnahmen werden auch in Luxemburg zu einem massiven Ausbau der fluktuierenden erneuerbaren Energien, vor allem von Windkraft und Photovoltaik führen, aus dem sich ein zunehmender Bedarf für Flexibilität im Energiesystem ableiten lässt. Die Ausgestaltung des EU-Binnenmarktes für Strom sieht eine aktive Beteiligung des Verbrauchers vor, der auf Basis flexibler Strompreise seinen Verbrauch steuert und somit, unter Reduktion seiner Energiekosten, zum Flexibilitätsbereitstellung beiträgt. In Privathaushalten zielen solche Demand-Side-Management Maßnahmen vor allem auf Wärmepumpen ab. Diese Arbeit untersucht das Flexibilitätspotenzial von Wärmepumpen in Wohngebäuden stellvertretend für den luxemburgischen Kontext und analysiert Herausforderungen, die sich in diesem Zusammenhang ergeben. Als Zeithorizont der Untersuchung gilt das Jahr 2030. Die hier vorgestellte Methodik ist dabei auf vergleichbare Regionen in Europa übertragbar. Die Aufgabenstellung wird anhand thermischer Simulationen in TRNSYS, die das Wohngebäude sowie das Heizungssystem darstellen, analysiert. Eine für diese Arbeit in MATLAB entwickelte Model-Predictive-Control steuert die Wärmepumpe auf Basis variabler Strompreise mit dem Ziel, die Energiekosten zu minimieren. Ein neuronales Netz bestimmt dabei die Wärmeentnahme aus dem Heizwärmespeicher, so dass die Model-Predictive-Control letztlich ohne integriertes Gebäudemodell funktioniert. Die Eignung dieses Ansatzes wird über die Simulationsergebnisse validiert. Aus den nationalen Entwicklungen im Gebäudebestand leitet sich ein theoretisches Wärmepumpenpotenzial von 236-353 MWel ab, das zur Flexibilitätsbereitstellungerschlossen werden kann. Die große Bandbreite entsteht aus unterschiedlichen Annahmen zur jährlichen Gebäudesanierungsrate. Das technisch erschließbare Potenzial ist bedeutend geringer und ergibt sich aus der Entwicklung des Wärmepumpenmarktes. Da die Datenlage zu Wärmepumpen in Luxemburg unzureichend ist, entstand im Rahmen dieser Arbeit eine Wärmemarktstudie, die Verkaufszahlen von 2014-2018 analysiert und Entwicklungen des Wärmepumpenmarktes ableitet. Das technische Potenzial für 2030 beträgt demnach 30-73 MWel. Die Erkenntnisse aus dem nationalen Kontext fließen in die Simulationsmodelle ein. Das Konzept des Demand-Side-Management wird anhand zahlreicher Simulationsfälle getestet und im Hinblick auf Energieeffizienz, Wirtschaftlichkeit und Lastverschiebung evaluiert. Es werden drei Referenzgebäuden, je ein Einfamilienhaus und ein Mehrfamilienhaus gemäß Neubaustandard sowie ein Einfamilienhaus gemäß Mindeststandard für energetische Sanierungen in Luxemburg, erstellt. Die Unterscheidung von Luft/Wasser und Sole/Wasser Wärmepumpen in den Simulationsmodellen, demonstriert den Einfluss der Wärmequelle. Zusätzlich werden Heizwärmespeicher mit sechs unterschiedlichen Volumina berücksichtigt. Der Vergleich mit Referenzfällen demonstriert den Einfluss der prädiktiven Regelung. Als flexible Strompreise werden reale Marktdaten der EPEX-Spot Day-Ahead Auktion verwendet und mit Netzentgelten und steuerlichen Abgaben aus Luxemburg ergänzt. Die Ergebnisse bestätigen die Eignung des gewählten Model-Predictive-Control Ansatzes ohne integriertes Gebäudemodell. Luft/Wasser Wärmepumpen erzielen bessere Effizienz und Kosteneinspareffekte als Sole/Wasser Wärmepumpen, da die Kostenreduktion neben der Reaktion auf Preissignale auch über eine Verbrauchsoptimierung erreicht werden kann. Bei Anwendung eines Preisprofils mit überwiegend statischen Komponenten ist letzterer Aspekt bedeutend. Gebäude mit höherem Dämmstandard zeigen eine trennschärfere Reaktion auf Preissignale als Gebäude mit niedrigerem Dämmstandard. Letztere haben aufgrund des höheren Energieverbrauchs allerdings absolut betrachtet höhere Kostenreduktionspotenziale. Bei niedrigen Kapazitäten des Heizwärmespeichers sind Effizienz und Kostenreduktion eingeschränkt, da die Reaktion auf Preissignale zu einem sofortigen Temperaturanstieg im Speicher führt, der den Verbrauch der Wärmepumpe erhöht und somit einen gegenläufigen Effekt darstellt. Mit zunehmender Kapazität verbessern sich daher der Stromverbrauch und das Einsparpotenzial. Bei sehr großen Speichern wird dieser positive Einfluss von steigenden Wärmespeicherverlusten kompensiert. Ein größerer Heizwärmespeicher bedeutet eine zusätzliche finanzielle Investition in das Heizungssystem, die über Kostenreduktionseffekte kompensiert werden muss. Diese Wirtschaftlichkeit ergibt sich für das Mehrfamilienhaus und das schwach gedämmte Einfamilienhaus, jeweils mit Luft/Wasser Wärmepumpe und kleinen bis mittelgroßen Heizwärmespeichern. Um den Einfluss des Preisprofils zu demonstrieren werden zwei Alternativen getestet. Im ersten Fall wird eine stärkere Preisschwankung, verursacht durch einen höheren Marktanteil der erneuerbaren Energien, angewendet. Im zweiten Fall sorgen variable Netzentgelte für eine zusätzliche Verstärkung der Preissignale. In allen Simulationen verbessert sich die Kostenreduktion, so dass auch stark gedämmte Gebäude mit Luft/Wasser Wärmepumpe und mittelgroßen Heizwärmespeichern wirtschaftlich sind. Dabei verändert sich das Verhalten des Reglers, da die Preissignale zunehmend attraktiver sind als die Verbrauchsoptimierung. Dementsprechend steigt der Stromverbrauch im Vergleich zum vorigen Strompreisprofil. Sole/Wasser Wärmepumpen erreichen lediglich im schwach gedämmten Einfamilienhaus die Wirtschaftlichkeit. Aus den Simulationen ergibt sich folglich ein nationales wirtschaftliches Potenzial von 22-53 MWel. Die zahlreichen Randbedingungen des Wärmepumpenbetriebs führen zu einer impliziten Lastverschiebung die schwierig zu bewerten ist. Ein systemischer Nutzen des Demand-Side-Management lässt sich dennoch vor allem aus der Verbrauchsreduktion der Luft/Wasser Wärmepumpen und der sehr wahrscheinlichen Reaktion auf extreme Preissignale ableiten. Für Stromnetzbetreiber erscheint das Erschließen von Wärmepumpen im Wohnbereich als Netzbetriebsmittel fraglich. Die wesentlichen Gegenargumente sind die eingeschränkte Zuverlässigkeit bei Beachtung der Randbedingungen und die geringe elektrische Leistung im Vergleich zu E-Fahrzeugen, die das Niederspannungsnetz in naher Zukunft vor größere Herausforderungen stellen werden. Interessanter sind Konzepte, bei denen Energieversorger oder Direktvermarkter die Flexibilität einer Vielzahl an Wärmepumpen erschließen und zur Optimierung der Strombeschaffung verwenden. In diesem Kontext stellen sich vor allem Fragen der Wirtschaftlichkeit, die auf Basis der hier gefundenen Potenziale insgesamt fraglich bleibt, es sein denn im Konzept finden Wertschöpfungen aus Synergieeffekten statt, die im Rahmen dieser Arbeit nicht berücksichtigt werden konnten. In Bezug auf die nationale Spitzenlast im Stromsystem wurde ein relevantes Wärmepumpenpotenzial für Demand-Side-Management festgestellt, so dass die Thematik unter der Berücksichtigung der hier aufgeführten Sensitivitäten weiterverfolgt werden sollte. ; In 2020 the European Union introduced the "Green Deal" and declared the target of climate neutrality until 2050. The necessary measures will lead to a massive roll-out of fluctuating renewable energies such as wind power and photovoltaic. This in turn will lead to an increasing need for flexibility in the energy system. The design of the future European internal market for electricity intends to let end-consumers actively participate by managing their consumption based on variable electricity prices and in that way contributing to the flexibility demand. For private households, these Demand-Side-Management measures target heat pumps in particular. This work analyzes the flexibility potential of heat pumps in residential buildings and addresses challenges in the Luxembourgish context. The time horizon for the evaluation is defined as 2030. The methodology presented in this work is applicable to similar regions in Europe. The research questions are investigated by the means of thermal simulation. The software TRNSYS is used for the building models and heating systems. A Model-Predictive-Control, developed in MATLAB, is sending control signals to the heat pump that are based on variable electricity tariffs. The heat extraction of the thermal energy storage tank is determined by a neural network, so that the Model-Predictive-Control in itself works without an integrated building model. The suitability of the approach is validated by the simulation results. Based on the national developments in the building stock, there is a theoretical heat pump potential of 236-353 MWel that can offer flexibility. The band with arises because of different suppositions for the yearly refurbishment rate. The technical potential is significantly lower and is determined by the developments of the national heat pump market. As the data availability for Luxemburg was insufficient, a heat market study was initiated that investigated sales numbers for the period of 2014-2018 and derived scenarios until 2030. The technical potential in conclusion amounts to 30-73 MWel. The insights of the national context are used for the design of the simulation models. The concept of Demand-Side-Management is tested with numerous simulation cases and is then evaluated on aspects of energy efficiency, profitability and load shifting. In total there are three reference buildings, one single-family and one multi-family house, each according to the energetic standard of a new construction, and one single-family house that meets the legal requirements for energetic refurbishment in Luxembourg. In order to demonstrate the influence of the heat source there are simulations with air-to-water as well as geothermal heat pumps. The analysis furthermore considers six different thermal energy storage capacities. The influence of the predictive control strategy is demonstrated by a comparison with reference cases that work with a common control. The flexible electricity tariffs are based on real market data of the EPEX-Spot Day-Ahead auction and is completed with grid fees and taxes in Luxembourg. The simulation results confirm the suitability of the Model-Predictive-Control approach without integrated building model. Air-to-water heat pumps achieve better efficiency and cost reduction than geothermal heat pumps, as they have two ways to reduce the costs: via the variable electricity tariffs and via a performance optimization of the heat pump itself. The performance optimization is the preferred choice of the control strategy if the price profile consists of mainly static components. Buildings with high insulation level show a sharper reaction to price signals than buildings with lower insulation standard. For the latter in return the absolute cost reduction potential is better as the overall energy demand is higher. With low capacity thermal energy storage, the energy efficiency and cost reduction potential are limited since the reaction to price signals immediately leads to a temperature rise in the tank counteracting the overall objective by increasing the heat pump consumption. With increasing tank capacity, this aspect improves. Nevertheless, there is a limit where the increasing heat losses of the tank compensate the positive aspects of bigger tanks. As the heating systems are usually not equipped with larger thermal energy storage tanks, there is an extra investment for the end-consumer that needs to be compensated by the cost reduction of the Demand-Side-Management. This profitability is only given for the multi-family house and the less insulated single-family house, equipped with an air-to-water heat pump and small to medium sized storage tanks. Two alternative price profiles are tested in order to demonstrate the influence of the price signals. In the first case, a higher volatility of the prices is presumed, to reflect a higher market share of renewable energies. In the second case variable grid fees are added to the volatile prices to further increase the incentive of Demand-Side-Management. In all simulation cases the cost reduction increases so that that buildings with high thermal insulation and air-to-water heat pump are profitable with medium sized thermal energy storage. At the same time a change of behavior of the predictive controller can be observed as the price signals become more attractive than the aspect of performance optimization, leading to an increased electricity consumption in comparison to the previous price profile. An overall economic potential of 22-53 MWel can be concluded. The numerous constraints for the heat pump operation lead to an implicit load management effect that is difficult to interpret. Nevertheless, there is a clear systemic benefit of Demand-Side-Management that result from the better performance of air-to-water heat pumps and the highly probable reaction to extreme price signals. The assessment of a high number of heat pumps by the grid operator in order to stabilize the electricity grid is questionable. The main counter arguments are the limited reliability considering the constraints and the low electric power compared to the e-mobility that will be the major challenge of the low voltage grids in the nearer future. Concepts, where energy providers or direct marketers assess the flexibility to optimize procurement strategies seems more interesting. In this context the profitability is the main question that cannot be verified based on the findings, except if there is added value stemming from synergy effects that were not considered in this work. In relation to the peak demand of the Luxembourgish energy system there is a relevant heat pump potential for Demand-Side-Management. In the nearer future the subject should be further investigated, keeping in mind the findings and sensitivities presented in this work.
Inhaltsangabe: Zusammenfassung: Die vorliegende Arbeit leistet einen Beitrag zur psychologischen Entscheidungsforschung, indem das Ausmaß der Verwendung der Anciennitätsheuristik (AH), die auch Seniority-Heuristic (SH) genannt wird, abhängig vom Alter empirisch untersucht wird. Die Vorstellung eines rational handelnden Individuum sowie das ökonomische Modell des Homo Oeconomicus werden von KritikerInnen als unzureichend angesehen, um menschliches Entscheidungsverhalten zu beschreiben. Der Mensch führt keine komplizierten Rechenaufgaben in der Suche nach einer Entscheidung durch, noch stehen ihm unbegrenzte Ressourcen von Zeit, Wissen und Verarbeitungskapazität zur Verfügung. Es sind vielmehr die einfachen und schnellen Heuristiken, die den menschlichen Entscheidungsprozess in unsicheren Umwelten treffend zu beschreiben scheinen und den Optimierungsmodellen den Kampf ansagen. Heuristiken basieren auf dem Postulat der begrenzten Rationalität sowie der Satisficingregel von Simon. Vitouch ist der Begründer der AH, die ebenfalls auf dem Konzept von Simon aufbaut. Die AH ist eine Entscheidungsregel, die die Präferenz für das Ältere beinhaltet (z. B. das Gründungsjahr einer Institution) und in Situationen der Unsicherheit Anwendung findet. Vitouch postuliert, dass die AH besonders häufig verwendet wird, wenn mit Informationen über das Alter (Gründungsjahr) von unbekannten Optionen der Eindruck des Sich-Bewährt-Habens verbunden ist (Standing the Test of Time). In der vorliegenden Studie wird untersucht, ob ältere Menschen (45–60 Jahre) eher dazu tendieren Informationen über die Anciennität einer Institution im Entscheidungsprozess zu verwenden, als jüngere Menschen (20–35 Jahre). Die vorgeschlagene Prominenz von Altershinweisen wird erörtert, indem die entsprechende Verwendungshäufigkeit des Gründungsjahres (Seniority-Cue) mit der von weiteren, rivalisierenden und validen Cues verglichen wird. In einem intuitiven Wissensspiel werden den TeilnehmerInnen (N = 160) 136 Entscheidungsaufgaben aus vier Wissensdomänen vorgelegt. Die Verwendung bestimmter Cues wird mit Hilfe des Mouselab (ML), einer prozessorientierten Methode, erfasst. Die Aufgabe besteht darin zu schätzen, welche von zwei Domänen den höheren Wert auf einem Kriterium hat. Die Namen der Domänen sind in kyrillischer Schrift dargeboten, um Effekte der Wiedererkennung (Rekognitionsheuristik) auszuschließen. Nach dem intuitiven Wissensspiel folgt ein Online-Fragebogen (OFB), der zusätzlich Rückschlüsse darüber geben soll, welche Hinweise bei der Entscheidungsfindung als besonders hilfreich bzw. nicht hilfreich empfunden wurden. Die Ergebnisse bestätigen die Hypothese, dass ältere Personen das Gründungsjahr zur Entscheidungsfindung effektiv häufiger verwenden als jüngere Personen. Zudem stellt sich das Gründungsjahr als domänenunabhängiger Hinweis dar. Somit wird der Seniority-Cue von Vitouch zurecht als Universal-Cue bezeichnet. Im Vergleich mit den anderen Hinweisen wird der Seniority-Cue weniger oft zur Entscheidungshilfe herangezogen. Vergleicht man die Häufigkeit wie oft ein Hinweis im ML gewählt wurde mit seiner anschließenden Bewertung im OFB, zeigen sich keine ausgeprägten Zusammenhänge. Abstract The present work offers a contribution to human decision-making with the use of Seniority Heuristic (SH), also called Anciennitätsheuristik (AH), on the basis of a process oriented investigation method. The conception of rational decision making models and the economic model of the homo oeconimicus are being criticized for their inability to explain human decision making in the real world. The idea that people are making decisions in an uncertain environment on having all information available, having endless time and cognition ressources, and having a more sophisticated algorithm becomes less important. However, there is a currently change in research of decision making. Fast and frugal heuristics are the more effective and realistic concepts as the optimizing models to analyse and understand human decision behavior. Heuristics are decision rules based on the concept of satisficing strategies and on the postulate of bounded rationality, designed by the economist Simon. Vitouch is the originator of the SH, which is also based on the model of bounded rationality. This decision-rule describes the idea of priority of age (seniority) in a decision process. A person favours the older option in making a decision under uncertainty, because the older one is the better. Vitouch postulates that the SH works effectively if the founding year (seniority-cue) of an unknown option gives the impression that the option or the organisation is the better one, because of its older founding year (standing the test of time). This study analyses the hypothesis whether older people (age 45–60) tend to use information of the founding year in a decision-process more often than younger ones (age 20–35). The use of the founding year will be compared to the use of different valid and competing cues. In an intuitive knowledge game 136 decision problems were presented to the probands (N = 160). These passes includes four domains. The application of certain cues has been recorded with the mouselab design (ML). This method is often used in decision theory, because it makes it possible to record precisly the decision process. The probands´ task was to assume, which of two options has the higher value on a criterium. The titels of the domains were presented in cyrillic lettering. This was necessary to eliminate recognition effects (recognition heuristic). After the intuitive knowledge game the probands have to complete an online questionnaire (OFB). This OFB provides results about the importance of the chosen cues in the game. The results support the hypotheses that older people are using the seniority-cue more often in the decision process than younger ones. A further insight shows that the seniority-cue is independent of domains. Therefore Vitouch´s assumption that the seniority-cue is an universal-cue insofar as it allows a person to make a fast and efficient choice and inferences is evidenced. In contrast to the other cues, the founding year is used fewer times. A comparison between evaluation of the cues in the game and in the OFB shows no pronounced coherence.Inhaltsverzeichnis:Inhaltsverzeichnis: 1.Persönlicher Zugang1 2.Zusammenfassung / Abstract2 2.1Zusammenfassung2 2.2Abstract3 3.Einleitung5 3.1Herleitung des Themas5 3.2Überblick über die vorliegende Diplomarbeit8 THEORETISCHER TEIL12 4.Grundlegende Konzepte der Entscheidungsforschung12 4.1Definition des Begriffs Entscheidung12 4.2Module einer Entscheidungssituation13 4.2.1Handlungsoptionen und ihre Charakterisierung14 4.2.2Ziele und Präferenzen15 4.2.3Umwelteinflüsse und Konsequenzen17 4.3Theorien zur Entscheidungsforschung21 5.Entstehungsgeschichte der Entscheidungsforschung23 5.1Beiträge aus der Philosophie und der Mathematik23 5.2Rationalitätskonzepte31 5.2.1Homo Oeconomicus31 5.2.2Bounded Rationality34 6.Entscheidungsregeln und Suchmuster39 6.1Kompensatorische Entscheidungsregeln40 6.2Nicht-kompensatorische Entscheidungsregeln42 7.Heuristiken45 7.1Schnelle und einfache Heuristiken47 7.1.1Rekognitionsheuristik52 7.1.1.1Weniger-ist-mehr-Effekt57 7.1.1.2Studien zur Rekognitionsheuristik59 7.2Heuristiken aus dem adaptiven Werkzeugkasten im Überblick61 7.3Anciennitätsheuristik bzw. Seniority Heuristic66 7.3.1Alltagsnahe Domänen der Anciennität71 7.3.1.1Der Senat71 7.3.1.2Erbfolgeordnungen72 7.3.1.3Unternehmen und Hersteller73 7.3.1.4Universitäten77 7.3.2Aktueller Forschungsstand der Anciennitätsheuristik80 7.4Zusammenfassung83 8.Methodologische Zugänge in derEntscheidungsforschung84 8.1Der strukturorientierte Zugang84 8.2Der prozessorientierte Zugang85 8.3Prozessorientierte Untersuchungsmethoden88 8.3.1Die Informationstafel89 8.3.2Das Mouselab91 8.3.3Das verbale Protokoll93 8.3.4Die Methode der Blickaufzeichnungen95 8.3.5Untersuchungen anhand der prozessorientierten Methoden96 8.3.6Informationsbeschaffung und kognitiver Aufwand100 8.4Zusammenfassung104 EMPIRISCHER TEIL106 9.Methodenwahl und empirische Fragestellungen106 9.1Forschungsmethoden106 9.2Explikation der Fragestellung und Hypothesen109 9.2.1Herleitung der Fragestellungen109 9.2.2Hypothesenbildung110 10.Versuchsmaterial und -aufbau117 10.1Inferenzentscheidungen118 10.2Erstellung der Domänen119 10.2.1Domäne russische Universitäten120 10.2.2Domäne russische Aktiengesellschaften120 10.2.3Domäne russische Wodkahersteller121 10.2.4Domäne russische Rechtsanwaltskanzleien122 10.3Auswahl der Cues124 10.4Erstellung der Cue-Werte126 10.5Versuchsplan131 10.6Abhängige und Unabhängige Variablen133 10.7Kontrolle der Störvariablen134 10.8Pilottestung137 10.8.1Durchführung der Pilottestung138 10.8.2Adaptierung138 11.Ergebnisse142 11.1Stichprobe142 11.1.1Rekrutierung142 11.1.2Demographische Stichprobenbeschreibung144 11.2Deskriptiver Datenüberblick145 11.3Unterschiede in der Informationssuche in den einzelnen Domänen148 11.3.1Hypothesenprüfung der aufgedeckten Informationen150 11.3.2Zusammenfassung der Anzahl der aufgedeckten Cues auf der Domänenebene155 11.4Wahl der älteren Option156 11.4.1Inferenzstatistische Prüfung der Hypothesen159 11.4.2Zusammenfassend die Ergebnisse bei der Wahl der älteren Option162 11.5Datenauswertung auf der Cueebene162 11.5.1Inferenzstatistische Prüfung der Hypothesen auf der Cueebene165 11.5.2Zusammenfassung der Ergebnisse auf der Cueebene171 11.6Bewertung der Cues nach ihrer Wichtigkeit172 11.7Wahl des Seniority-Cue bei Wahl der älteren Option178 11.8Analyse und Interpretation184 12.Diskussion und offene Fragen187 V.ResumeeVII VI.LiteraturIX VII.AbbildungsverzeichnisXVIII VIII.AnhangXXTextprobe:Textprobe: Kapitel 4, Methodologische Zugänge in der Entscheidungsforschung: Autoren wie Svenson oder Harte und Koele teilen methodologische Zugänge in der psychologischen Entscheidungsforschung in einen strukturorientierten ('structural modelling' und in einen prozessorientierten ('process tracing') Ansatz ein. Beide Zugänge haben die psychologische Entscheidungsforschung in den letzten 40 Jahren bedeutend geprägt. Der strukturorientierte Zugang: Zuerst hat sich die psychologische Entscheidungsforschung hauptsächlich am Entwurf der subjektiven Wahrscheinlichkeit orientiert. WissenschaftlerInnen erhoben dazu numerische Wahrscheinlichkeitsurteile, die dann anhand der Axiome der Wahrscheinlichkeitstheorie geprüft wurden. Dieser Zugang wird in der psychologischen Entscheidungsforschung auch als struktur-orientierter Zugang definiert, da der Fokus primär auf das Ergebnis einer Entscheidung gelegt wird. Input- und Output-Variablen werden aktiv manipuliert und können mit Hilfe statistischer Modelle menschliches Entscheidungsverhalten prognostizieren. Svenson definiert diesen Zugang folgend: (...) a structural research approach relates choices and ratings to input variables (e.g., the maximum amount that can be gained, the variability across alternatives in gains and/or probabilities). Psychological intervening variables are derived from psychological theory and behavioral patterns in decision tasks. However, no attempts are made in strucutral approaches to assess the psychological process at different stages from problem presentation to final decision. Hier sind die normativen und präskriptiven Entscheidungstheorien sowie die SEU-Theorie und der Homo Oeconomicus einzureihen. Modelle, die im strukturorientierten Zugang verwendet werden, sind die algebraischen Modelle 'additive or nonadditive' (additive oder nicht-additive) und 'linear or nonlinear' (lineare und nicht-lineare Modell). Svenson führt an, dass im strukturorientierten Ansatz der Prozess einer Entscheidung noch weitgehend ignoriert wird. Seiner Meinung nach erfordert eine Entscheidung mehr Aufmerksamkeit als nur für den Moment, in dem die Wahl erfolgt, um eine Vorhersage einer bestimmte Präferenz zu ermöglichen. Im nächsten Kapitel werden AutorInnen angeführt, die nicht nur das Ergebnis, sondern den Entscheidungsprozess, wie es zu einer Entscheidung kommt, untersuchen. Der prozessorientierte Zugang: Für Svenson kann eine Entscheidung nicht mit der Beschreibung des finalen Ergebnisses abgeschlossen sein, weil eine Entscheidung von Emotionen, Wahrnehmungen und und weitere kognitiven Fähigkeiten beeinflusst wird. Um Einflüsse und das Zustandekommen einer Entscheidung besser zur verstehen, wird die Entscheidung als Prozess verstanden und in verschiedene Phasen eingeteilt. Nach Adam beinhaltet der Entscheidungsprozess eine (i) Anregungsphase, (ii) Suchphase, (iii) Entscheidungsfindungsphase und eine (iv) Durchsetzungsphase. Die Abgrenzungen der einzelnen Phasen erklärt Heinen wie folgt: (i) In der ersten Phase analysiert und bewertet der/die EntscheiderIn die Situation. (ii) Die Suchphase beinhaltet das Suchen von adäquaten Informationen und ihren Konsequenzen sowie das Suchen nach Optionen oder Handlungen. Es werden dazu Informationen aus der Umwelt aufgenommen oder auf Erfahrung zurückgegriffen. In weiterer Folge werden Bewertungen vorgenommen. (iii) In der nächsten Phase versucht der/die EntscheiderIn zwischen den Problemen und Variablen Zusammenhänge zu finden und eine optimale Entscheidung zu planen. Die Entscheidung wird vorbereitet. (iv) Die letzte Phase ist der Vollzug der Entscheidung. Ab hier kann die Entscheidung nicht mehr rückgängig gemacht werden. Nach der Entscheidung beginnt die Phase, in welcher der/die EntscheiderIn Erfahrungen für die nächste Entscheidung gesammelt und/oder gelernt hat, wie er/sie sich in der nächsten ähnlichen Situation verhalten wird. Nach Mag laufen die Phasen nicht unbedingt linear ab, sondern sie können öfters durchlaufen werden. Der Entscheidungsprozess kann von vorne beginnen, wenn die Person z.B. einen Sachverhalt falsch interpretiert hat oder neue Informationen zur Verfügung stehen. Payne und Svenson sehen einen Entscheidungsprozess differenzierter, da mit der Wahl einer Option der Prozess nicht abgeschlossen ist. Die Autoren kontrastieren den Entscheidungsprozess in einen Pre- und Post-Decision Process oder Phase (Vor- und Danach-Phase). In der Phase vor der Entscheidung sind für die Forschung Fragen wie 'werden Handlungsoptionen generiert, wie wird das Problem kognitiv strukturiert, welches Wissen wird herangezogen?' relevant. Die der Phase nach der Entscheidung analysieren WissenschaftlerInnen, wie gut der/die EntscheiderIn die Entscheidung erinnert, wie er/sie die Informationen aufgenommen hat, oder wie die Entscheidung im Nachhinein bewertet wird. Nach Svenson sind nicht nur die verfügbaren Informationen, die vor einer Wahl gesammelt werden, für die Entscheidungsforschung essentiell. Der Prozess nach einer Wahl ist ebenfalls von Bedeutung. Die Post-Phase bei einer Entscheidung gibt nach Svenson und Benthorn über die Qualität der bereits gemachten Entscheidung Aufschluss und zeigt, welche Erfahrungen der/die EntscheiderIn aus dieser Wahl für zukünftige Entscheidungen ableiten kann. Svenson schlägt die 'Differentiation and Consolidation Theory' vor,welche die Phasen nicht nur getrennt untersucht, sondern deren Ergebnisse in Zusammenhang bringt: Differentiation and Consolidation Theory explicitly links pre- and post-decision processes and considers pre-decision processes as a preparation for the post-decision future. Svenson und Benthorn zeigen, wie sich die Attraktivität eines Produktes für den/die EntscheiderIn während des Prozesses und nach einer Entscheidung ändern kann. Sie gaben TeilnehmerInnen eine Option mit jeweils vier Attributen vor, welche die TeilnehmerInnen während des Prozesses und anschließend (nach fünf Minuten oder nach einer Woche) anhand einer Ratingskala bewerten mussten. Fünf Minuten nach einer Entscheidung wurden keine signifikanten Veränderungen in der Bewertung wahrgenommen. Eine Woche später zeigten sich Unterschiede, indem gute und schlechte Attribute verstärkt bewertet wurden: die guten Attribute fielen in der Bewertung nach einer Woche noch besser aus als bei der Entscheidung und die schlechten noch schlechter. Dieses Ergebnis entspricht der Dissonanze-Theorie von Festinger und zeigt ein konträres Bild zur Self-Perception Theory von Bem. Nach dieser Theorie sind sich Menschen nicht über ihre Grundeinstellungen und Bewertungen bewusst, und der Mensch erinnert sich eher an zweideutige oder labile Merkmale. Die Studie beweist, wie bedeutend die Post-Phase in der Entscheidungsforschung ist, da sich die Wichtigkeit eines Attributes während und nach einer Entscheidung ändern kann. Anhand der Phasen hat sich der Fokus erweitert, indem eine Entscheidung betrachtet wird. Im Kontrast zum strukturorientierten Ansatz stehen hier der kognitive Prozess sowie die Informationssuche während des Entscheidungsprozesses im Mittelpunkt. Für AutorInnen dieses Zuganges ist der Mensch ein 'information processor with limited capabilities which, in turn, could explain the deviations form theoretical expectations' und basiert auf den Annahmen der begrenzten Rationalität von Simon. In den Jahren um 1980 beklagten die Autoren Slovic, Fischhoff und Lichtenstein noch den Mangel an Studien, in denen der Entscheidungsprozess untersucht wird. Mittlerweile gibt es viele Methoden, mit deren Hilfe die kognitiven Prozesse in einer Entscheidung analysiert werden können. Im nächsten Kapitel werden die prozessorientierten Methoden näher beleuchtet.
Der Hintergrund vorliegender Forschungsarbeit über den Kleinprivatwald leitet sich aus der forstpolitischen Fragestellung ab, zu untersuchen, wie sich veränderte Rahmenbedingungen (Agrarstrukturwandel, Strukturwandel in der Holzbe- und verarbeitung) auf die Einstellungen, Interessen und Verhaltensweisen der Kleinprivatwaldbesitzer auswirken. Holzbe- und verarbeitung als Marktpartner des Kleinprivatwaldes Der Wandel in der Holzbe- und verarbeitung beeinträchtigt/gefährdet zunehmend die wirt-schaftliche Inwertsetzung ( Vermarktung von Holz aus dem Kleinprivatwald ), da die strukturellen Nachteile der Forstbetriebe im Kleinprivatwald ( Kleinflächigkeit, aussetzende Bewirtschaftungsweise, . ) eine nachfragegerechte Orientierung am Markt nicht zulassen. Aufgrund seines Flächenumfanges ( Kleinprivatwald (<200 ha): ca. 47% der Waldfläche in Bayern ) besteht aber die forst- und holzmarktpolitische Notwendigkeit, das Nutzungspotential ( des nachwachsenden, klima-neutralen Rohstoffes Holz ) im Kleinprivatwald auch wirtschaftlich in Wert zu setzen und die Bewirtschaftung von Wald als Quelle von Wertschöpfung und Einkommen in den ländlichen Räumen zu stützen. Aus Wettbewerbsgründen sind rundholzverarbeitende Betriebe zunehmend auf weiterverar-beitungsgerechte Holzlose angewiesen, die ein einzelner Forstbetrieb im Kleinprivatwald nicht mehr gewährleisten kann. Auswirkungen des Agrarstrukturwandels aus Sicht der Revierleiter und Zusammen-schlüsse Der Wandel in den Agrarstrukturen ( v.a. Betriebsaufgaben landwirtschaftlicher Voll- und Nebenerwerbs-betriebe ) führt dazu, dass sich die ehemals überwiegend bäuerlich geprägte Kleinprivatwald-struktur ( Land- und fortwirtschaftliche Mischbetriebe ) zunehmend in eine Struktur aus nicht-bäuerlichen Forstbetrieben umändert. Die Änderungen, die Privatwaldberater und Verantwortliche der Zusammenschlüsse im Zuge des Agrarwandels feststellen, formulieren sich wie folgt: Bäuerliche Waldbesitzer: Der Druck, die Betriebsabläufe im bäuerlichen Betrieb zu rationalisieren, führt zu drei wesentlichen Veränderungen: Das Ertragspotential des Waldes wird verstärkt als Einkommensquelle herangezogen. Der Einsatz von Fremdarbeitskraft wird als Alternative wahrgenommen, das verfügbare Arbeitspotential auf die Landwirtschaft zu konzentrieren und trotzdem Erträge aus dem Wald zu erwirtschaften. Schließlich werden diejenigen Fälle beschrieben, in denen das Waldeigentum aus Kosten- und Zeitgründen wegen fehlender Rentabilität abgestoßen bzw. liquidiert wird. Ehemals bäuerliche Waldbesitzer: Zeitmangel, eine sinkende materielle Bedeutung des Waldes und eine sinkende Ausstattung mit forsttauglichen Geräten haben zwei ein-schneidende Veränderungen zur Folge: Die materielle Bedeutung des Waldes als Einkommensquelle verliert als Nutzungsgrund an Gewicht. Entweder beschränkt sich die Nutzung auf die Gewinnung von Brennholz oder die Notwendigkeit bzw. die Sinnhaftigkeit einer Bewirtschaftung wird bei fehlendem Eigenbedarf an Holz an sich in Frage gestellt. Die Nutzungsintensität und vor allem die Vermarktungsintensität reduziert sich (bei den kleinen Waldbesitzen) erheblich. Die verfügbare Zeit, die maschinelle Ausstattung und damit die Arbeitskapazität verringern sich. Nichtbäuerlicher Waldbesitzer: Die Sichtweisen, wie Waldeigentum wahrgenommen wird, individualisieren sich und werden stark inhomogen. Damit verlieren Teile der Waldbesitzer die Bindung an alte tradierte Normen in der Waldbewirtschaftung: Die Beschäftigung und die Arbeit im Wald als Hobby reduzieren Wald auf einen Gebrauchswert. Daneben führt eine verkürzte Sichtweise des Nutzwertes von Wald auf seinen abstrakten aktuellen materiellen Wert zu einer unterschiedlichen Auffassung von Rentabilität: Es werden nur mehr sich selbst rentierende Eingriffe durchgeführt und Investitionen in Form von Pflegeeingriffen unterbleiben. Ebenfalls werden belastende Elemente beobachtet, die durch die Eigentümerschaft an Wald und damit einhergehenden Verpflichtungen empfunden werden. Die Tendenz, dass sich bestehende Wertvorstellungen und Bewirtschaftungsvorstellungen ändern, kann zu folgenden Ausrichtungen bei Waldbesitzern führen: Freizeit, Hobby, körperlicher Ausgleich, die in der Beschäftigung am und im Wald gesucht werden, treten in den Vordergrund. Zum Hauptbestreben des Waldbesitzers wird es, so wenig Zeit und Aufwand wie möglich mit dem Waldeigentum zu haben. Das Ziel in der Bewirtschaftung reduziert sich auf den reinen statischen Erhalt des Waldes im Ist-Zustand, ohne irgendwelche eigenen Vorstellungen, Ansprüche oder Ziele für die Waldbewirtschaftung zu entwickeln. An materiellen Zielen, die im Grunde nichts mit Holzproduktion, nachhaltiger Bewirtschaftung und Entwicklung des Waldes zu tun haben, sind zu nennen: Wald als "schlafende" Geldanlage oder als Spekulationsobjekt. Aus dem Wald wird ausschließlich der Brennholzbedarf gedeckt. Einzelne Aspekte von Waldeigentum und Forstwirtschaft werden also überhöht und als isolierte Ziele verfolgt. Durch die erhöhte Mobilität in der Gesellschaft nimmt auch der Anteil an ausmärkischen Waldbesitzern zu. Dies stellt vor allem die forstfachlichen Institutionen vor neue Heraus-forderungen: Die Unterschiede zwischen In- und Ausmärkern lassen sich in Kontaktformen, Beratungs-anlässe, -inhalte und -intensitäten, in Unterschieden in den Wertvorstellungen/Wissen und im Verhalten gliedern. Für die staatlichen Berater gestaltet sich die Erreichbarkeit oft umständlich und zeitaufwendig (so z.B. oft nur an Nichtwerktagen). In der Regel sind nur Einzelberatungen möglich bzw. ein Kontakt beschränkt sich auf schriftliche Formen. Über Gruppenberatungen erscheint diese Gruppe i.d.R. kaum erreichbar. Als Beratungsanlässe -inhalte und -intensitäten treten überdurchschnittlich auf: Konkrete An-lässe (akute Problemsituationen), zeitaufwendige Beratungen, die oft erst eine Grundwissens-basis herstellen müssen, und Nachfrage nach "Rundumservice". Aufgrund der Entfernung zum Wald ist eine rasche Reaktion erschwert und auch fehlende Fertigkeiten und mangelnde Ausstattung mit Forsttechnik führen dazu, dass notwendige Arbeiten nicht mehr durchgeführt werden können (z.B. Forstschutz). Ausmärkische Waldbesitzer sind in das traditionelle Informations- und Kommunikations-netzwerk ( Netz aus Waldbesitzern untereinander, WBV, staatliche Forstämter, das vor allem auf persönlichen Kontakten, Versammlungen, Rundbriefen, .beruht ) nicht mehr adäquat eingebunden und damit auch für forstpolitische Instrumente nur mehr schwer zugänglich. Entwicklungen beim Waldbesitz Seit 1960 stieg die Zahl der Betriebsaufgaben in der ostbayerischen Waldbesitzerstichprobe bis zum Jahr 1999 auf knapp 10% der bestehenden landwirtschaftlichen Betriebe pro Dekade an. Der Anteil nichtbäuerlicher Waldbesitzer hat sich innerhalb der letzten 40 Jahre von 10% auf fast 40% annähernd vervierfacht. Insgesamt ( Mittelwerte für alle Waldbesitzer zusammengefasst, inklusive kein Einschlag und keine Vermarktung ) liegt die Einschlagsintensität bei Nichtlandwirten um ca. 20% niedriger als bei Landwirten. Die Vermarktungsintensität sinkt sogar um über 50% ab. Zur Zeit führt also das Ausscheiden von Wald aus einem landwirtschaftlichen Betrieb gerade in den flächenstarken Besitzgrößen 1-20 ha zu einem nicht ignorierbaren Rückgang der Nutzungs- und Vermarktungsintensitäten. Eine weitere Entwicklung, die sich beim Übergang vom bäuerlichen zum nichtbäuerlichen Wald abzeichnet, ist häufig eine individuell sinkende Bewirtschaftungsbefähigung. Ab ca. 20 ha kann aber davon ausgegangen werden, dass Waldbesitzer bei fehlenden eigenen Möglich-keiten selbständig und aktiv nach Fremdleistungen suchen. Bei kleineren Waldflächen entwickelt sich eine passive, reaktive und nutzungsextensive Haltung, wenn sich die Besitzer nicht mehr ausreichend selbst befähigt sehen. Eine geringe Ausstattung mit forsttauglichen Geräten, geringe Erfahrung im Umgang mit Werkzeug und Maschinen und in der Waldbewirtschaftung verstärken sich mit oft geringer Motivation, Nutzungen durchzuführen und führen letztendlich bei kleinen Waldbesitzen zu drei (idealtypischen) Möglichkeiten: Entweder werden immaterielle Werte und eine "Freude" an der Waldarbeit an sich überhöht und wandeln sich vom Mittel zum Zweck. Hier wird zwar eine intensive Eigentumsbindung und eine z.T. hohe Zufriedenheit erreicht (solange keine größeren Katastrophen zu Arbeitsüberlastungen führen), doch vermarkten diese Waldbesitzer, wenn überhaupt, in hohem Maße marktunabhängig. Zudem besteht die Bewirtschaftungs-orientierung "in einem bewahrenden Erhalten des Status Quo". Nichtlandwirtschaftliche Besitzer mittlerer bis größerer Waldflächen (ab 10 ha beginnend, ab 20 ha die Regel) bewirtschaften überdurchschnittlich häufig ausschließlich oder mit Fremdarbeit. es treten belastende Elemente in den Vordergrund. Dies ist nun gehäuft bei Besitzern zu beobachten, die keine Verwertungsmöglichkeiten für genutzte Holzmengen haben oder/ und aus verschiedenen Gründen keine Bewirtschaftung mehr ausführen können und nicht mit Fremdarbeit bewirtschaften. Entwicklung der Bewirtschaftungsvorstellungen: Überträgt man die vorgefundene Verteilung der Sichtweisen auf eine zeitliche Entwicklungsdynamik, so können folgende "Trends" erwartet werden: Waldbesitzer, die keine eindeutigen Schwerpunkte in den Waldbedeutungen erkennen, nehmen zu. Waldbesitzer, die keine klaren Bewirtschaftungsziele entwickeln, nehmen zu. Waldbesitzer, die reaktiv (natürliche Anfälle, Erhalt eines Status Quo) und am Eigenbedarf orientiert nutzen, nehmen zu (< 20 ha). Waldbesitzer, die zum Eigenwert der Waldarbeit ( Freude an der Waldarbeit ) an sich indifferent stehen, einem Zeitmangel ausgesetzt sind und so belastende Element im Waldeigentum empfinden, nehmen (leicht) zu. Waldbesitzer, die auf Fremdhilfe angewiesen sind, nehmen zu. Als Hauptmangel lässt sich damit eine sinkende Befähigung zur eigenständigen Bewirtschaftung identifizieren, die aber kaum mehr durch einzelbetriebliche Maßnahmen verbessert oder aufgehoben werden kann. Zur Vermittlung von Wissen und Schlüssel-fertigkeiten tritt nun das Angebot an Bewirtschaftungsdienstleistungen und Fremdarbeits-leistungen hinzu. Aufgrund der vielfältigen Entwicklungen im Kleinprivatwald und der Vielfalt an Eigentümerinteressen kann die Nutzungsintensität auf absehbare Zeit nur wirksam erhöht werden, wenn zum einen die Einschläge zwischen den Besitzern koordiniert werden (um Kleinmengen in vermarktbaren Mengen zu bündeln und damit verwertbar zu machen) und zum anderen ein flexibles Angebot an Bewirtschaftungsdienstleistungen besteht. Als Träger-organisation, die dieses flexible Angebot leisten kann, prädestinieren sich die forstlichen Zusammenschlüsse nach dem BWaldG, da sie sowohl ökonomische, ökologische und gesellschaftliche Belange vertreten, somit die Vielfalt an Eigentümerinteressen repräsentieren können und ihre Leistungskraft auf drei Standbeine abstellen können: Ziel öffentlicher Finanzmittel, materieller und immaterieller Ressourcen ( Beratungen zur Selbsthilfe, geldwerte Koordinations- und Kommunikationsleistungen ). Die Selbstverpflichtung von Waldeigentümern zum aktiven und engagierten Gestalten von Eigen- und Gesamtinteressen ( Ehrenamt und persönliches Engagement ). Die Erbringung und Realisierung von Wertschöpfung mit Dienstleistungen und Produktionsprozessen. Das Prinzip der organisierten Selbsthilfe erscheint auch im "Zeichen" des Agrarstruktur-wandels die zukunftsfähigste Lösung für die Sicherung der Bewirtschaftung im Klein-privatwald, wenn die Selbsthilfe ein klares Profil als Dienstleister gewinnt. Fazit: Forstliche Zusammenschlüsse und ihr Profil als Dienstleister Waldbesitzerorganisationen bilden mit ihrer Aufgabe, Rundholz aus dem Kleinprivatwald zu vermarkten, einen Teil eines wirtschaftlichen Leistungsprozesses. Ein Orientierungsrahmen leitet sich dementsprechend ab und zwingt Waldbesitzerorganisationen, sich in diesem Leistungsprozess Betätigungsfelder und Entwicklungspotentiale zu schaffen. Die Rolle der Waldbesitzerorganisationen als Träger von Leistungen ( wobei hier sowohl Leistungen in der Rundholzproduktion, aber auch in nachgeordneten rundholzbe- und verarbeitenden Produktionen eingeschlossen sind ) Träger von Kompetenzen Träger von Dienstleistungen steht dabei im Vordergrund und aus diesen Teilbereichen setzt sich schließlich das Profil einer Waldbesitzerorganisation zusammen, das je nach Öffnung und Realisierung von Ent-wicklungspotentialen in den einzelnen Bereichen erweitert und neu akzentuiert werden kann. Die Vermarktungsaufgabe verlangt eine Orientierung im Absatzmarkt. Eine grobe Segmen-tierung besteht in mittelständisch strukturierten Abnehmern und industriellen Abnehmern, zu denen unterschiedliche Marketingziele gebildet werden, zum Beispiel, welche Rolle als Anbieter man für die Abnehmer erfüllen soll. Während bei mittelständischen Betrieben durchaus angestrebt werden kann, möglichst deren gesamte Versorgung zu übernehmen, sollten sich die Waldbesitzerorganisationen bei industriellen Abnehmern als fester Bestandteil in deren Lieferantenmix etablieren. Das Ausmaß der Leistungsfähigkeit als Rundholzanbieter und -lieferant wird von der "inneren" Koordinierungsfähigkeit der Waldbesitzerorganisation bestimmt. Diese bildet damit einen weiteren Orientierungsrahmen. Um sowohl die einzelnen Phasen der Leistungsprozesse, die von der Waldbesitzerorganisation gesteuert bzw. getragen werden, effektiv und effizient zu erfüllen, und die notwendige Zusammenarbeit und das Vertrauen der Waldeigentümer ( als Ressourcenhalter ) in die Waldbesitzerorganisationen zu erreichen, wird der Aufbau von drei funktionellen Kompetenzbereichen als notwendig erachtet. Marktkompetenz schließt alle Fähigkeiten zur Vermarktung von Rundholz ein, die der Waldbesitzerorganisation von innen (Mitglieder der Organisation) als von außen (abnehmende Betriebe) zugesprochen werden. Logistische Kompetenz bedeutet die Fähigkeit zur effizienten und kostenbewussten Koordination, nämlich den Einschlag und die Losbildung in einem (definierten und abgrenzbaren) Raum über Waldbesitzgrenzen hinaus zeitlich zu steuern und zu beeinflussen. Waldkompetenz schließlich besteht in der Fähigkeit, Möglichkeiten, Chancen und Risiken von Waldbewirtschaftungskonzepten glaubwürdig, fundiert und wissensbasiert und mit individuellem Bezug zum einzelnen Waldbesitz und Waldeigentümerhaushalt zu vermitteln. Dieses Konzept, Einschlag, Aushaltung und Losbildung überbetrieblich zu koordinieren, bietet Möglichkeiten zur Erlössteigerung für den Holzanfall auf der Fläche durch erweiterte Sortier- und Losbildungsmöglichkeiten und die Bildung bedarfsgerechter Lose, und zur Kostensenkung, indem mechanisierte Erntesysteme oder/und Schnittstellen übergreifende logistische Lösungen eingesetzt werden können, die in ihrer Wirkung allerdings immer aus Sicht des betroffenen Waldbesitzerhaushaltes zu beurteilen sind. Daneben werden die Zusammenschlüsse auch als Koordinatoren und Dienstleister rund um Wald und Forstwirtschaft sogenannte gesellschaftspolitische "Non-Profit"-Aufgaben übernehmen ( Information, Öffentlichkeitsarbeit, Interessensvertretung, Mitwirkung bei gesellschaftlicher und politischer Entscheidungsfindung, Mitwirkung beim Interessensausgleich zwischen Allgemeinheit und Waldbesitz, . ) und aufgrund ihrer Stellung als regionalwirksame Entwicklungsträger fungieren müssen. Fördermittel für forstliche Zusammenschlüsse und vor allem Fortbildungsangebote für Verantwortliche der Zusammenschlüsse auf allen Ebenen erscheinen aus dieser Blickwarte dann auch, wenn sie derartige Entwicklungen stützen, aus gesamtwirtschaftlicher und gesellschaftspolitischer Sicht als hochwirksame Investitionen in das Kultur- und Naturgut Privatwald. ; This study about small scale private forestry in south east Bavaria addresses one main question: What are the effects of structural changes in the agricultural sector and the wood industry on the behaviour, attitude and interests of small scale private forest owners? Results: Traditionally, small scale forests were run by farmers, who were interested in versatile benefits from their forest land such as fire wood, wood for building and repairing their farms, certain amounts of growing stock as their (independent) bank savings, and last but not least the necessity of an irregular revenue from the timber sale. In order to meet these demands each farmer normally spends a lot of time managing the small scale forest himself. But the felling volume is relatively low compared to the annual increment (approximate 3 to 4 cubic meter per hectare and year compared to an annual increment of 7 or more cubic meter per hectare and year). The change in agricultural structures (on the one hand closure of farms, on the other hand expansion and specialisation of remaining farms) results in an increasing number of non-farmers. The differences between farmers and non-farmers are that non-farmers are lacking experience, technical equipment and time for managing their land. The cuttings of non-farmers are twenty percent below the yield harvested by farmers. The selling of non-farmers are fifty percent less than selling of farmers. At the same time, several changes in attitude take place: The number of forest owners, who have no unambiguous idea of forestry and thus don't actually manage but would like to conserve a certain structure of their forest land, increases. For a rising number of land owners with neither enough time nor technical equipment, forest property, has become a burden. More and more forest owners seem to hand their responsibility over to independent contractors. In conclusion it can be assumed that in future times, the number of forest owners will continuously decline with both the ability and the desire to manage their forest land themselves. The structural changes of the timber industry affects the earning capacities of small scale forestry. The ability of small scale forestry to meet the demands of huge industrial wood processing companies is getting worse and worse. The situation for small scale forestry has become more serious with these developments (structural changes in the agricultural sector and the timber industry). Therefore the economic potential of small scaled forestry is jeopardised. Two efforts might contribute to improving the situation: On the one hand forest management services ought to be available an a larger scale and on the other hand, there lies great potential in forest owner associations which if developing into major service companies face much better options of a more efficient forest management and timber sale.
Unsere Lebensmittel haben eine zweifache, auch vom Gesetz vorgegebene Zweckbestimmung, d.h. sie dienen einerseits dem Genuss und andererseits der Ernährung. Aktuelle For-schungsstrategien in der Lebensmittelchemie auf diesen Gebieten lassen sich dahingehend zusammenfassen, dass im ersten Bereich die Suche nach wirksamen Aromastoffen und deren Vorläufern sowie auch zunehmend Probleme der Herkunftsanalytik im Vordergrund stehen. Auf dem Gebiet der Ernährung spiegeln die Schlagworte "Funktionalität" und "Bioaktivität" die derzeitigen Entwicklungen wider. Für alle Bereiche bilden instrumentell-analytische Techniken die Grundlage für Bewertungen. Im Rahmen der vorliegenden Arbeit haben wir daher das uns zur Verfügung stehende analytische Potential genutzt, in den oben genannten Gebieten einschlägige Beiträge zu leisten, d.h. die Suche nach wertgebenden Aromastoffen fortzuführen, Zuckerkonjugate zu untersuchen, die sowohl als Aromavorläufer als auch im Hinblick auf Bioaktivitätsstudien von Bedeutung sein können, und schließlich Methoden zur Herkunftsanalytik zu forcieren. Zu diesen Studien sind als attraktive und wirtschaftlich be-deutsame Rohwaren Rucola (Eruca sativa Mill.) und Kaffee (Coffea arabica) eingesetzt worden. Mit Hilfe der Kopplung aus S-selektiver Detektion und strukturselektiver massen-spektro-metrischer Analytik sind in Extrakten von Rucolablättern 22 schwefelhaltige Verbindungen strukturell charakterisiert worden. Darunter befanden sich neben Minorkomponenten wie 3-Sulfanyl-1-hexanol, Glucosinolatabbauprodukte wie 4-Methylthiobutylnitril, 4-Methylthiobutylthiocyanat und 4-Methylthiobutylisothiocyanat. Mit [1,3]-Thiazepan-2-thion ist eine bislang nicht bekannte Komponente erstmals beschrieben wor-den. Das Vorkommen von 3-Sulfanyl-1-hexanol, welches im Übrigen anhand von MDGC-MS-Analytik in nahezu racemischer Form (44:56 Prozent, R:S) in Rucola gefunden wurde, forderte dazu heraus, in einer Modellstudie eine allgemeine Methode zur Bestimmung der Absolutkonfiguration azyklischer 2- und 3-Sulfanyl-1-alkanole mittels der ECCD-Methode zu entwickeln. Dabei wurden in einer Ein-Schritt-Synthese die funktionellen Grup-pen der 2- und 3-Sulfanyl-1-alkanole (in der Studie handelte es sich um enantiomerenreine 2- und 3-Sulfanyl-1-hexanole) jeweils mit dem Chromophor 9-Anthroylflourid derivatisiert. Die ent-sprechenden CD-Splitkurven erlaubten eine eindeutige Zuordnung der Konfiguration. Die entwickelte Mikro-Maßstab-Methode wurde ebenfalls er-folgreich zur Bestimmung der Absolutkonfiguration von in der Studie als zusätzliche Modellverbindungen eingesetzten 1,2- und 1,3-Diolen angewendet. 3-Sulfanyl-1-hexanol wurde abschließend in einer Zwei-Schritt-Synthese mit 9- und 2-Anthroylflourid derivatisiert, auch diese Variation erlaubte eine eindeutige Zuordnung der Absolutkonfiguration. Mittels präparativer HPLC-Techniken wurden drei neue Flavonoidglykoside aus Rucolablättern isoliert. Deren Charakterisierung erfolgte mittels Tandemmassenspektrometrie sowie ein- und zweidimensionalen NMR-Messungen. Die Verbindungen sind als Quercetin-3,3',4'-tri-O-beta-D-glucopyranosid, Quercetin-3'-(6-sinapoyl-O-beta-D-gluco-py-ra-nosyl)-3,4'-di-O-beta-D-gluco-pyranosid und Quercetin-3-(2-sinapoyl-O-beta-D-gluco-pyranosyl)-3'-(6-sina-poyl-O-beta-D-glucopyranosyl)-4'-O-beta-D-gluco-py-rano-sid identifiziert worden. Diese Quercetin-Derivate zeigten sowohl hinsichtlich der Glucosilierung des Aglykons (an den Positionen 3, 3' und 4') als auch bezüglich der Acylierung ungewöhnliche Strukturen. Bei Rohkaffee hat man bislang keine Studien über das Vorkommen von Zuckerkonjugaten als Aromastoffvorläufer durchgeführt. Wir konnten diese Lücke anhand der Strukturaufklärung der nachfolgend aufgeführten Verbindungen schließen. Durch Kombination verschiedener präparativer Techniken (CCC, LC und HPLC) mit verschiedenen Methoden der Strukturaufklärung (HRGC-MS, HPLC-MS/MS, ein- und zweidimensionale NMR) sind aus Rohkaffee fünf Aromastoffprekursoren isoliert und identifiziert worden. Für die beiden aus Rohkaffee isolierten Linalyldisaccharide wurden als Strukturen 3(S)-Linalyl-3-O-beta-D-glucopyranosyl-(1-6)-alpha-L-arabinofuranosid (AK1) und 3(S)-Linalyl-3-O-beta-D-gluco-pyranosyl-(1-6)-beta-D-apiofuranosid ermittelt. Weiterhin sind erstmals drei neue Aromastoffprekursoren in Form von Zuckerestern, d.h. (3-Methylbutanoyl)-1-O-beta-D-glucopyranosyl-beta-D-apiofuranosid, (3-Methylbuta-noyl)-6-O-alpha-D-gluco-pyranosyl-(1-2)-beta-D-fructofuranosid und (3-Methyl-2-butenoyl)-O-beta-D-gluco-pyranosyl-beta-D-apio-furanosid in Rohkaffee charakterisiert worden. Die Kenntnis der Herkunft bestimmter Lebensmittel bzw. einzelner In-haltstoffe spielt für die Lebensmittelindustrie eine wichtige Rolle. Für die Zuordnung der geographischen Herkunft von Rohkaffee wurden in dieser Arbeit die 13C/12C-, 2H-/1H- und 18O/16O-Verhältnisse von extrahiertem Coffein mittels Elementaranalysator-Isotopen-massen-spektro-metrie (EA-IRMS) bestimmt. Zur Bewertung der Multielement-Messwerte wurden diese statistischen Berechnungen unterzogen. Zur Anwendung kamen die Lineare Diskrimi-nanzanalyse (LDA) und die Auswertung mittels sog. "Classification and Regression Trees" (CART). In der Anpassung wurde dabei eine Probe aus der Klasse 1 (Provenienz Afrika) der Klasse 2 (Provenienz Amerika) zugeordnet und eine Probe der Klasse 2 der Klasse 1 zugeordnet (Fehlerrate von 5,1 Prozent). Bei Kreuzvalidierung wurden drei der 39 Proben falsch zugeordnet (jeweils zwei der Klasse 1 und eine der Klasse 2), die Fehlerrate betrug hier somit 7,7 Prozent. Die Proben der Klasse 3 (synthetisches Coffein) ließen sich zu 100 Prozent von denjenigen natürlichen Ursprungs unterscheiden. ; Our foods exhibit two functions defined by legislation, too, i.e. to provide pleasure and nutri-tive effects. Current research strategies in food chemistry in these areas can be summarized as follows, i.e. that in the first-mentioned area the search for effective aroma substances and their precursors as well as, increasingly, also problems of authenticity assessments predominate. In the area of nutrition, the highlights "functionality" and "bioactivity" reflect the actual research trends. In all areas instrumental-analytical techniques form the fundament of evaluations. Thus, we used our analytical potential to provide new informations in the above-mentioned areas, i.e. to continue the search for valuable aroma compounds, to study sugar conjugates being important as flavour precursors and for bioactivity studies, as well as, finally, to strengthen methods for authenticity assessment. For these studies rocket salad (Eruca sativa Mill.) and green coffee (Arabica coffea), both known as attractive industrially important raw materials, were used. In flavour extracts of rocket salad leaves we characterized 22 sulphur-containing constituents by means of HRGC-MS/SCD analysis. This analytical tool allows parallel detection of com-pounds eluting from the GC column by mass spectrometry (to get structural information) and by chemiluminescence (to get selectively signals of sulphur-containing substances). Among the identified constituents we detected minor compounds such as 3-sulfanyl-1-hexanol, by-products of myrosinase hydrolysis such as 4-methylthiobutyl nitrile, 4-methylthio-butyl thiocyanate and 4-methylthiobutyl isothiocyanate as well as [1,3]-thiazepan-2-thion, the latter described for the first time. By means of multidimensional GC-MS (MDGC-MS) the enantiomeric ratio of 3-sulfanyl hexanol was determined as 44 per cent (R) to 56 per cent (S). In addition, a method for the determination of the absolute configuration of chiral 2- and 3-sulfanyl-1-alkanols (and 1,2 diols and 1,3 diols as model compounds) was developed. We demonstrated for the first time that the CD exciton chirality method can be extended to acyclic 2- and 3-sulfanyl-1-alkanols. The simple one-step derivatization using the 9-anthroate chromophore provided a general microscale method for the determination of the absolute configuration. Exciton coupling between the two 9-anthroate chromophores led to intense positive split CD curves for the (R)-configured 2-sulfanyl-1-alkanols and the (S)-configured 3-sulfanyl-1-alkanols as well as vice versa. The developed method was also useful for the stereochemical assignment of 1,2- and 1,3-diols. Furthermore, the application of the two step-derivatization using two different chromophores for both functional groups (2- and 9-anthroate) also resulted in mirror image split CD curves for both enantiomers, allowing the stereochemical assignment of 3-sulfanyl-1-alkanols. Three novel flavonoid glycosides were isolated of leaves of rocket salad by means of preparative techniques. Structural elucidation was performed using LC-MS/MS as well as one and two dimensional NMR experiments. The compounds were identified as quercetin 3',4'-tri-O-beta-D-gluco-py-ra-no-side, quercetin 3'-(6-sinapoyl-O-beta-D-gluco-pyra-no-syl)-3,4'-di-O-beta-D-gluco-py-ra-no-side and quercetin 3-(2-sinapoyl-O-beta-D-glucopyranosyl)-3'-(6-sinapoyl-O-beta-D-gluco-pyra-no-syl)-4'-O-beta-D-gluco-py-rano-side. These quercetin derivatives exhibited unusual structures as to the glucosylation of the aglycones (at positions 3, 3' and 4') and the type of acylation. Studies of bound flavour precursors in green coffee beans (Coffea arabica) have not been carried out to date. We were able to fill out this gap by means of structural analysis of the following compounds. By combination of different preparative analytical steps (CCC, LC and HPLC) with several analytical methods of structural elucidation (HRGC-MS, HPLC-MS/MS, one and two dimensional NMR experiments) five flavour precursors were isolated and identi-fied in green coffee beans. The two isolated linalool disaccharides were identified as 3(S)-linalyl-3-O-beta-D-gluco-py-ra-nosyl-(1-6)-alpha-L-arabinofuranoside and 3(S)-linalyl-3-O-beta-D-gluco-pyra-no-syl-(1-6)-beta-D-apiofuranoside. In addition, three novel flavour precursors were identified as sugar esters, i.e. (3-methyl-butanoyl)-1-O-beta-D-glucopyranosyl-beta-D-apiofuranoside, (3-methylbutanoyl)-6-O-alpha-D-gluco-pyranosyl-(1-2)-beta-D-fructo-furano-side and (3-Methyl-2-buteno-yl)-O-beta-D-gluco-pyranosyl-beta-D-apio-furanoside. The knowledge of the origin of food and its ingredients is actually one of the major topics for the food industry. For the assignment of the geographic origin of green coffee we determined the ratios of 13C/12C, 2H/1H and 18O/16O of extracted caffeine by means of elemental analysator/isotopic mass spectrometry (EA-IRMS). To check the suitability of the analytical data obtained by EA-IRMS we used statistical calculations, i.e. (i) linear discrimination analysis (LDA) and (ii) validation via classification and regression trees (CART). In the course of adap-tion one sample of class 1 (origin Africa) was assigned to class 2 (origin middle and south America) and vice versa, resulting in an error rate of 5.1 per cent. Using cross validation three of the 39 analyzed samples were assigned incorrectly resulting in an error rate of 7.7 per cent. Samples of class 3 (synthetic caffeine) were discriminated from that of natural origin at a rate of 100 per cent.
A) Motivation und Problemstellung Der Computer ist heute eines der wichtigsten Hilfsmittel beim Entwurf und der Entwicklung von Fahrzeugen. Zunächst wurde er von Konstrukteuren für das Computer Aided Design (CAD) von virtuellen Fahrzeugmodellen eingesetzt. Inzwischen ist er in vielen anderen Bereichen der Fahrzeugentwicklung unentbehrlich geworden: der Entwicklungszyklus von Automobilen ist durch die Computer-gestützte numerische Simulation substanziell verkürzt worden. An virtuellen Prototypen gewonnene Ergebnisse können zunächst optimiert und anschließend am realen Prototypen validiert werden. Untersuchungen der Fahrdynamik, des Crash-Verhaltens, der Innenraumakustik und der Außenhautumströmung sind nur einige Anwendungsfelder, in denen Computer-basierte Technologien zur Senkung der Entwicklungskosten beitragen. Nach den Vorgaben aus dem Design wird ein Konstruktionsmodell erstellt; die erzeugten CAD-Daten beschreiben die Fahrzeugkomponenten anhand parametrischer Flächen und zusätzlicher Materialinformationen. Um die Daten in numerischen Simulationen verwenden zu können, müssen die Flächenbeschreibungen zunächst diskretisiert werden. Für die Strukturmechaniksimulation wird das CAD-Modell daher in ein Finite-Element-Modell umgewandelt, das dann zum größten Teil aus drei- und viereckigen Schalenelementen besteht. Das Finite-Element-Modell wird in einem Vorverarbeitungsschritt aufbereitet und mit zusätzlichen Daten ergänzt, bevor es dem Simulationsprogramm als Eingabedaten übergeben wird. Nach der meist sehr zeitintensiven Simulation, die für Gesamtfahrzeugmodelle mehrere Tage in Anspruch nehmen kann, liegen als Ergebnis große Datenmengen vor. Diese können aufgrund ihres Umfangs und ihrer Komplexität nur mit ausgereiften Visualisierungswerkzeugen ausgewertet werden. Die Erkenntnisse aus der Simulationsanalyse fließen an den Konstrukteur zurück. So schließt sich der Zyklus, der den virtuellen Prototypen solange iterativ verbessert, bis alle Zielgrößen erreicht werden. Bereits Anfang der achtziger Jahre wurden Strukturanalysen mit Hilfe numerischer Simulation anhand einfacher Balkenmodelle durchgeführt. Die Modellkomplexität geht mit der Leistungssteigerung der Hardware und der Weiterentwicklung der Simulationssoftware einher: die Modellgröße hat sich seitdem alle drei Jahre mehr als verdoppelt. Der Notwendigkeit, dem Entwicklungsingenieur entsprechende Visualisierungswerkzeuge zur Verfügung zu stellen, wurde bisher von den Herstellern der Simulationssoftware mit eigenen Lösungen begegnet. Anfangs entstanden einfache Darstellungsanwendungen, die das Fahrzeug als Gittermodell zeichneten, ohne einen räumlichen Eindruck zu vermitteln; die Applikationen wurden weiterentwickelt, entsprechen jedoch heute in der Regel nicht mehr dem, was im Bereich der Softwareentwicklung und vor allem der Visualisierung Stand der Technik ist. Der Fortschritt durch wissenschaftliche Forschung in der Computergraphik und die Weiterentwicklung der Hardware, insbesondere der Graphiksubsysteme, lässt die Lücke zwischen dem, was in der Visualisierung möglich ist, und dem, was in kommerziellen Produkten zur Datenanalyse angeboten wird, immer größer klaffen. Zudem ist die Wissenschaft im Bereich der angewandten Informatik stets bemüht, Einsatzgebiete zu identifizieren, in denen neu entwickelte Methoden evaluiert und verbessert werden können. Eine enge Zusammenarbeit zwischen Ingenieuren und Wissenschaftlern erscheint daher als sehr vielversprechend und zwingend notwendig. Die vorliegende Arbeit ist im Rahmen einer engen Kooperation mit der Berechnungsabteilung der BMW-Gruppe entstanden. Sie hat zum Ziel, den bestehenden Fahrzeugentwicklungsprozess im Umfeld der Strukturmechaniksimulation zu analysieren und durch Adaption neuer Methoden der Computergraphik aus anderen Bereichen sowie durch Entwicklung neuer Visualisierungstechniken und Interaktionsmechanismen zu beschleunigen. Eine Evaluation der eingesetzten Konzepte soll anhand einer prototypischen Applikation vorgenommen werden. Bisher wurde in der Visualisierung im Bereich der Strukturmechaniksimulation auf Basis von vierseitigen Schalenelementen nur wenig geforscht. Für die Analyse von Crash-Simulationsergebnissen müssen große, zeitabhängige Datensätze effizient verarbeitet werden. Dabei soll die Netzstruktur des Finite-Element-Modells erhalten bleiben, ohne dass dabei auf hohe Interaktionsraten verzichtet werden muss. Eine schnelle Datenaufbereitung spielt dabei eine ebenso wichtige Rolle, wie die Navigation durch das virtuelle dreidimensionale Fahrzeugmodell mit Hilfe der an einem Standardarbeitsplatz vorhandenen Eingabegeräte. Die Weiterentwicklung der Simulationscodes hat es ermöglicht, Teilstrukturen mit Randbedingungen zu versehen, so dass nun Berechnungen an Teilmodellen vorgenommen werden können. In der Karosserieberechnung werden anstatt homogen vernetzter Gesamtmodelle seitdem unabhängig voneinander vernetzte Bauteile zu virtuellen Fahrzeugmodellen zusammengesetzt. Der Netzanschluss benachbarter Bauteile wird nun nicht mehr über das aufwändige Abgleichen und Nutzen gemeinsamer Randknoten hergestellt; stattdessen überlappen die Bauteilnetze in Flanschbereichen, wo sie durch neu entwickelte Verbindungselemente aneinander gebunden werden. Dies hat unter anderem den Vorteil, dass einzelne Bauteile durch Varianten ausgetauscht werden können, ohne dass die Umgebung neu vernetzt werden muss. Wichtige Entscheidungen müssen bereits in der frühen Phase eines Fahrzeugprojektes aufgrund der durch numerische Simulation gewonnenen Erkenntnisse getroffen werden. Das setzt voraus, dass die bis dahin verfügbaren Konstruktionsdaten in rechenbare Simulationsmodelle umgesetzt werden können. Durch die unabhängige Vernetzung einzelner Bauteile und den unterschiedlichen Konstruktionsstand der verschiedenen Fahrzeugkomponenten kommt es nach der Zusammenführung häufig zu Berührungen und Durchdringungen der Bauteilnetze im diskretisierten Finite-Element-Modell. Diese müssen zunächst detektiert und beseitigt werden, da sie ansonsten die Simulationsergebnisse verfälschen würden. Darüber hinaus müssen die Bauteilnetze miteinander durch Verbindungselemente verbunden werden. Da die Konstruktionsdaten in der frühen Phase jedoch keine vollständigen Verbindungsdaten beinhalten, muss der Berechnungsingenieur den Datensatz mit entsprechender Information aufbereiten. Die Vorverarbeitung von Eingabedaten für den Simulationsprozess nimmt angesichts steigender Variantenrechnungen und einer halbwegs automatisierten Standardauswertung der Simulationsergebnisse gegenüber der Nachbearbeitung einen immer höheren Stellenwert ein. Derartige Ergänzungen der Simulationsmodelle mussten bisher mit Hilfe eines Text-Editors direkt an den Eingabedateien vorgenommen werden. Netzfehler und fehlende Anbindungen zwischen Bauteilen konnten lediglich durch Anrechnen des Modells entdeckt werden. Dazu wurde der Simulationsprozess gestartet und nach einiger Zeit wieder abgebrochen. Durch die Analyse der bis dahin berechneten Zwischenergebnisse werden derartige Unzulänglichkeiten des Eingabemodells sichtbar. Vorweggenommene Konsistenzprüfungen machen zeitaufwändige Anrechnungen überflüssig. Weiteres Prozessoptimierungspotenzial liegt in der Integration und Angleichung verschiedener Werkzeuge. Eine enge Kopplung des Simulationsprozesses an die Vor- und Nachbearbeitung der Daten durch ein und dieselbe Applikation, die sowohl Ein- als auch Ausgabedaten verarbeiten kann, schafft die Grundlage für eine schnelle Iteration im Optimierungsprozess und trägt zur angestrebten Reduzierung der vom Ingenieur zu bedienenden Vielzahl von Applikationen bei. In Zeiten fortschreitender Globalisierung und Fusionierung, aber auch durch zunehmendes Outsourcing der Teilmodellerstellung an darauf spezialisierte Dienstleistungsunternehmen steigt der Kommunikationsbedarf über räumliche Grenzen hinweg zusammenarbeitender Entwicklungsteams. Kostenintensive Besprechungen, zu denen sich alle Beteiligten an einem Ort zusammenfinden müssen, können nur durch Verbesserung der bereits vorhandenen Fernkommunikationsinfrastruktur reduziert werden. Da auf die gemeinsame Betrachtung der Modelldaten als Diskussionsgrundlage bei Besprechungen nicht verzichtet werden kann, bietet sich eine netzwerkbasierte Kopplung entfernter Arbeitsplätze an, um kleinere Besprechungstermine durch Telefonate mit zeitgleicher kooperativer Visualisierungssitzung am Arbeitsplatzrechner ersetzen zu können. Ein weiterer Aspekt befasst sich mit der Absicherung der Zuverlässigkeit von Simulationsergebnissen. Um eine Aussage darüber machen zu können, welche Modifikation der Fahrzeugstruktur das simulierte Verhalten positiv beeinflusst hat, müssen zunächst alle Einflussfaktoren, die auf die Simulation wirken, analysiert werden. Dies geschieht in Stabilitätsanalysen, in denen anhand gleicher Eingabedaten die Streuung der Simulationsergebnisse gemessen und die Ursache dafür erforscht wird. Durch konstruktive Maßnahmen soll in Ursprungsbereichen maximaler Streuung das Modell dahingehend modifiziert werden, dass gleiche Eingabedaten zu annähernd gleichen Simulationsresultaten führen. Ziel dieser Arbeit ist, das Pre- und Postprocessing von Strukturmechaniksimulation im Fahrzeugentwicklungsprozess bezüglich neuer Funktionalität und Leistungsfähigkeit durch die Einbeziehung neuer Graphiktechnologien sowie durch die Entwicklung neuer Visualisierungsalgorithmen signifikant voranzubringen. B) Beiträge dieser Arbeit Da die Arbeit in enger Zusammenarbeit mit der Karosserieberechnungsabteilung der BMW-Gruppe entstand und die Forschungsergebnisse direkt von den Ingenieuren an alltäglichen Problemstellungen eingesetzt werden sollten, mussten zunächst Voraussetzungen für eine erhöhte Akzeptanz bei den Anwendern geschaffen werden. Dazu gehören vor allem kurze Ladezeiten der Daten, eine intuitiv zu bedienende Benutzerschnittstelle sowie komfortable Funktionalität, die es ermöglicht, die Aufgaben schneller zu lösen als mit anderen Applikationen. Die Analyse der zu verarbeitenden zeitabhängigen Simulationsdaten und der zum Einlesen zur Verfügung gestellten Bibliothek führte zu einer geeigneten internen Datenstruktur, die eine effiziente Datenaufbereitung erlaubt und damit zu geringeren Start-up-Zeiten führt als bei vielen kommerziell verfügbaren Visualisierungswerkzeugen. Ferner resultiert aus der Evaluation verschiedener Szenengraphbibliotheken unter Berücksichtigung der Rechnerplattform im Anwenderumfeld die Entscheidung zu Cosmo3D / OpenGL Optimizer. Durch die Datenstrukturen und Funktionalitäten der Bibliothek bleibt der Ressourcenbedarf im Zusammenspiel mit einem optimierten Szenengraph-Design im Rahmen dessen, was auf einem Standard-Arbeitsplatzrechner zur Verfügung steht. Zur Beschleunigung der Bildsynthese werden bereits bekannte Verfahren zur Optimierung polygonaler Modelle für die Weiterverarbeitung in der OpenGL Pipeline mit adaptierten Algorithmen verglichen, die unter Berücksichtigung der zugrunde liegenden Daten Quadrilateralstreifen maximaler Länge bilden. Zusätzlich wird der Einsatz verschiedener Detailstufen im CAE-Umfeld untersucht und eine Lösung zur deutlichen Steigerung der Bildwiederholrate während der Navigation durch das Finite-Element-Modell präsentiert. Durch die Entwicklung und Evaluation Textur-basierter Visualisierungsverfahren werden deren Vorzüge anhand verschiedener Beispiele aus dem Berechnungsumfeld verdeutlicht. Daraus lässt sich die Notwendigkeit ableiten, Standard-Arbeitsplatzrechner in Zukunft mit entsprechender Graphik-Hardware auszustatten, um von den Möglichkeiten moderner Visualisierungsalgorithmen profitieren zu können. Im Rahmen der vorliegenden Arbeit wurde die Möglichkeit geschaffen, nach dem interaktiven Zusammenführen der Modellkomponenten aus verschiedenen Datenquellen auftretende Netzfehler zu visualisieren und selektiv zu beheben. Dazu kommen auf hierarchischen Datenstrukturen basierende Algorithmen zum Einsatz. Verbunden mit Methoden zur Darstellung und interaktiven Modifikation von Verbindungselementen sowie der Detektion fehlerhafter Schweißpunktdaten wird die Grundlage geschaffen, um Finite-Element-Modelle für die Crash-Simulation effizient aufzubereiten und die Modellerstellung für Variantenrechnungen stark zu vereinfachen. Speziell auf die Bedürfnisse der Berechnungsingenieure zugeschnittene Interaktions- und Navigationsmechanismen sowie frei bewegliche Clip-Objekte erleichtern den Umgang mit den Modelldaten. Durch die Entwicklung dreidimensionaler Selektionsobjekte und eine effiziente Schnittkraftberechnung steht die Kraftflussvisualisierung mit Hilfe dynamischer Kraftflussröhren nun auch als interaktives Analysewerkzeug im Postprocessing zur Verfügung. Die Berechnung der notwendigen Größen im Batch-Betrieb und die anschließende Zwischenspeicherung in einem eigenen Dateiformat ermöglicht die Standardauswertung von festgelegten Kraftflussverläufen im Anschluss an die Simulation. Dies trägt weiterhin zur Beschleunigung und Automatisierung der Nachverarbeitung bei. Mit der Entwicklung eines Bild- beziehungsweise Filmgenerators konnte mit Ergebnissen dieser Arbeit zur Entwicklung eines Integrationswerkzeuges für die Ablaufsteuerung und das Datenmanagement in der Karosserieberechnung beigetragen werden. Es werden zwei Lösungen für Szenarien einer kooperativen Sitzung mit mehreren Rechnern präsentiert. Die Ergebnisse zeigen auf, wie zeitaufwändige Treffen zwischen Ingenieuren durch Telefonate mit gleichzeitiger kooperativer Visualisierungssitzung ersetzt werden können. Das vorgestellte Verfahren zur Stabilitätsanalyse von Simulationsprozessen hilft, Ursprünge von Instabilitäten aufzudecken und die Aussagekraft der Simulationsergebnisse verbesserter Modelle zu erhöhen. Durch diese Arbeit ist eine prototypische Visualisierungsplattform für die Vor- und Nachbereitung von Strukturmechanikdaten namens crashViewer entstanden. Das objektorientierte Softwaredesign des Prototypen erlaubt die Integration weiterer Datenformate sowie die Implementierung neuer Algorithmen zu deren Evaluation im produktiven Einsatz in der Karosserieberechnung, aber auch in anderen CAE-Bereichen. C) Gliederung der Arbeit Im Folgenden wird ein Überblick über den Aufbau dieser Arbeit gegeben, woraus der Zusammenhang der Kapitel untereinander hervorgeht. Kapitel 2 motiviert die Entwicklung einer in die Simulation integrierten Vor- und Nachverarbeitungsapplikation. Zu Beginn führt das Kapitel in das breite Feld der digitalen Fahrzeugentwicklung ein. Das Umfeld der Crash-Simulation wird detaillierter betrachtet, wodurch ein Fundament für ein besseres Verständnis der darauffolgenden Kapitel geschaffen wird. Kapitel 3 gibt einen Überblick zu den Grundlagen der interaktiven Computergraphik und der Visualisierung. Darüber hinaus werden die der Crash-Simulation zugrunde liegenden Daten beschrieben, indem zunächst die Strukturen, aus denen sich ein Gesamtfahrzeugmodell im Allgemeinen zusammensetzt, erläutert werden und anschließend auf die Datenformate der Simulationseingaben beziehungsweise der Simulationsergebnisse eingegangen wird, um die breite Spanne der zu verarbeitenden Daten zu beleuchten. Kapitel 4 präsentiert ein effizientes Szenengraph-Design für zeitabhängige Finite-Element-Modelle mit invarianter Topologie. Dazu werden die notwendigen Grundlagen der verwendeten Graphikbibliotheken vermittelt und Erweiterungsmöglichkeiten diskutiert. Kapitel 5 erläutert die Architektur des im Rahmen dieser Arbeit entstandenen Prototypen und gibt einen Überblick über entwickelte Interaktionsmechanismen zur effizienten Datenanalyse. Kapitel 6 diskutiert verschiedene Verfahren zur Darstellungsbeschleunigung. Während sich die Quadrilateralstreifengenerierung und die Simplifizierung mit der Optimierung der modellierten Geometrie für eine effiziente Verarbeitung in der Graphik-Hardware auseinandersetzt, zeigt der letzte Teil dieses Kapitels, wie durch den Einsatz von Texturen zusätzliche Geometrieverarbeitung überflüssig wird. Kapitel 7 stellt spezielle Funktionalitäten für die Vorverarbeitung von Eingabemodellen vor. Außer der in verschiedenen Bereichen eingesetzten Distanzvisualisierung wird das interaktive Modifizieren von Schweißpunktdaten und die Parameterübertragung zwischen inkompatiblen Gittern erläutert. Kapitel 8 veranschaulicht Konzepte für die Nachverarbeitung von Simulationsergebnissen. Es werden Techniken zur Visualisierung skalarer und vektorieller Größen präsentiert. Darüber hinaus werden die interaktive Kraftflussvisualisierung und die Darstellung von Instabilitäten in Simulationsergebnissen betrachtet. Die CORBA-basierte Erweiterung zum gemeinschaftlichen Arbeiten räumlich getrennter Anwender, sowie die Batch-basierte Bild- und Film-Generierung von Strukturmechanikdaten schließen die Vorstellung der im Rahmen dieser Arbeit neu entwickelten Methoden ab. Kapitel 9 stellt die Ergebnisse dieser Arbeit in einen Kontext. An Beispielen aus dem produktiven Entwicklungsprozess werden die erzielten Fortschritte verdeutlicht und die Akzeptanz bei den Anwendern kritisch beleuchtet. Abschließend wird ein Überblick über weiterführende Arbeiten gegeben, die auf den vorliegenden Ergebnissen basieren. ; This thesis presents visualization techniques and interaction concepts that have been developed for the pre- and post-processing of structural mechanics. This work was done in cooperation with the crash simulation department of the BMW Group. The automotive industry's main goal is ensuring its share of a global market, which is becoming ever more competitive and dynamic. On the one hand, product quality has to be increased in relation to fuel consumption, weight, and passive safety. On the other hand the development process needs to be streamlined in order to reduce development costs and time to market. These objectives are hoped to be achieved by making extensive use of virtual prototyping. The vehicle development process has completely changed during the past two decades. In the early eighties finite element analysis found its way into the simulation of structural mechanics in the German automotive industry. Initially developed for military purposes, in 1983 a group of engineers of several automotive companies started feasibility studies based on finite element models containing less than 5,000 beam elements. Seven years later productive results of finite element analysis in structural mechanics started to influence car body development. In the second half of the nineties important project decisions were made during the early phase of the development process based on a deeper insight into crash behavior provided by crash-worthiness simulation results. Today, numerical simulation is an indispensable part of the computer aided product development chain in the automotive industry. After the design of a new car model is completed, a digital model is constructed by means of computer aided design (CAD). In a meshing step the created parametric surfaces defined by spline curves are discretized. The results describe the geometry of the car body by finite elements, for crash simulation mainly three- or four-sided shells but also beams and volumetric elements. The finite element model is completed, for example, with material properties, contact information, and boundary conditions. This is done in a preprocessing step. Once the simulation input data is available, the whole model is handed over to the simulation process which takes about one or two days using massive parallel processing. The deformation is recorded in a large result file. Commonly, the first 120 milliseconds of a crash are simulated and each two-thousandth time step is stored. A time step of less than one microsecond leads to a result file containing more than sixty snapshots. Typically, physical data such as acceleration, velocity, displacement, and forces per nodes or thickness, stress, strain, and other energies per element are recorded. During post-processing the information is analyzed in order to evaluate crash-worthiness. The feedback provided for the construction department closes the loop when all goals set for the car body structure have been attained. The virtual car body development in the pre- and post-processing of crash simulation divides into two main phases: (1) In the concept phase, new ideas are discussed and evaluated in order to reach a priority objective like minimizing car body weight. Only few people per car project are involved for a period of 12 to 18 months in this first stage. (2) After the basic decisions have been made regarding new concepts, a second phase follows which compromises all other fields to refine those concepts with respect to other objectives coming from the area of stability, dynamic or NVH. This phase requires many engineers from different departments for a period of more than 30 months to optimize the product. The later undesirable properties are revealed the higher the cost will be for the then necessary changes. Until the late nineties transitions between adjacent car body parts were modeled as two finite element meshes that share common nodes at the border. Each time a car body part was replaced by an optimized variant in order to enhance the crash behavior either the whole car model had to be re-meshed or border nodes had to be adapted manually. Therefore, preparing such variant models was a very time consuming task. After simulation codes like PAM-CRASH were able to simulate car body connections like for example spotwelds, finite element models became more like their counterparts made of steel. Now, a flange is constructed, along which adjacent car body parts can be connected without sharing common nodes. This allows for an independent meshing of car body parts and therefore for more variant computations. However, independent meshing lead to mesh penetration or even perforation in flange areas when inhomogeneous meshes are assembled. Thus, a new task arose for preprocessing where those mesh errors have to be removed in order to avoid error-prone simulation results. On the post-processing side, large time-dependent data sets require dedicated visualization methods that help the engineers to interpret the huge amount of data at interactive frame rates. Therefore, finite element meshes need to be prepared for an optimized processing in the graphics pipeline. Typical types of data that have to be visualized are scalar values, vectors, tensors or any combination thereof. In 1997, when most of the commercial visualization tools provided by solver companies as add-on to the simulation software could no longer provide state-of-the-art graphics, a demand arose for new visualization techniques available for productive use. Besides, the growing throughput caused by an increasing number of car body variants and the acceleration of computation hardware allowing more optimization cycles, made it necessary to automate as much processing steps as possible. The growing outsourcing of development tasks to suppliers and the number of merges in the automotive industry, which entail cooperation of corresponding departments at different sites, require a client-server-solution for cooperative work. Finally, the simulation community is concerned about the validity of their results compared to real crash-tests. It is important to detect and minimize the sources of scattering in the results originated by the simulation model or process. This is also a precondition for stochastic simulation, which is used in order to optimize the crash behavior by varying input parameters. The goal of this thesis is to provide solutions to some of the issues just stated. First of all, the applicability of different scene graph APIs is evaluated for large time-dependent data sets. APIs such as Performer or Cosmo3D / OpenGL Optimizer have been developed to take advantage of multiprocessing. Those APIs can perform model optimization during scene graph creation and benefit from multiprocessing using frustum culling and occlusion culling while traversing the scene graph to increase frame and interaction rates. Because of the large time-dependent databases and the limited memory of the workstations an efficient scene graph design is very important in order to handle the complex data interdependencies and to achieve high rendering speed. While five years ago the models consisted of about 250,000 finite elements with nearly the same number of nodes, today the size of the models has almost quadrupled. Since the element topology does not change in crash simulation, the connectivity of the finite elements needs to be stored just once. An index set representing the topology is shared across the sub-graphs of all time steps. A Gouraud shaded surface requires to do the edge detection on the state where geometry is deformed most, which is in general the last one. In order to minimize memory consumption, the index set is used for both coordinates and normals. Therefore, coordinates at vertices with multiple normals need to be added once per normal. Other scene graph nodes, e.g. the one specifying the appearance, can also be shared. Handling triangular elements as degenerate quadrilaterals allows to represent a mesh of three- and four-sided shell elements in one scene graph node. The prototype application named crashViewer, which was implemented to evaluate the methods developed in this thesis, uses Cosmo3D / OpenGL Optimizer for historical reasons: this bundle had been presented as predecessor of the 1997 announced Fahrenheit project, which was aborted two years later. Nevertheless, the proposed scene graph design allows to visualize 60 time steps of a model containing half a million elements and the same number of nodes with a memory consumption of 360 MB (flat-shaded) or 970 MB (Gouraud-shaded), provided that a crease angle of 20 degree leads to 40% more normals than vertices. One basic requirement for an interactive visualization application is that the frame rate does not fall below an acceptable minimum threshold. What "acceptable" means depends on data and experience with other tools. Generally speaking, visualization data should be rendered as fast as possible. For this reason, one aim of this work is to point out methods to optimize the finite element meshes' rendering acceleration. Two approaches are examined: (1) concatenation of adjacent elements to reduce data redundancy during geometry processing and (2) mesh simplification to remove information that does not significantly influence the shape of a car body part. Although OpenGL Optimizer provides a tri-stripper (opTriStripper) that is able to convert any polygonal mesh into strips of triangles, it is not applicable in this field because the original mesh structure should still be visible in wireframe mode. Hence, a quadrilateral stripper was developed, which analyses the mesh structure and generates many parallel bands of maximum length. As a matter of fact, quad-strips are not as versatile as tri-strips because each turn costs two extra vertices. However, compared to opTriStripper's reduction to 63.5% the proposed bandification algorithm reduces the number of referenced vertices to 54% of an unstripped representation averaged over 3,274 car body parts. Depending on the availability of vertex arrays the bandification leads to a rendering speed-up factor of about 4.5 without and 1.7 with vertex arrays in comparison to the unstripped geometry. In order to achieve even higher frame rates during camera interaction, a two-stage level-of-detail concept is developed. In addition to a fine level displaying the original mesh resolution, which is essential for the visualization in pre- and post-processing of structural mechanics simulation, a second level with coarse triangles is used as intermediate model for camera movement. Each time the user modifies the view, a previously simplified mesh is rendered until the camera parameters are no longer changed. Then the finer level of detail is displayed. An simplification algorithm was implemented which uses the one-sided Hausdorff distance as an error measure and which is compared to the Successive Relaxation Algorithm provided by OpenGL Optimizer as opSRASimplify. Aside from the interface opSRASimplify, which turns out to be unsuitable for getting an optimal decimated mesh with respect to a predetermined error tolerance, the resulting mesh quality is not as high as with the new HECSimplify simplifier. Breaking the error criterion can be avoided by defining an appropriate cost function for opSRASimplify, which causes less triangles to be removed compared to HECSimplify. If the decimation target is specified to achieve the same level of reduction, then the resulting triangle mesh contains gaps and the model appears distorted. Different car body models are reduced to 9-18% of the original number of triangles applying HECSimplify. This leads to a rendering speed-up factor of between 3.4 and 6.7. There is a trade-off between rendering speed and memory consumption. HECSimplify only applies half-edge collapses to the polygonal mesh. These operations just modify the topology, not the vertex coordinates. Therefore, the original and the reduced mesh are able to refer to the same set of coordinates. On the one hand, coordinate set sharing requires less memory, on the other hand the speed-up factor of a model that could be reduced to 9% of the original triangles is far away from 11. Both modules, the quad-stripper and the simplifier, are embedded into the Cosmo3D / OpenGL Optimizer framework by providing corresponding action objects and new scene graph nodes. Furthermore, the scene graph API was extended by several other new objects to overcome the restrictions with line picking or to provide new functionality. For example, the csClipGroup node enables the user to control a freely movable clip-plane, which affects only the underlying scene graph. This provides better insight into heavily deformed car body structures. Another form of clipping that is developed within this thesis uses one-dimensional RGBA texture maps in order to hide geometry that should not be displayed under certain conditions. This visualization method can be used, for example, to mask out those model regions that do not correspond to a given critical value range. In combination with distance values to adjacent car body parts the rendering can be restricted to potential flange regions of the model. For that purpose, first of all the parameter has to be transformed into a texture coordinate with respect to the specified parameter range. Then, a color scale is defined as a texture map. Using the GL_DECAL environment the color coding can be limited to regions of certain value ranges. Using the same mechanism in the GL_MODULATE environment with the alpha-test enabled allows for clipping the geometry where the corresponding values map into texture regions with an alpha component set to be fully transparent. This technique facilitates the accentuation of critical structures, because the user is able to interactively modify the texture map or the texture lookup table, if an index texture is used to control the visualization. As stated above, the most important change in finite element modeling for crash simulation was the introduction of independently meshed car body parts. Since the assembly of such inhomogeneous meshes may include perforations or penetrations, for example, caused by a shifted discretization along curved flanges, there was a growing demand for an interactive method to detect and remove this kind of mesh errors. Perforating regions can be detected by applying collision detection to the finite element model. Efficient collision detection as proposed by Gottschalk et al. requires hierarchical sub-structuring of the car body model. Consequently, in this study, each car body part is subdivided by a bounding volume tree (BVT). Different bounding volume types are tested: spheres, axis-aligned (AABB), and object-oriented bounding boxes (OBB). For perforation detection, where computation-intensive element-element-intersection tests are necessary at the lowest BVT level, OBBs turn out to be most efficient because they are very tight positioned around the element structure. Hence, downward traversals in the BVT can be terminated early because any one of 15 separating axes that defines a plane disjoining both volumes can be found. In order to detect penetrating nodes the minimum node-element-distances need to be computed. The BVT traversal algorithm is adapted appropriately. Children of a BVT node are visited only if their distance falls below a specified maximum distance of interest. Penetrating node-element-pairs are collected in a list for subsequent visualization. Using an interface to the original PAM-CRASH algorithm for penetration removal it is possible to provide the desired interactive mechanism that allows the engineers even to restrict mesh modification to selected car body parts. This is a big advantage over starting the simulation until initial forces move penetrating nodes apart from penetrated elements and restoring the computed mesh modification in the input data deck. First, the interactive method gives direct feedback and the engineers do not have to switch tools. Second, during the optimization of the car body structure by replacing single car body parts by variants this procedure enables the engineers to keep everything but the variant part fixed. Thus, only the nodes of the incoming part are aligned to its neighborhood and the confined modification makes it easier to compare the results of two simulations runs. What is more, the bounding volume hierarchy provides beneficial effects on many other tasks in pre- and post-processing of crash-worthiness simulation. It can be used to detect and follow flanges automatically or to spot flange regions that have only been inadequately connected. A basic task is the verification of connecting elements. For example, a spotweld must not exceed a maximum distance to those parts it should connect. Otherwise, a pending spotweld may suspend the simulation run delaying the development process and raising costs. In this study, several criteria for the validation of connecting elements are elaborated. Erroneous spotweld elements are emphasized by different colors and/or geometry. The engineers are successively guided to each problematic connection. Without this feature it would not be possible to find these model errors in such a short time. Furthermore, a method is developed that enables the computation engineers to effectively add missing connection information by means of spotwelds to the input model. Thus, it becomes even practicable to start with crash-worthiness simulations before detailed connection data is available from CAD data. One aim in virtual vehicle development is to combine the results of several areas in numerical simulation. In order to map the real development chain closely onto the virtual one, material properties influencing preliminary steps like forming have to be considered. For example, a deep-drawn blank sheet has a lower thickness in areas of high curvature than in other areas. As long as the material of a car body in crash simulation is assumed to be constant the before mentioned manufacturing influences cannot be properly represented. A hardware-based method is developed in this thesis for the efficient mapping of any type of data between incompatible meshes that are geometrically congruent. It utilizes the transformation and interpolation capability of the graphics subsystem. Element identifiers of one mesh are color-coded. For each element of the other mesh the view matrix is set up appropriately and the visible part of the first mesh is rendered. The colors that represent the element IDs can be read back into main memory. After the correlation between elements is finished in graphics hardware, the values are finally transfered in software. The post-processing of crash-worthiness simulation results necessitates the handling of large data sets. Since a binary result file may contain 2 GB of data but an engineer's workstation often is limited to 1 GB of main memory these boundary conditions need to be considered while designing data structures and algorithms of visualization software for this application area. On the other hand, interactivity and high rendering performance is a precondition to obtain acceptance by the user. The required tool should provide interaction mechanisms that assist the user in exploring and navigating through the data. Mainly, it should help to interpret the data by making the invisible visible. Besides an effective scene graph design, in this study, the internal data structures of the developed prototype application have been implemented with memory consumption in mind. Parameter transfer in post-processing is done state by state very fast by pointer-based data structures. The extensive use of texture mapping enhances the rendering performance. Visualization techniques are proposed that use textures for the direct mapping of scalar values onto the car body geometry, for the animated display of vector data, and for the visual discretization of the finite element mesh in the form of a wireframe texture map. All these approaches spare the transformation stage of the graphics pipeline additional processing of vertex-based data. For example, the traditional display method for shaded geometry with visible element borders is two-pass rendering, which halves the frame rate. The application of a black-bordered luminance texture, which is white inside, onto each geometric primitive balances the load between geometry and texture unit. Also, the encoding of a vector's direction by applying an animated texture onto a line reduces geometry load and leaves the underlying structure mostly visible in contrast to conventional vector visualization with arrows. Force flux visualization, first presented by Kuschfeldt et al. gives an overview over which components of the car body model absorb or transfer forces. It is necessary to detect and to understand the force progression within the car body structure. For example, the longitudinal structures within the front part of a car body play an important role for increasing the ability of the body to absorb forces in a frontal crash. Force flux visualization enables the engineers to design car components with an optimal crash behavior. This technique was made available for interactive daily use in crash simulation analysis. Providing a dedicated interaction mechanism, the prototype application allows to interactively define a trace-line along which the force flux can be visualized. For each section plane positioned in small intervals perpendicular along the trace-line the simulated node forces are accumulated. The resampling is accelerated by utilization of the bounding volume hierarchy. Each section force sum is then represented by color and radius of one ring of a tube around the trace-line. The dynamic trace-line definition aligns the force tube to the deforming structure of the analyzed car body part, for example, a longitudinal mounting. The specified trace-lines can be stored in order to precompute force tubes off line. This can be done by another prototype application in batch processing after simulation has finished. During a visualization session the precomputed values can be directly converted into time dependent force tube representations. The decoupling of time consuming computation and the interactive visualization further accelerates the analysis of crash-worthiness simulation. Starting multiple simulation runs with the same input data deck will produce different results. The scattering in results has to be minimized in order to be able to evaluate the influence of structure modifications. This work presents a method to detect and visualize instabilities of the simulation. The above stated texture-based visualization points out sources of instability and helps the engineers to determine if a branching is caused by the model structure or if it was originated by the solver. The pros and cons of different measurement functions are discussed. Furthermore, a CORBA-based synchronization of multiple viewers displaying different data sets is presented. This allows to analyze the simulation results of one run in direct comparison to those of other runs. It is very useful to view the differences in crash behavior of multiple car body models on one workstation. Moreover, this functionality can be used in combination with a telephone call to supersede a meeting between a computation engineer and his external supplier. The visualization is done locally on each client. Providing that data and software is available at each participating client, the only data that have to be transferred during a cooperative session are the events triggered at the steering master-client and propagated to one or more slave-clients. A master token decides which participant is able to send generated events to the other instances. This mechanism avoids conflicting camera control when multiple users try to modify their view at the same time. Another approach describes how an image-based client-server model can be used in this context. After a frame has been rendered on the server, it is encoded to reduce the amount of data. The encoded image stream is transferred to any client that is able to decode and display. There are less requirements for the client but the connection needs to provide a certain bandwidth. This scenario can also be used for remote visualization. The prototype crashViewer can be connected to a Java applet running inside a web-browser. Finally, a method for standardized analysis of crash-worthiness simulation is presented. A batch-processing prototype application has been developed to generate digital movies using a predetermined camera path. The contributions of this thesis aim at further acceleration of the virtual vehicle development process, for example, by introducing new interaction mechanisms, making extensive use of hierarchical data structures, using hardware-accelerated visualization techniques, and providing solutions for process automation.