Die deutsche Wirtschaft hält Kurs und wird in diesem Jahr wohl um 1,8 Prozent wachsen, im kommenden Jahr, bei leicht anziehender Dynamik, um 1,9 Prozent. Damit hält das DIW Berlin an seiner Prognose vom Sommer dieses Jahres fest. Der Beschäftigungsaufbau setzt sich fort; die Arbeitslosenquote sinkt in diesem Jahr auf 6,4 Prozent und verharrt dort. Die Inflation ist aufgrund der deutlich gesunkenen Ölpreise in diesem Jahr niedrig und liegt bei 0,4 Prozent; im kommenden Jahr beläuft sie sich auf 1,4 Prozent. Die Zuwächse der Weltwirtschaft dürften sich im Prognosezeitraum etwas erhöhen. Vor allem in den Industrieländern sorgen die erneut gesunkenen Energiepreise für weiterhin niedrige Inflationsraten. Hinzu kommen die in vielen Ländern stetigen Verbesserungen auf dem Arbeitsmarkt. Zusammen stützt dies die Kaufkraft der Haushalte und den Konsum. Im Euroraum schreitet die Erholung voran. Der Außenwert des Euro ist schwach, die Geldpolitik sehr expansiv und wichtige Handelspartner wachsen kräftig, so dass sich der Konsum gut entwickeln und im weiteren Verlauf auch die Investitionstätigkeit der Unternehmen erholen dürfte. Für die Schwellenländer ist zunächst nicht mit kräftigem Wachstum zu rechnen. Stärkere Schwankungen an den Finanzmärkten führen zu schlechteren Finanzierungsbedingungen. Erst im kommenden Jahr, wenn etwa Russland und Brasilien die Rezession hinter sich lassen, dürfte sich die Konjunktur etwas stabilisieren. Die deutschen Exporte folgen weiter ihrem Aufwärtstrend: Ein kräftigerer Aufschwung in wichtigen Industrieländern, aber auch die fortgesetzte Erholung im Euroraum kompensieren die etwas schwächere Nachfrage aus den Schwellenländern. Per saldo trägt der Außenhandel jedoch kaum noch zum Wachstum bei, denn die Importe werden im Zuge der dynamischen Binnenkonjunktur deutlich steigen. Der Konsum stützt das Wachstum der deutschen Wirtschaft. Der Beschäftigungsaufbau setzt sich fort - die Zahl der Erwerbstätigen dürfte etwa mit dem Tempo der vorangegangenen Quartale steigen - und die Löhne legen spürbar zu, in diesem Jahr auch wegen der Einführung des gesetzlichen Mindestlohns. Hinzu kommen deutliche Zuwächse bei den Sozialleistungen; dies liegt vor allem an kräftig steigenden Renten, aber auch den Flüchtlingen fließen Leistungen zu, die den privaten Verbrauch anschieben dürften. Die Investitionen werden sich dagegen insgesamt eher verhalten entwickeln. Die Sorgen um die Zukunft des Euroraums dürften die Investitionspläne dämpfen. Zudem bestehen erhebliche Unsicherheiten über die Entwicklung wichtiger Absatzmärkte, insbesondere in China, die sich zuletzt sogar intensiviert haben. Hinzu kommen ungelöste geopolitische Konflikte, vor allem die Spannungen mit Russland. Dennoch zeichnet sich eine moderate Ausweitung der Investitionen in Ausrüstungen ab. Bei robuster Auslandsnachfrage und ausgelasteten Kapazitäten in der Industrie dürften sie im Verlauf sogar anziehen, zumal die dynamische Binnennachfrage Impulse geben dürfte. Die Risiken für die Konjunktur bleiben indes hoch und haben zuletzt sogar zugenommen. Die bevorstehende Zinswende in den USA könnte zu unerwartet starken Kapitalabflüssen aus den Schwellenländern führen; dies könnte angesichts der hohen privaten Verschuldung - gerade auch weil diese oftmals in Fremdwährung besteht - die konjunkturelle Dynamik in diesen Ländern zusätzlich dämpfen. Einer deutlichen Abkühlung der chinesischen Wirtschaft dürfte die Regierung zwar mit expansiven Maßnahmen begegnen, allerdings besteht das Risiko, dass sie nicht rechtzeitig oder aber nicht ausreichend gegensteuern kann. Auch hat sich in der Vergangenheit gezeigt, dass die Unsicherheit über die weitere Entwicklung der europäischen Integration schnell wieder aufflammen kann. Zudem weist die zuletzt hohe Volatilität der Ölpreise darauf hin, dass sich auf dem Markt noch kein stabiles Gleichgewicht eingestellt hat. Die damit verbundene Planungsunsicherheit könnte die Dispositionen vieler Unternehmen stärker dämpfen als hier unterstellt. ; The German economy is on track, and will likely grow by 1.8 percent this year; in the coming year, with a slight increase in dynamics, it will grow by 1.9 percent. With these figures DIW Berlin confirms its forecast from this summer. Employment growth continues; the unemployment rate will decrease this year to 6.4 percent, where it will remain in 2016. Due to the sharp drop in oil prices this year, inflation is low and stands at 0.4 percent; next year it will climb to 1.4 percent. Global economic growth is likely to experience a slight increase during the forecast period. In the industrialized countries in particular, the renewed drop in energy prices keeps inflation rates low. In addition, many countries have experienced steady improvements in labor markets. Together, these two factors support consumption and the purchasing power of households. Recovery in the euro area is moving forward. The euro's external value is low, the monetary policy is very expansionary, and major trading partners are growing vigorously; consumption is likely to develop well, and in the course of time, corporate investment is also expected to recover. In the emerging markets, growth will remain subdued this year. Higher financial market volatility is leading to deterioration in financing conditions. They are expected to contribute more to global growth next year, when for example Russia and Brazil have emerged from recession. German exports continue in their upward trend: A strong upturn in major industrial countries, as well as the continued recovery within the euro area, are compensating for the somewhat weaker demand from the emerging countries. In net terms, however, foreign trade is still barely contributing to growth, because imports will increase significantly as part of the dynamic domestic economy. Consumption is supporting the growth of the German economy. The low inflation substantially supports consumers' purchasing power. But nominal incomes are also experiencing strong increases: The employment growth continues - the number of employed individuals is expected to rise at roughly the rate of previous quarters - and wages have noticeably increased, also due to the introduction of the minimum wage. Other important factors are the significant increases in social benefits; these are primarily due to a sharp increase in pensions, but also to the benefits being received by the refugees, which should give private consumption an additional boost. In contrast, investment will be rather subdued overall. Concerns about the future of the euro area are likely to dampen investment plans. Furthermore, considerable uncertainties about the development of important markets have recently intensified, particularly in China. There are also unresolved geopolitical conflicts, especially the tensions with Russia. Nevertheless, a moderate expansion of investment in equipment is emerging. With robust foreign demand and fully utilized capacities in the industry, these investments are expected to rise over time, especially since the dynamic domestic demand should provide an impetus. However, the risks to the economy remain high and in fact have recently increased. The impending interest rate turnaround in the U.S. could lead to unexpectedly strong capital outflows from the emerging countries; given the high private debt - especially since it is often in foreign currency - this could dampen economic momentum in these countries as well. Although a significant slump in the Chinese economy is expected to be handled with expansionary measures by the government, there is the risk that they may not take sufficient countermeasures in time. It has also been shown in the past that uncertainty about the further development of European integration can flare up quickly. In addition, the recently high volatility of oil prices shows that a new stable equilibrium still has not been established on the market. The planning uncertainty bound up with this could dampen the disposition of many corporations more strongly than assumed here.
The economic recovery in the euro area has accelerated in the course of 2004. During the first two quarters, real GDP rose at an annual rate of slightly over 2 percent, after about 1½ percent in the second half of 2003. For the first time since 2001, overall capacity utilization increased. Exports were driven by the boom in the world economy so that the dampening effects of the previous appreciation of the euro were more than compensated. Internal demand picked up somewhat; especially private consumption recovered whereas investment of firms was rather sluggish. As a consequence of the upswing, the situation on the labor market stopped deteriorating. Inflation also picked up because of the surge in oil prices. During the summer, the HICP rose by more than 2 percent. The sharp increase in oil prices will dampen domestic demand in the near future. In addition, the boom in the world economy has probably already passed its peak. Consequently, the economic expansion in the euro area is likely to slow down somewhat in the rest of this year. This forecast is supported by various leading indicators. For 2004 as a whole, we expect real GDP to increase by 1.9 percent. The unemployment rate will average 9 percent and will thus be slightly higher than last year. Also because of higher oil prices, inflation will be higher than the target rate of the ECB. In 2005, the expansion of domestic demand will slow down further. Especially consumers will be cautious given the weak prospects for income in the medium term. External demand will also lose momentum so that real GDP growth will be moderate in the course of next year. The rate will average 1.9 percent. Inflation is expected to be slightly below 2 percent. All in all, the recovery will be very modest when compared to previous cycles. One reason is that the growth of potential output is lower than before. Our estimate for the current year amounts to 1 percent. The slowdown in recent years is mainly due to the slower growth of productivity. In contrast, the number of total hours worked has increased. Apparently gains of employment can only be achieved at the expense of productivity growth. This is a pessimistic diagnosis given the goal of the EU to become the most dynamic economic region of the world. In spite of the economic recovery, the situation of public finances has deteriorated further. The aggregated budget deficit will probably increase to 2.8 percent of GDP, compared to 2.7 percent last year. The deficits will also be higher than reported in most national Stability Programmes. In addition to Germany, France, the Netherlands, and Greece, the deficit ratio will also exceed the 3 percent margin in Italy and Portugal. The current proposals for a reform of the Pact are mainly concerned with a more generous interpretation of the 3 percent ceiling. However, the main target of the Stability and Growth Pact (SGP) is that government budgets should be balanced or in surplus over the medium term. This target has not been achieved in many countries in recent years; it is not even planned in the Stability Programmes for France and Germany until 2007. This failure cannot be attributed at all to the weakness of the economy in recent years. In fact, the cyclically adjusted deficits of these two countries are higher today than at the end of the 1990s. In other words, there has not been a consolidation of the budget at all. If the SGP loses its strength or if there were no binding rules for fiscal policy, the consequences would be severe for various reasons. First of all, it would be a disadvantage for the countries themselves. Given the likely demographic changes, it would be wise to start saving now; the fact is, however, that the debt burden continues to increase making fiscal policy less sustainable. Second, those countries which intend to join the monetary union in the near future hardly have any incentive to stick to the targets of the Pact if other members ignore or stretch the rules. The criteria for entry would therefore be softened which would be in stark contrast to the fundamentals of the European Monetary Union. The ECB has left key interest rates at a very low level for more than a year. Meanwhile, the euro area economy has recovered as expected by the central bank. The high oil prices are a risk factor for the future path of economic activity. However, this will probably not lead to a cut of interest rates especially because inflation has remained stubbornly high. The next step is likely to be a tightening of monetary policy. Given our forecast of a moderate upturn, we expect that monetary policy will be tightened only moderately; a raise of 25 basis points is likely around the turn of the year. Such a move is also in line with the reactions of the ECB in the past, which can be described by an empirical Taylor rule.
In a world of turmoil, the strongest military alliance faces an uncertain future, too. After the elections in the US, former German foreign minister Joschka Fischer even predicts a disintegration of the West. One should have no illusions - without the US in the lead the West will not survive in its current shape, Fischer argues, referring to a reluctant new president Donald Trump to fully support NATO and her role to safeguard the integrity of her member states. While NATO has demonstrated a surprisingly strong resolve during the Warsaw summit towards Russia's expansion in Ukraine, the alliance is not willing to really engage herself in the Middle East with a robust mission with combat troops on the ground leaving the embattled area to Moscow's ambitious military intervention and the creation of a massive sphere of influence. The Western alliance will have to adjust to the new realities in which Europe is required to do more for its defense. The year 2017 will be crucial as a test case for the willingness of NATO's members to face the new challenges. Will it withstand these obstacles, or will, as Fischer is fearing, "the Western world, as we have known it, sink down in front of our eyes"? (S+F/Pll)
In dieser Arbeit, einem Beitrag aus dem Bereich der historischen Musikpädagogik, wird der Gesang in seinen unterschiedlichen Funktionen in Lehrerbildung, Kirche und Schulalltag untersucht und diese mit den verschiedenen Lehrordnungen und Unterrichtsvorschriften in Beziehung gesetzt. Nach Hinführung und Fragestellung zum Thema, nach Darstellung der angewandten Methodik und der Struktur der Arbeit, wird kurz über die staatlich gelenkte Lehrerbildung in Bayern vor dem in der Arbeit besprochenen Zeitraum informiert. Das folgende Kapitel ist dem Gesangunterricht der Präparanden vom Beginn des 19. Jahrhunderts bis 1866 gewidmet. Präparanden waren Jugendliche, die sich zum Lehrerberuf entschlossen hatten und sich auf den Besuch des Seminars vorbereiten mussten. Diesen Unterricht erhielten sie bis 1866, dem Jahr in dem staatliche Präparandenschulen eingerichtet wurden, bei Geistlichen und Lehrern, in privaten Präparandenschulen oder bei Privatlehrern. Vorausgesetzt wurden bei den Präparanden neben den in der Volksschule vermittelten Kenntnissen, Talent und Erfahrung im Musikbereich, pädagogisches Geschick und christliche Gesinnung. Um die Kosten der Ausbildung gering zu halten, nahmen die Präparanden diesen Unterricht oft beim Lehrer ihres Heimatorts, ob dieser dazu geeignet war oder nicht. Den Schwerpunkt bildeten im Musikbereich die Fächer Orgel und Gesang und im letzteren die Literatur, die im Gottesdienst gepflegt wurde. Eine einheitliche Durchführung dieses Unterrichts gab es in den ersten Jahrzehnten der institutionellen Lehrerbildung nicht. Die Qualität der anleitenden Lehrer wurde nicht kontrolliert, Unterrichtsmaterial und –dauer wurden nicht vorgeschrieben und die Präparanden, die auch oft zu Hilfsarbeiten im Haushalt ihres Lehrers missbraucht wurden, nahmen es mit dem Unterrichtsbesuch nicht genau. Die Folge war, dass bei den Aufnahmeprüfungen in das Seminar die ungenügende Vorbildung fast regelmäßig beklagt wurde. Oft besaßen die Präparanden nur die Kenntnisse, die sie noch ihrer Volksschulzeit verdankten. Der Schulwirklichkeit ist deshalb der nächste Abschnitt gewidmet. In den ersten Jahrzehnten des 19. Jahrhunderts waren die Schulhäuser, wenn sie überhaupt in einem Ort existierten, oft in einem miserablen Zustand. Die Lehrer unterrichteten zeitweise in ihren Privaträumen und sie konnten froh sein, wenn die Schulpflicht ernst genommen und das Schulgeld bezahlt wurde. Wenn die Lehrer mit ihren Schulkindern überhaupt sangen, erklangen Kirchenlieder, die durch Vor- und Nachsingen gelernt wurden. Auf Stimmbildung wurde kaum Wert gelegt, auf die Förderung von einzelnen talentierten Schülern nur in Ausnahmefällen, dann nämlich, wenn es Repräsentationszwecken bei Schulfeiern, öffentlichen Prüfungen oder in der Kirche diente. Beschrieben wird hier auch das Leben des Volksschullehrers, der, verachtet und sozial auf der untersten Stufe stehend, ohne Nebeneinkünfte nicht existieren konnte. Zu diesen Nebeneinkünften zählte der Dienst in der Kirche, wo der Lehrer als Organist und/oder Chorleiter oder im schlimmsten Fall nur als Küster wirkte. Musik, speziell Gesang spielte im Leben eines Lehrers im untersuchten Zeitraum eine oft lebenswichtige Rolle. 1866 wurde die bisherige Form der Vorbereitung auf das Seminar abgeschafft und in jedem Regierungsbezirk richtete man staatliche Präparandenschulen ein. Damit sollte eine einheitliche und straff organisierte, in jedem Fall aber bessere Ausbildung der Präparanden gewährleistet werden. Der Gesang spielte nach wie vor im Rahmen der Musikausbildung eine wichtige Rolle. Lehrinhalte, Lehrmittel und Unterrichtsstunden wurden genau festgelegt. Dieser Präparandenausbildung folgte der Besuch des Seminars. Im Folgenden werden das Regulativ von 1809, die Normative von 1836, 1857 und 1866 sowie die Lehrordnung von 1898 vorgestellt und ihre Auswirkungen auf den Gesangunterricht beschrieben. Informiert wird weiter über die Gründung der einzelnen Seminare in den bayerischen Regierungsbezirken, über die Unterrichtswirklichkeit und das Leben in den engen Grenzen des Seminars, über Prüfungen, über Werdegang und soziale Stellung der dort unterrichtenden Gesanglehrer sowie über die soziale Herkunft der Seminaristen. Lehrerbildungsstätten waren Kulturträger, die sich u. a. durch Konzerte immer wieder der Öffentlichkeit präsentierten. Konzertprogramme geben näheren Aufschluss über die aufgeführte Gesangsliteratur, die, mehr weltlich oder mehr kirchlich geprägt, Rückschlüsse auf die Leitung des jeweiligen Hauses zulässt. In drei Exkursen wird über die Rolle der Gedächtnisübungen, über israelitische Schüler in Seminar und Präparandenschule sowie über die Ausbildung der Lehrerinnen informiert. Ein weiterer Bereich ist dem Cäcilianismus gewidmet, einer Reformbewegung, die sich die Revitalisierung der alten Kirchenmusik zum Ziel gesetzt hatte. Da diese Reform ihren Schwerpunkt in Bayern und zudem im 19. Jahrhundert hat, kann hier exemplarisch der Einfluss der Kirche auf die Lehrerbildung aufgezeigt werden. Die Seminaristen wurden bereits in ihrer Ausbildungszeit mit der von den Cäcilianern verfochtenen Musik bekannt gemacht. Oft waren Seminarlehrer in den cäcilianischen Organisationen als Funktionäre tätig oder sie versuchten sich in ihren Kompositionen dem gewünschten musikalischen Stilideal anzupassen. Oftmals wurden diese Werke dann in den Lehrerbildungsstätten gespielt und gesungen. Durch all dies sollten die Seminaristen – oft schon in ihrer Präparandenzeit - in die spätere Rolle von Multiplikatoren dieser kirchenmusikalischen Richtung gedrängt werden. Einem Ausblick ins 20. Jahrhundert schließt sich eine umfassende Dokumentation an: In Lebensläufen werden alle in Seminar, Präparandenschule und Lehrerbildungsanstalt tätigen Gesanglehrer vorgestellt. Es folgen eine Aufstellung der in den verschiedenen Anstalten verwendeten Unterrichtsliteratur sowie Kurzbiographien zu den Komponisten, deren Werke gesungen und öffentlich präsentiert wurden. Jede bayerische Lehrerbildungsstätte wird im Folgenden in einzelnen Rubriken vorgestellt: Quellen und Quellenlage, Gründung und Schulgeschichte, Lehrer und Unterrichtsverteilung, Lehrnachweis und Unterrichtsliteratur. Dazu kommen ein Überblick über die Musikproduktionen und Hinweise zum Fach Religion, wenn sich Auswirkungen auf den Gesangunterricht ergeben. Aktenmaterial wird dann ausführlicher zitiert, wenn - wie z. B. bei Visitationsberichten - gesangsmethodische Probleme oder Vorzüge einzelner Lehrer aufgegriffen werden. Eine Zeittafel rundet die Arbeit ab. Ziel der Arbeit ist es, ein bislang nur marginal erforschtes Einzelfach in der Lehrerbildung umfassend darzustellen und z. T. mit der Ausbildungssituation in anderen deutschen Staaten zu vergleichen. Die bislang z. B. über den Orgelunterricht oder die Rolle der Bläsermusik erschienenen Arbeiten beschreiben meist nur die musikalische Praxis in einem einzelnen Seminar, was lediglich ein Teilchen im großen musikalischen Puzzle der bayerischen Lehrerbildungsstätten sein kann. In fast zwei Jahrzehnten wurden für die vorliegende Untersuchung sämtliche verfügbaren Akten in Staats-, Stadt-, Kirchen- oder privaten Archiven eingesehen. Bei gleicher Verfügbarkeit und Wertigkeit der Quellen wurden solche aus dem schwäbischen Raum besonders berücksichtigt. Neues wird zum Thema "Gesang in der Lehrerbildung im Bayern des 19. Jahrhunderts" in Zukunft kaum zu finden sein. Vor allem die umfangreiche Dokumentation dürfte für Wissenschaftler, die im Rahmen der historischen Musikpädagogik forschen, von Nutzen sein: Sie stellt für das 19. Jahrhundert eine wesentliche Arbeitshilfe dar, da durch die Auflistung der Archivquellen die erfolglose Recherche an falschen Orten nahezu ausgeschlossen werden kann. ; This thesis, a scientific contribution in the field of historic music pedagogy, deals with the different functions of voice training and describes the role of singing in directives and curricula set by the government. After an introduction, a presentation of the thesis topic and its structure, a brief account of the state-run teacher training in Bavaria prior to the period featured in the thesis is given. The following chapter is dedicated to the vocal education of the so-called "Präparanden" prior to 1866. "Päparanden" were teenage trainee teachers preparing themselves for entry into teacher training college. Responsible for this initial training before 1866, the year in which the state-run trainee teacher colleges were established, were clergymen and teachers, or alternatively students were educated in private institutions or by private teachers. Prerequisites were musical knowledge, pedagogic talent and a Christian mind. To save on costs, classes were often given in one's hometown. In singing lessons the focus was on vocal repertoire used during religious services. However, there was no consistent implementation of the course contents, the quality of the teaching was not supervised, the students' attendance was often poor and frequently they were misused as labourers in the household of their teacher. As a result the qualification of the prospective students was regularly described as unsatisfactory during auditions for teacher training colleges. Often trainee teachers could only rely on the knowledge obtained during their elementary education. Hence, the following chapter describes the reality in the schools. During the first decades of the 19th century the village's school buildings, if they existed at all, were often in an appalling condition. Many times the teachers held classes in private rooms and could count themselves lucky if the compulsory school attendance was obeyed and the tuition fees paid. If any singing took place, it was of church hymns, which were learnt by rote. Hardly any value was put on vocal technique. The life of the elementary school teacher is described in the subsequent chapter: he was on the lowest rung of the social ladder, was despised and could literally not survive without side jobs including various duties at the church, such as organist and/or choirmaster or – in the worst case – as sexton. In 1866, the previous form of preparation for the teacher training college was abolished and in each administrative district a state-run teacher training school, a so-called "Präparandenschule", was introduced. Thereby a uniform and strictly organised education of the trainee teachers was guaranteed. Thereafter, vocal training started to play an important role in musical training. Following this education was the entry into the actual teacher training college. In the next chapter, the regulative of 1809, the normatives of 1836, 1857 and 1866 as well as the curriculum ("Lehrordnung") of 1898 are introduced and their influence on vocal training described. Further illustrated are the teaching reality and the life within the boundaries of the college, exams, career and social standing of the vocal teachers in charge as well the social background of the students. Teacher training institutions were bearers of culture - frequently witnessed in public through concerts. Concert programmes shed light on the vocal repertoire performed. Three excursions discuss the role of training of the memory, Israelite students at the teacher training college as well as education of female teachers. One chapter is dedicated to the Cecilianism, a reform movement aiming at the revival of early church music. Since this reform was centred in Bavaria, the influence of the church on teacher training can be demonstrated in an exemplary manner. Already during their education the students were introduced to the music advocated by Cecilianism and often their teachers were active as functionaries in the Cecilianist organisation. The prospective teachers were expected to take on the role of disciples of this form of sacred music. A forward into the 20th century is followed by a comprehensive documentation. In brief curricula vitae all vocal teachers active in seminars and teacher training schools are introduced, followed by a list of the educational repertoire used in the various institutions and short biographies of the composers, whose compositions were sung and performed publicly. Each Bavarian teaching institution is introduced individually covering sources, foundation and school history, teachers and allocation of classes, course content and teaching repertoire. This is rounded off with a survey of musical productions, briefly touching on religious education if affecting the vocal training at the respective institute, as well as available material from files such as inspection reports or methodical tips. A chronological table rounds off the thesis.
As a contribution to the 'History of Language Learning and Teaching' as a subdiscipline of the historiography of linguistics, this thesis aims to fill a gap in research in the history of teaching German as a foreign language in Portugal by undertaking a first systematic academic study on the manuals of German as a foreign language (as such), published between 1863 and 1926 in Portugal or in Europe and intended for the teaching of the German language to a mainly Portuguese public (that is, predominantly to speakers of European Portuguese). As a result, a perspective mainly devoted to the history of ideas is related to the separately analyzed perspective of the history of institutions. Taking into account the corpus of 11 works in 12 volumes, of which 35 editions can be documented, the thesis examines whether the individual works of the corpus can be classified or not in the method of a grammatically oriented teaching of foreign languages, which was disseminated all over the world since the nineteenth century and today is known as the 'grammar Translation Method' (GTM). The year 1863 is considered as the starting point when the first textbook of German was published in Portugal. Grammatica pratica da lingua allemã of the grammarian and Alsatian language teacher Johann Philipp Anstett was approved by the Portuguese Conselho Superior de Instrução Pública, thus establishing the undeniable main reference to a Portuguese-speaking European target public. The final point is May 28, 1926, when the military coup led by General Gomes da Costa initiated the dictatorial fascist regime of the Portuguese Estado Novo that led to a general increase in interest in the language of Germany, where at the same time National Socialism became increasingly dominant in the political scene. Along with the introduction in chapter 1, this work consists of a total of seven chapters. The second chapter consists of an introductory presentation on the methodology, concluding with brief observations on the textual criticism, the illustrations and the tables used in the work. The third chapter is devoted to the theoretical framework of the thesis. After a terminological clarification on the relationship between the notion of 'method' and that of 'didactic concept', the most important didactic concepts for modern foreign languages that were part of the MGT are presented from a point of view of the history of ideas. After a presentation of the MGT from a synchronic point of view, a catalog of criteria is elaborated, which will allow a contextualization of the works of the corpus at the end of the conclusions. The chapter concludes with the discussion and presentation of some problematic areas of the representation of German grammar for a foreign language audience, highlighting those that seem to be most suitable for a diachronic and comparative examination based on the corpus of the thesis. Chapter 4 describes the beginnings of teaching German in the Portuguese education system. In addition to the evaluation of the relevant specialized literature, in particular the contents of historical legal texts not yet taken into account in previous research are presented and discussed. In chapter 5, firstly a proposal for a specific classification of historical metalinguistic manuals is offered an applied to the elements of the text corpus. Then, from 5.2 to 5.11, we undertake a detailed serial description of the corpus of the Portuguese manuals of German in chronological order. Finally, in Chapter 6, the manuals of our text corpus are examined from a point of view of linguistics and didactics of German as a foreign language, taking into account a selection of problematic areas for Portuguese target public that are no German native speakers. ; Como contribución a la 'Historia del Aprendizaje y Enseñanza de Lenguas' como subdisciplina de la historiografía lingüística, este trabajo pretende cubrir una laguna de la investigación en la historia de la enseñanza del alemán como lengua extranjera en Portugal al hacerse un primer trabajo académico sistemático sobre los manuales de alemán como lengua extranjera, publicados entre 1863 y 1926 en Portugal y en Europa y destinados a la enseñanza de la lengua alemana para un público principalmente portugués (es decir, predominantemente de habla portuguesa europea). Teniendo en cuenta el corpus de 11 obras en 12 volúmenes, de las que se pueden documentar 35 ediciones, la tesis examina si las obras individuales del corpus se pueden clasificar o no dentro del método conocido hoy como 'método de gramática y traducción' (MGT), focalizado en la enseñanza gramatical de las lenguas extranjeras y difundido en todo el mundo principalmente en el siglo XIX. Se considera como terminus a quo el año 1863, cuando se publicó el primer manual de alemán en Portugal: la Grammatica pratica da lingua allemã del gramático y profesor alsaciano de lengua Johann Philipp Anstett. Fue aprobada por el Conselho Superior de Instrução Pública de Portugal, por lo que resulta innegable que su orientación principal a un público objetivo de habla portuguesa europea. Sirve como terminus ad quem el 28 de mayo de 1926, fecha del golpe militar liderado por el general Gomes da Costa, que dio inicio al régimen fascista dictatorial del Estado Novo portugués. Este hecho trajo consigo el aumento general del interés por la lengua de Alemania, al mismo tiempo que en este país el nacionalsocialismo se hacía cada vez más dominante en la escena política. Para cumplir con los objetos establecidos, estructuramos el trabajo en un total de siete capítulos. Al primero, que se corresponde con la introducción, le sigue un segundo capítulo consistente en la presentación de la metodología, el cual concluye con unas breves observaciones sobre la crítica textual, las ilustraciones y las tablas utilizadas en el trabajo. El tercer capítulo está dedicado al marco teórico de la tesis. Después de una aclaración terminológica sobre la relación entre las nociones de 'método y 'concepto didáctico', se presentan los conceptos didácticos más importantes para las lenguas extranjeras modernas integrantes del MGT desde un punto de vista de la historia de las ideas lingüísticas. Después de una presentación del MGT desde un punto de vista sincrónico, se elabora un catálogo de criterios que permitirá determinar si los manuales de nuestro corpus se inscriben en este método o no y, con ello, evaluar los trabajos del corpus en las conclusiones. El capítulo concluye con la discusión y presentación de algunas áreas problemáticas de la representación de la gramática alemana para un público de lengua extranjera, destacándose aquellas que parecen ser más adecuadas para un examen diacrónico y comparativo sobre la base del corpus de la tesis. El capítulo 4 se centra en los comienzos de la enseñanza del alemán en el sistema educativo portugués desde una perspectiva de la historia de las instituciones. Además de la evaluación de la literatura especializada relevante, en particular, se realiza una presentación y discusión de los contenidos de textos legales históricos no tenidos en cuenta en investigaciones previas. En el capítulo 5, se elabora primero una propuesta para una clasificación específica de los manuales metalingüísticos históricos, siendo aplicada a las obras del corpus. A esto le sigue el estudio descriptivo detallado del corpus, incluyendo los manuales portugueses de alemán en orden cronológico. En el capítulo 6 se examinan los manuales de nuestro corpus desde el punto de vista de la didáctica del alemán como lengua extranjera, teniendo en cuenta una selección de áreas problemáticas para un público destinatario portugués de lengua alemana no materna. ; En canto contribución para a 'Historia da aprendizaxe e do ensino de linguas', subdisciplina relativamente nova da historiografía lingüística, este traballo pretende encher unha lagoa na investigación da historia do ensino do alemá como lingua estranxeira en Portugal, facendo un primeiro traballo académico sistemático sobre os manuais de alemá como lingua estranxeira, publicados entre 1863 e 1926, en Portugal e na Europa e destinados ao ensino da lingua alemá para un público maioritariamente portugués (ou séa, no que predomina a lingua portuguesa europea). Tendo en conta o corpus de 11 obras en 12 volumes, das cales 35 edicións poden ser documentadas, a tese pretende analizar e confirmar se as obras individuais do corpus poden ou non ser integradas no método de ensino gramaticalmente orientado de linguas estranxeiras, que se espallou polo mundo especialmente desde o século XIX e que é hoxe coñecido como 'método gramática-tradución' (MGT). O ano de 1863 é considerado como terminus a quo, con a publicación do primeiro manual de alemá en Portugal, a Grammatica pratica da lingua allemã de Johann Philipp Anstett. Tendo en conta que este manual foi aprobado polo Conselho Superior de Instrução Pública, é innegable que se destinaba a un público-obxectivo de lingua portuguesa europea. Como terminus ad quem, escolemos o dia 28 de maio de 1926, por razoes históricas e en conformidade con outras publicacións dedicadas a aspectos da historia do ensino do alemá como lingua estranxeira en Portugal. Foi neste dia que o golpe militar liderado polo xeneral Gomes da Costa pon fin à primeira República Portuguesa e deu inicio ao réxime fascista ditatorial do Estado Novo portugués. Esta reorientación política do país pode estar relacionada con un aumento xeral do interese pola lingua da Alemaña, onde, ao mesmo tempo, o nacional-socialismo se tornou cada vez mais dominante no escenario político. Así, para cumprir os obxectivos establecidos, estruturamos o traballo nun total de sete capítulos, correspondendo o capítulo 1 à introdución. O capítulo 2 consiste nunha presentación introdutoria sobre a metodoloxía e termina con breves observacións sobre a crítica textual, as ilustracións e as táboas utilizadas no traballo. O capítulo 3 é dedicado ao cadro teórico da tese. Despois un esclarecemento terminolóxico sobre a relación entre a noción de 'método' e o 'concepto didáctico', se presentan os conceptos didácticos mais importantes para as linguas estranxeiras modernas que fixeran parte do MGT só o punto de vista da historia das ideais lingüísticas. Segue unha presentación do MGT dende un punto de vista sincrónico, elaborándose un catálogo de criterios que permitirá determinar se os manuais do noso corpus inscríbense neste método ou non e, con iso, evaluar os traballos do corpus nas conclusións. O capítulo 3 termina con a discusión e presentación de algunhas áreas problemáticas da representación da gramática alemá para un público de lingua estranxeira, destacándose aquelas que parecen ser mais axeitadas para un exame diacrónico e comparativo con base no corpus da tese. O capítulo 4 céntrase nas orixes do ensino do alemá no sistema educativo portugués a partir de unha perspectiva da historia das institucións. Ademais da avaliación da literatura especializada relevante, en particular, é realizada unha presentación e discusión do contido de textos xurídicos históricos que non foran levados en consideración en investigacións anteriores. No capítulo 5, en primeiro lugar, desenvolvese unha proposta para unha clasificación específica de manuais metalingüísticos históricos, sendo aplicada as obras do corpus. Seguidamente, procedemos a unha descrición seriada e detallada do corpus dos manuais portugueses de alemá por orde cronolóxica. No capítulo 6 examínanse os manuais do noso corpus do ponto de vista da didática do alemão como lingua estranxeira, tendo en conta unha escolma de áreas problemáticas para un público-obxectivo portugués, non materno de lingua alemá.
In Deutschland und in fast allen Industrieländern finden sich mittlerweile Medikamentenwirkstoffe in nahezu allen Gewässern und vereinzelt auch im Trinkwasser. Auch wenn die Konzentrationen in der Regel sehr gering sind, lassen sich erste Anzeichen für Auswirkungen auf Wasserlebewesen nachweisen. Akute Folgen für die menschliche Gesundheit sind bisher nicht erwiesen. Es kann allerdings nicht ausgeschlossen werden, dass sich Langzeitfolgen dieser Niedrigstkonzentrationen entwickeln und unerwartete Effekte durch die Wechselwirkung zwischen verschiedenen Wirkstoffen (Cocktaileffekt) entstehen. Besonders gefährdet sind dabei sensible Bevölkerungsgruppen wie Kinder und chronisch Kranke. Es besteht daher nicht zuletzt aus Vorsorgegründen Handlungsbedarf. Das Problem der Medikamentenreste im Wasser ist bei den wichtigsten Akteuren des Gesundheitssystems weitgehend unbekannt. Auch wenn Wissen nicht mit Bewusstsein gleichgesetzt werden kann – denn es gibt auch das Phänomen des Nicht-Wissen-Wollens – geht es in einem ersten Schritt darum, fundiertes Wissen zu erzeugen. Nur auf Basis dieser Sensibilisierung können weitere Strategien umgesetzt und letztendlich Aufklärung und Verhaltensänderungen erreicht werden. Dabei geht es um die gesamte Alltagspraxis im Umgang mit Medikamenten. Diese umfasst Fragen der Verschreibung, der Compliance, der nichtmedikamentösen Krankheitsvorsorge bis hin zum Arzt-Patienten-Verhältnis. Das ist nämlich häufig von Missverständnissen und mangelnder Kommunikation über – vermeintliche – Verschreibungsnotwendigkeiten geprägt. Der erste Teil der Strategie für die Bevölkerung soll über unterschiedliche Kanäle und Medien drei unterschiedliche Zielgruppen ansprechen, die in einer empirischen Untersuchung vom ISOE identifiziert wurden und auf das angesprochene Problem ganz unterschiedlich reagieren: · 'Die Verleugner/Relativierer' · 'Die Aufklärungsinteressierten' · 'Die Hypersensiblen' Jede Zielgruppe soll in der passenden sprachlichen und argumentativen Art und Weise durch spezifische Medien und mit dem richtigen Grad der Differenziertheit angesprochen werden. Dabei spielen "die Aufklärungsinteressierten" eine Opinionleader-Rolle. Sie können über anspruchsvolle Medien mit sehr differenzierten Informationen versorgt werden und geben dieses Wissen dann in angemessener Form an ihre Gesprächspartner weiter. Der zweite Teil der Strategie für die Bevölkerung bezieht sich auf die Kommunikation richtiger Entsorgungswege für Altmedikamente. Ziel ist es, dass Medikamentenreste nur noch in der Apotheke, keinesfalls aber in der Spüle oder in der Toilette entsorgt werden. Auf Grundlage einer Analyse typischer Fehler in bereits bestehenden Kommunikationsmedien zu diesem Thema hat das ISOE Empfehlungen zur richtigen Konzeption von Infomaterialien erarbeitet. Bei der Ansprache der Apotheker geht es in einem ersten Schritt um die Vermittlung von Faktenwissen: Wir schlagen dazu eine PR-Kampagne vor, die Artikel in den wichtigsten Fachmedien platziert. Gleichzeitig soll das Thema auch Teil der Aus- und Fortbildung werden. Zusätzlich soll die Beraterfunktion der Apotheken gestärkt werden. Die spezielle Zielgruppe der umweltsensiblen Kunden würde durchaus positiv darauf reagieren, wenn sie auf die Problematik der Medikamentenreste im Wasser hingewiesen würde. Bei allen anderen Kunden können und sollen die Apotheker ihre Rolle als Berater wahrnehmen: Sie betonen, wie wichtig die korrekte Einnahme (Compliance) und adäquate Packungsgrößen sind und warnen ihre Kunden, insbesondere die älteren, auch vor potenziellen Fehleinnahmen. Bei der Kommunikationsstrategie für Ärzte geht es im ersten Schritt ebenfalls um Wissen. Dabei muss aber deren Selbstverständnis als Wissenschaftler bei gleichzeitig niedrigem Wissensstand in diesem speziellen Feld berücksichtigt werden. Hier muss der Weg einer 'diskursiven Selbstaufklärung' beschritten werden. Das Thema Medikamentenreste im Wasser kann somit nicht von Laien von außen an die Ärzte herangetragen werden, sondern muss in wichtigen Medien der Ärzteschaft und durch Verbandsfunktionäre angenommen und kommuniziert werden (top-down). Wenn es im zweiten Schritt um eine Problemsensibilisierung geht, muss mit starkem Widerstand eines Teils der Ärzteschaft gerechnet werden. Sie könnten fürchten, dass eine Einmischung in Heilungspläne aus Umweltsicht droht und betonen, dass Ärzte nicht für Umweltfragen zuständig seien. Letztlich steht – das haben empirische Untersuchungen des ISOE gezeigt – hinter dieser Problemabwehr ein Tabu: Es soll nicht darüber gesprochen werden, dass in zahlreichen Praxen zu viel verschrieben wird. Diese Problematik kann tatsächlich nicht aus der Umweltperspektive angegangen werden. Doch decken sich hier die Ziele des Gewässerschutzes mit den ökonomischen Zielen eines sparsamen Umgangs mit Arzneimitteln. Bei jeder Kommunikationsmaßnahme für diese Zielgruppe muss berücksichtigt werden, dass sich die Ärzte von dem, was sie als 'Dauergesundheitsreform' aller Regierungen wahrnehmen, gegängelt fühlen. Sie sind keinesfalls bereit, eine neue Form der Regulierung, diesmal aus Umweltgründen, hinzunehmen. Ganz anders wird das Problem von 'kritischen Ärzten' wie Umweltmedizinern und von Ärzten mit Naturheilschwerpunkt gesehen. Sie interessieren sich für die Problematik, weil sie einen Zusammenhang zwischen Umweltqualität und Gesundheit sehen. Außerdem haben sie Patienten, die an möglichst wenig Medikamentenverschreibungen, dafür aber an einer 'sprechenden Medizin' interessiert sind. Wenn eine Kommunikationsstrategie also auch das schwierige Problem der übermäßigen Verschreibungen angehen will, empfiehlt es sich, die Erfahrungen dieser Mediziner einzubeziehen und zusätzlich auf eine 'Bottom-up-Strategie' abzuzielen. Mit der Umsetzung der strategischen Kommunikation sollte eine Agentur beauftragt werden, die Erfahrungen im 'Issue Management' vorweisen kann. Weiterhin sollte die Agentur Kenntnisse im Social Marketing und der Beeinflussung von Verhalten haben. Alle wichtigen Entscheidungen sollten von einem Konsens-Gremium (Runder Tisch 'MeriWa'1) verabschiedet werden, in dem die Ärzteschaft, die Apotheker sowie die Verbraucherinnen und Verbraucher angemessen repräsentiert sind. ; n Germany, as in almost all industrial countries, active pharmaceutical substances can now be found in virtually all water bodies and occasionally also in drinking water. Even though the concentrations in question tend to be very low, there are initial signs of their impact on aquatic life. There is no evidence as yet of any acute consequences for human health. It is, however, impossible to rule out long-term consequences from these minimal concentrations or unexpected effects from the interaction between various active ingredients (cocktail effect). At special risk here are sensitive segments of the population such as children and the chronically ill. There is thus a need for action on precautionary grounds. The main actors in the health system are largely unaware of the problem posed by drug residues in water. Although knowledge cannot be equated with awareness – given the existence of the 'not wanting to know' phenomenon – the first step is to generate a consolidated knowledge base. Only by creating awareness of the problem can further strategies be implemented to ultimately enlighten and bring about behavioural change. At stake here is the overall everyday handling of medications, including prescription, compliance, and drug-free disease prevention down to the doctor-patient relationship. The latter, namely, is often characterised by misunderstandings and a lack of communication about the – supposed – need to prescribe drugs. The first part of the strategy for the general public involves using various channels and media to address three different target groups. These were identified by ISOE in an empirical survey as reacting differently to the problem under review: · 'The Deniers/Relativists' · 'The Truth-Seekers' · 'The Hypersensitives' The intention is to address each target group in the right tone and using the most suitable line of reasoning via specific media and with the proper degree of differentiation. The 'Truth-Seekers' play an opinion-leading role here. They can be provided with highly differentiated information through sophisticated media which they then pass on to their dialogue partners in an appropriate form. The second part of the strategy for the general public relates to the communication of proper disposal routes for expired drugs. The goal is to confine disposal to pharmacies so that on no account are they flushed down the sink or toilet. Based on an analysis of typical errors in existing communications media on this topic, ISOE prepared recommendations for drafting proper information materials. In addressing pharmacists, the first priority is to convey hard facts: to this end we propose a PR campaign to place articles in the main specialist media. At the same time, the subject should feature in training and continuing education programmes. Another aim is to strengthen the advisory function of the pharmacies. The environmentally sensitive target group would indeed react positively to having their attention drawn to the issue of drug residues in water. For all other customers, the pharmacists can and should act as consultants: they emphasise how important it is to take medication as instructed (compliance) and use suitable pack sizes, and warn older customers in particular about the potential hazardsof improper drug intake. The first stage of the communications strategy for doctors likewise revolves around knowledge. Here, however, it is important to take into account their self-image as scientists while in fact having little grasp of this specific area. The line to take is that of 'discursive selfenlightenment'. This means that the issue of drug residues in water cannot be conveyed to doctors by laymen but must be taken up and imparted via the major media of the medical profession and by medical association officials (top-down). The second stage, namely that of raising doctors' awareness of the problem, is likely to encounter strong resistance from some of the medical profession. They may fear a threat of interference in treatment plans from an environmental perspective and feel the need to emphasise that doctors are not responsible for environmental issues. As shown in empirical surveys by ISOE, such a defensive reaction is ultimately down to an underlying taboo: people are loath to discuss the over-prescription taking place in countless doctors' surgeries. And it is a fact that this problem cannot be tackled from the environmental perspective, although the goals of water protection are indeed consistent with the economic objectives of restraint in the deployment of drugs. Any communications measure for this target group has to bear in mind that doctors feel restricted by what they see as a 'perpetual health reform' no matter which government is in power. On no account are they prepared to tolerate any new form of regulation, in this case for environmental reasons. An entirely different view of the problem is taken by 'critical doctors' such as specialists in environmental health and those with a naturopathic focus. They are interested in the problem because they see a connection between the quality of our environment and our health. What is more, they have patients keen to be prescribed as few drugs as possible and who are instead interested in 'talking medicine'. So, any communication strategy intent on tackling the difficult problem of oversubscribing drugs needs to look carefully at the experiences of these medical professionals and also at a 'bottom-up strategy'. Implementation of strategic communications should be entrusted to an agency with experience in 'issue management'. Knowledge of social marketing and the influencing of behaviour are further prerequisites. All important decisions should be taken by a consensus committee ('MeriWa'1 round table), in which the medical profession, pharmacists and consumers are represented.
Die Konjunktur in Deutschland nimmt im Zuge der Lockerungen der Infektionsschutzmaßnahmen wieder Fahrt auf. Noch im ersten Quartal hat eine erneute Verschärfung der Infektionsschutzmaßnahmen die Wirtschaftsaktivität zurückgehen lassen. Inzwischen wurden aufgrund der sinkenden Zahl an Neuinfektionen mit dem Coronavirus die Beschränkungen der wirtschaftlichen Aktivitäten gelockert, so dass insbesondere in den Dienstleistungsbereichen eine Erholung eingesetzt hat. Mit der zu erwartenden kräftigen Ausweitung der Wirtschaftsleistung dürften die Dienstleistungen die konjunkturelle Erholung vorantreiben. Dagegen ist zu erwarten, dass das Produzierende Gewerbe vorübergehend durch die zunehmenden Lieferengpässe bei Rohstoffen und Vorprodukten ausgebremst wird. Nachfrageseitig dürfte vor allem der private Konsum von den Lockerungen begünstigt werden. Mit etwas Verzögerung dürften aber auch die Investitionen wieder deutlicher ausgeweitet werden. Insgesamt erwarten wir, dass das BIP in diesem Jahr im Jahresdurchschnitt um 3,7% und im kommenden Jahr um 4,7% ausgeweitet wird. Dabei findet die Erholung von den wirtschaftlichen Folgen der Corona-Pandemie vor allem in diesem Jahr statt. So wird das BIP das Vorkrisenniveau zum Ende dieses Jahres erreichen. Im ersten Halbjahr 2021 war die Erholung am Arbeitsmarkt noch längere Zeit durch die anhaltenden Infektionsschutzmaßnahmen ausgebremst. Um die Beschäftigten in den Betrieben zu halten, wurde wieder vermehrt auf das Instrument der Kurzarbeit zurückgegriffen. Im weiteren Verlauf des Jahres dürfte die Zahl der Menschen in Kurzarbeit aber rasch zurückgehen, wenngleich die Regelungen für den vereinfachten Zugang zur Kurzarbeit erneut verlängert wurden. Dies zeigen die Erfahrungen aus dem vergangenen Jahr. Im dritten Quartal dürfte die Kurzarbeit ihr übliches Vorkrisenniveau erreichen. Die Zahl der Erwerbstätigen dürfte nach dem deutlichen coronabedingten Rückgang in diesem Jahr 2021 insgesamt nur leicht steigen. Dabei erholt sich die Zahl der sozialversicherungspflichtig Beschäftigten mit 0,4% im laufenden Jahr deutlich schneller als die Zahl der Selbstständigen. Nachdem die Arbeitslosenquote 2020 auf 5,9% geklettert war, dürfte sie im aktuellen Jahr auf 5,8% und im kommenden Jahr auf 5,2% zurückgehen. Die Verbraucherpreise in Deutschland sind seit Beginn dieses Jahres aufgrund von Sondereffekten deutlich gestiegen. Im Prognosezeitraum dürften die Preissteigerungen bei einige Rohstoffen und Vorprodukten den Preisdruck bei den Verbraucherpreisen zunehmen lassen. Für dieses Jahr erwarten wird daher im Durchschnitt einen Anstieg der Verbraucherpreise um 2,5%. Im kommenden Jahr dürfte die Teuerung durchschnittlich 1,9% betragen. Das Defizit der öffentlichen Haushalte dürfte 2021 knapp 160 Mrd. Euro betragen und damit nochmals höher als das des Vorjahres (149 Mrd. Euro) ausfallen. Ein wesentlicher Grund sind die im Zuge der Corona-Pandemie weiterhin gezahlten Unternehmenshilfen. Der Nachtragshaushalt des Bundes für das Jahr 2021 sieht Unternehmenshilfen in Höhe von 65 Mrd. Euro vor. Die tatsächliche Höhe dürfte geringer ausfallen, wir gehen von etwa 30 Milliarden Euro aus. Im Jahr 2022 ist ein Rückgang der Staatsausgaben zu erwarten. Der Fehlbetrag der öffentlichen Haushalte dürfte dann nur noch knapp 68 Mrd. Euro betragen. ; Economic activity in Germany is picking up again in the wake of the relaxation of infection control measures. In the first quarter, a renewed tightening of these measures caused economic activity to decline. In the meantime, restrictions have been eased due to the falling number of new infections with the coronavirus, so that a recovery has begun, particularly in the service sectors. With the expected strong expansion in economic output, services are likely to drive the economic recovery in the short term. By contrast, the manufacturing sector is expected to be temporarily held back by increasing supply bottlenecks for raw materials and intermediate products. On the demand side, private consumption in particular is likely to benefit from the easing. With a slight delay, however, private investment is also likely to expand more significantly again. Overall, we expect GDP to expand by an annual average of 3.7% this year and 4.7% next year. However, the recovery from the economic consequences of the Corona pandemic will take place mainly this year. Thus, GDP will reach pre-crisis levels by the end of this year. The recovery in the labor market was held back in the first half of this year by the ongoing infection control measures. In order to keep employees in work, increased use was again made of short-time working. As the year progresses, however, the number of people on short-time working is expected to fall rapidly, although the regulations for simplified access to short-time working have been extended once again. This is borne out by experience from last year. In the third quarter, short-time working is expected to reach its usual pre-crisis level. The number of people in work is expected to increase only slightly overall in 2021 following the significant corona-induced decline this year. At 0.4% in the current year, the number of employees subject to social insurance contributions will recover much faster than the number of self-employed. After climbing to 5.9% in 2020, the unemployment rate is expected to fall to 5.8% this year and to 5.2% next year. Consumer prices in Germany have risen significantly since the beginning of this year due to unusual events. In the forecast period, price increases for some raw materials and intermediate products are likely to increase price pressure on consumer prices. We therefore expect consumer prices to rise by an average of 2.5% this year. In the coming year, inflation is expected to average 1.9%. The public budget deficit in 2021 is expected to be just short of 160 billion euros, once again higher than the prior-year figure (149 billion euros). A major reason for this are the corporate subsidies still being paid out in the wake of the Corona pandemic. The supplementary federal budget for 2021 provides for corporate aid of 65 billion euros. The actual amount is likely to be lower; we assume around 30 billion euros. Government spending is expected to decline in 2022. The budget deficit is then expected to be just under 68 billion euros.
Die vorliegende Arbeit zeigt einerseits überblicksartig, gleichzeitig aber auch ins Detail gehend, vor allem die kartographische Entwicklung von Namibia von den Anfängen im 18. Jh. bis zur Unabhängigkeit im Jahr 1990. Dabei werden neben der eigentlichen Kartographie auch die wichtigsten damit im Zusammenhang stehenden Entwicklungen der Forschungsreisen, des Vermessungswesens, der allgemeinen Verwaltung des Landes und der Organisation des Karten- und Vermessungswesens im Gebiet des heutigen Namibia, im Deutschen Reich und in Südafrika dargestellt. Diese Ausweitung des Themas erwies sich als notwendig, um die Hintergründe und das geschichtliche und politische Umfeld mancher kartographischen Entwicklung deutlich und verständlich machen zu können. Damit liegt erstmals eine umfassende Dokumentation über die Kartographie von Namibia vor. Die Gliederung der Arbeit in die drei großen Zeitabschnitte der vorkolonialen, der deutschen Kolonial- und der südafrikanischen Mandatszeit ermöglicht die genaue Differenzierung von politischen und verwaltungstechnischen Abhängigkeiten bei der Kartenherstellung. Allerdings muss auch berücksichtigt werden, dass unterschiedliche Entwicklungsstadien nicht nur vom Herrschaftsträger abhängig waren. Der Vergleich zu anderen Kolonien des südlichen und zentralen Afrika, aber auch der weiterreichende Blick auf alle europäischen Afrikakolonien zeigt, dass Fortschritte im jeweiligen Karten- und Vermessungswesen neben der politischen und wirtschaftlichen Wertschätzung der Kolonie und der Macht des Mutterlandes (Deutschland, Portugal, Großbritannien, Frankreich) vor allem auch von der Größe, der Lage, der sehr verschiedenartigen Natur und dem Klima des entsprechenden Gebietes bestimmt wurden. Im Gegensatz zu der relativ langsamen, aber kontinuierlichen Entwicklung der Vermessungsmethoden und der kartographischen Darstellung in Europa sind in den Kolonien eher ruckartige Veränderungen zu verzeichnen, die mit dem Import der europäischen Methoden und Instrumente in infrastrukturell unterentwickelte Gebiete einhergingen. Die Entwicklung afrikanischer und im Besonderen südwestafrikanischer Karten zeigt drei Phasen: Zunächst erfolgte die Aufnahme der Küsten während der Entdeckungsreisen des 15. und 16. Jhs. und durch spezielle Forschungsreisen vor allem im 17. und beginnenden 18. Jh. Die Erforschung und kartographische Darstellung des Landesinnern begann dagegen zögernd erst Ende des 18. und Anfang des 19. Jhs. In SWA ist der Grund dafür vor allem in den schlechten Zugangsmöglichkeiten auf Grund der Wüstengebiete zu suchen. Träger dieser Aufnahmen waren hauptsächlich Missionare und Forschungsreisende. Innerhalb der nächsten 100 Jahre konnte in Südwestafrika ein grobes topographisches Grundwissen aufgebaut werden, das zur Orientierung im Land meist ausreichte. Mit der Eroberung Afrikas durch europäische Kolonialmächte Ende des 19. Jhs. begann die dritte Phase. Diese war in Südwestafrika durch die deutsche Kolonialherrschaft bestimmt und ist vor allem geprägt durch die Suche nach geeigneten Aufnahmemethoden und Darstellungswegen, um die riesigen, teilweise menschenleeren Gegenden in wirtschaftlich verantwortbarer, aber auch militärisch und verwaltungstechnisch nutzbarer Form kartographisch darzustellen. Ihren Höhepunkt erreicht diese Phase jedoch erst nach dem Zweiten Weltkrieg, in Südwestafrika sogar erst in den 1970er Jahren mit dem Einsatz moderner Aufnahmetechniken. In gleichen Phasen vollzog sich auch der Übergang von Kontinentkarten über lineare Routenaufnahmen mit stark wechselnden Maßstäben hin zu flächendeckenden topographischen Abbildungen. Mit diesen Veränderungen war auch eine Wandlung des Aussagewertes der Karten verbunden. Wie in Europa war die Kartenherstellung in Südwestafrika seit 1904 vor allem durch das Militär und dessen Bedürfnisse geprägt. Damit besaß das Land gegenüber den anderen deutschen Afrikakolonien eine Sonderstellung. Im Gegensatz zu den anderen deutschen Kolonien, aber in Anlehnung an das landschaftlich und klimatisch vergleichbare Südafrika wurde seit dem Hererokrieg 1904 eine großzügige und möglichst flächendeckende geodätische Vermessung durch Triangulation durchgeführt. Dagegen lagen die Katastervermessung und alle damit in Zusammenhang stehenden Arbeiten wie im Deutschen Reich in den Händen der zivilen Behörden. Allerdings war die Trennung der Aufgaben, bedingt durch die alleinige Zuständigkeit der Zivilverwaltung für alle Vermessungs- und Kartierungsangelegenheiten in Südwestafrika vor 1904, nicht ganz so deutlich wie im Deutschen Reich. Die dadurch bedingten regelmäßigen Kompetenzstreitigkeiten und die mangelnde Anerkennung der Arbeiten der Gegenseite verursachten die Behinderung zügiger Fortschritte in der Kartenherstellung sowie erhebliche zusätzliche Kosten. Die Koordinierung und Organisation der Arbeiten in Südwestafrika während der deutschen Kolonialzeit zeigt deutliche Mängel. Trotzdem kann das kartographisch Erreichte als positiv bewertet werden. Natürlich können aus heutiger Perspektive verschiedene Entscheidungen und Vorgehensweisen kritisiert werden. Für die damalige Zeit, die vorhandenen Mittel, Instrumente und Methoden, die Anzahl des Personals und im Wissen um die infrastrukturellen und Lebensbedingungen sind die erzielten Ergebnisse, ob das die Einzelkarten, räumlich definierte Kartenwerke oder solche des ganzen Landes betrifft, eine große Leistung. Das zeigt sich umso mehr im Vergleich zu den Nachbarstaaten, von denen beim Beginn des Ersten Weltkrieges keines so zahlreiche und gute Kartenmaterialien vorweisen konnte. Aber auch während der südafrikanischen Mandatszeit seit 1920 waren die Kompetenzen und Zuständigkeiten nicht eindeutig geregelt. Zunächst besaß Südwestafrika eine Sonderstellung gegenüber den Provinzen der Südafrikanischen Union, indem das Vermessungsamt in Windhuk für alle Vermessungs- und Kartierungsarbeiten des Landes zuständig war. Damit war das Mandatsgebiet in gewisser Weise aber auch von den methodischen und technischen Fortschritten, vor allem des Trigsurvey, abgekoppelt. Andererseits nutzte man diese Unabhängigkeit in Windhuk für eigene Wege, vor allem beim Druck der Karten in Southampton. Spätestens seit dem Beginn der Herstellung der landesweiten Kartenwerke in den Maßstäben 1:50 000, 1:250 000 und kleiner in den 1960er Jahren wurden die kartographischen Arbeiten dann aber von Südafrika bestimmt und kontrolliert. Trotz dieser Probleme lässt sich sowohl für die deutsche Kolonialzeit als auch für die südafrikanische Mandatszeit eine Vielzahl guter und von unterschiedlichen Autoren stammender Karten als Einzelwerke, als Beilage zu diversen Berichten oder als Kartenwerke feststellen. Flächendeckende Triangulationen stellen daneben eine bedeutende Entwicklung für die lagerichtige Wiedergabe der Topographie auf der Karte dar. Dass die deutsche Kolonialzeit in der vorliegenden Arbeit ein starkes Übergewicht gegenüber den anderen beiden Zeitabschnitten aufweist, liegt auch an den zahlreichen Aktivitäten und Produkten dieser Zeit, vor allem aber an der Quellenlage, die für die Zeit zwischen 1890 und 1915 qualitativ und quantitativ wesentlich umfangreicher ist, als beispielsweise für die Zeit nach 1920. ; This work gives an overview over the cartographic development of Namibia from the beginnings in the early 18th century up to the independence of the country in 1990. At the same time there is also a detailed view to the cartography, the maps and map series possible. Besides the most important developments of the large expeditions, the surveying, the general administration and the organization of the surveying and mapping in the area of today's Namibia are shown. Additionally also the most important developments of surveying and mapping in the German Empire and in South Africa are presented because of there relevance for some historical and political decisions in relation to the surveying and mapping of Namibia. For the first time this work presents a comprehensive documentation about the cartography and the map-products of Namibia. Such a work does not exist for any of the neighbour countries in Southern Africa. The work is structured into three main periods, the Precolonial time up to 1884, the time of the German colony German South West Africa between 1884 and 1915/20 and the time of the South African mandatory power between 1920 and 1990. These periods allow to show in detail the different political and administrative obediences for the map making. But not only the colonial power (Germany, Great Britain, France, Portugal) is responsible for different developments. In comparison especially with other countries of Southern Africa but also with countries all over Africa it could be shown that advances in surveying and mapping also depend on the dimension, the location, the different nature, relief and the climate of an area. In contrast to the mostly slow but continuous development of the surveying methods and the cartographic design in Europe the colonies show steplike changes. This is because of the import of the European methods and instruments into areas with very low infrastructure. The development of the South West African cartography shows three main phases. During the age of discoveries in the 15th and 16th centuries but also through special expeditions in the 17th and the beginning 18th centuries the coasts were surveyed and mapped. The exploration and mapping of the inner parts of the country began late (end of 18th century) and slowly. The main reason for this are the large coastal deserts and the large waterless areas that made travelling very difficult and dangerous. The first travellers in South West Africa were missionaries and researchers. Within the next about 100 years the travellers could map an approximate topographic structure of the land. This was more or less satisfactory for an overview and the safe travelling in the country. The third phase began with the European, here German colonisation at the end of the 19th century. This phase began with the search for useful recording and mapping methods. Especially the huge but deserted areas of the colony had to be mapped in an economic arguable but also for the military and the administration usable way. The culmination of this phase was reached only after World War II, in South West Africa even only in the 1970th. At this time the modern recording methods allowed an area-wide and economic surveying and mapping of the whole country. In the same phases one can also see the change-over from maps of the continent via linear maps as results of route-mappings to area-wide topographic map series. As in Europe the surveying and mapping of German South West Africa since 1904 was affected by the military and its techniques and demands. This gave the land an exceptional position in comparison to the other German colonies. Like in the scenic and climatic similar South Africa the military survey section built up a large and area-wide geodetic survey by triangulation since the Herero-War in 1904. On the other hand the cadastral survey was in the hands of the civil administration as it was in the German Empire. But the separation of the duties and responsibilities was not that clear and precise like in Germany because the civil land surveyors were responsible for all works in the colony prior 1904 and did not wanted to give up all charges. The constant questions of authority and the partly lack of acceptance of the works of the other side caused a lot of additional costs and the relatively slow mapping progress. The coordination and organization of the surveying and mapping of the German colony South West Africa shows obvious failings. Even so the mapping of the colony can be evaluated positive. For that time, the possibilities, instruments and methods, for the small number of employees and with the knowledge of the infrastructure and the living conditions the results are quite good. Many beautiful and high quality single maps and maps series of special area and for the whole country are known. This is much more astonishing as none of the neighbour countries could reach such an high standard up to the beginning of World War I. During the time of the South African mandatory power the competences and responsibilities of the surveying and mapping were also not clearly defined. After World War I but up to the 1950th South West Africa had an exceptional position compared to the South African provinces. The surveying office in Windhuk was responsible for all surveyings and mappings in South West Africa. For this the country was partly cutted from the latest methodic and technic developments of the South African Trigsurvey. On the other hand Windhuk could use his independence for own ways. For this the SWA-maps produced in the 1930th were printed in Southampton and not at the South African Government Printer in Pretoria and show a much better printing quality than the South African maps of that time. At the latest with the beginning of the production process of the map series in 1:50 000, 1:250 000 and smaller in the 1960th the mapping process of South West Africa/Namibia was fully controlled and affected by the South African Trigsurvey. Despite a lot of problems there are both for the Precolonial period, for the German and for the South African time a lot of good maps from many different authors and for different objections produced known. An analysis of the geometric accuracy of four maps, made between 1879 and 1980 (Chapter 6) shows additionally the high importance of area-wide triangulations for high quality maps. The reason for the overweight of the German colonial time in this work depends on the one side on the many maps and other cartographic products and activities of that time but on the other side it depends also on the high quantity and quality of resources about surveying and mapping in the German time.
A) Motivation und Problemstellung Der Computer ist heute eines der wichtigsten Hilfsmittel beim Entwurf und der Entwicklung von Fahrzeugen. Zunächst wurde er von Konstrukteuren für das Computer Aided Design (CAD) von virtuellen Fahrzeugmodellen eingesetzt. Inzwischen ist er in vielen anderen Bereichen der Fahrzeugentwicklung unentbehrlich geworden: der Entwicklungszyklus von Automobilen ist durch die Computer-gestützte numerische Simulation substanziell verkürzt worden. An virtuellen Prototypen gewonnene Ergebnisse können zunächst optimiert und anschließend am realen Prototypen validiert werden. Untersuchungen der Fahrdynamik, des Crash-Verhaltens, der Innenraumakustik und der Außenhautumströmung sind nur einige Anwendungsfelder, in denen Computer-basierte Technologien zur Senkung der Entwicklungskosten beitragen. Nach den Vorgaben aus dem Design wird ein Konstruktionsmodell erstellt; die erzeugten CAD-Daten beschreiben die Fahrzeugkomponenten anhand parametrischer Flächen und zusätzlicher Materialinformationen. Um die Daten in numerischen Simulationen verwenden zu können, müssen die Flächenbeschreibungen zunächst diskretisiert werden. Für die Strukturmechaniksimulation wird das CAD-Modell daher in ein Finite-Element-Modell umgewandelt, das dann zum größten Teil aus drei- und viereckigen Schalenelementen besteht. Das Finite-Element-Modell wird in einem Vorverarbeitungsschritt aufbereitet und mit zusätzlichen Daten ergänzt, bevor es dem Simulationsprogramm als Eingabedaten übergeben wird. Nach der meist sehr zeitintensiven Simulation, die für Gesamtfahrzeugmodelle mehrere Tage in Anspruch nehmen kann, liegen als Ergebnis große Datenmengen vor. Diese können aufgrund ihres Umfangs und ihrer Komplexität nur mit ausgereiften Visualisierungswerkzeugen ausgewertet werden. Die Erkenntnisse aus der Simulationsanalyse fließen an den Konstrukteur zurück. So schließt sich der Zyklus, der den virtuellen Prototypen solange iterativ verbessert, bis alle Zielgrößen erreicht werden. Bereits Anfang der achtziger Jahre wurden Strukturanalysen mit Hilfe numerischer Simulation anhand einfacher Balkenmodelle durchgeführt. Die Modellkomplexität geht mit der Leistungssteigerung der Hardware und der Weiterentwicklung der Simulationssoftware einher: die Modellgröße hat sich seitdem alle drei Jahre mehr als verdoppelt. Der Notwendigkeit, dem Entwicklungsingenieur entsprechende Visualisierungswerkzeuge zur Verfügung zu stellen, wurde bisher von den Herstellern der Simulationssoftware mit eigenen Lösungen begegnet. Anfangs entstanden einfache Darstellungsanwendungen, die das Fahrzeug als Gittermodell zeichneten, ohne einen räumlichen Eindruck zu vermitteln; die Applikationen wurden weiterentwickelt, entsprechen jedoch heute in der Regel nicht mehr dem, was im Bereich der Softwareentwicklung und vor allem der Visualisierung Stand der Technik ist. Der Fortschritt durch wissenschaftliche Forschung in der Computergraphik und die Weiterentwicklung der Hardware, insbesondere der Graphiksubsysteme, lässt die Lücke zwischen dem, was in der Visualisierung möglich ist, und dem, was in kommerziellen Produkten zur Datenanalyse angeboten wird, immer größer klaffen. Zudem ist die Wissenschaft im Bereich der angewandten Informatik stets bemüht, Einsatzgebiete zu identifizieren, in denen neu entwickelte Methoden evaluiert und verbessert werden können. Eine enge Zusammenarbeit zwischen Ingenieuren und Wissenschaftlern erscheint daher als sehr vielversprechend und zwingend notwendig. Die vorliegende Arbeit ist im Rahmen einer engen Kooperation mit der Berechnungsabteilung der BMW-Gruppe entstanden. Sie hat zum Ziel, den bestehenden Fahrzeugentwicklungsprozess im Umfeld der Strukturmechaniksimulation zu analysieren und durch Adaption neuer Methoden der Computergraphik aus anderen Bereichen sowie durch Entwicklung neuer Visualisierungstechniken und Interaktionsmechanismen zu beschleunigen. Eine Evaluation der eingesetzten Konzepte soll anhand einer prototypischen Applikation vorgenommen werden. Bisher wurde in der Visualisierung im Bereich der Strukturmechaniksimulation auf Basis von vierseitigen Schalenelementen nur wenig geforscht. Für die Analyse von Crash-Simulationsergebnissen müssen große, zeitabhängige Datensätze effizient verarbeitet werden. Dabei soll die Netzstruktur des Finite-Element-Modells erhalten bleiben, ohne dass dabei auf hohe Interaktionsraten verzichtet werden muss. Eine schnelle Datenaufbereitung spielt dabei eine ebenso wichtige Rolle, wie die Navigation durch das virtuelle dreidimensionale Fahrzeugmodell mit Hilfe der an einem Standardarbeitsplatz vorhandenen Eingabegeräte. Die Weiterentwicklung der Simulationscodes hat es ermöglicht, Teilstrukturen mit Randbedingungen zu versehen, so dass nun Berechnungen an Teilmodellen vorgenommen werden können. In der Karosserieberechnung werden anstatt homogen vernetzter Gesamtmodelle seitdem unabhängig voneinander vernetzte Bauteile zu virtuellen Fahrzeugmodellen zusammengesetzt. Der Netzanschluss benachbarter Bauteile wird nun nicht mehr über das aufwändige Abgleichen und Nutzen gemeinsamer Randknoten hergestellt; stattdessen überlappen die Bauteilnetze in Flanschbereichen, wo sie durch neu entwickelte Verbindungselemente aneinander gebunden werden. Dies hat unter anderem den Vorteil, dass einzelne Bauteile durch Varianten ausgetauscht werden können, ohne dass die Umgebung neu vernetzt werden muss. Wichtige Entscheidungen müssen bereits in der frühen Phase eines Fahrzeugprojektes aufgrund der durch numerische Simulation gewonnenen Erkenntnisse getroffen werden. Das setzt voraus, dass die bis dahin verfügbaren Konstruktionsdaten in rechenbare Simulationsmodelle umgesetzt werden können. Durch die unabhängige Vernetzung einzelner Bauteile und den unterschiedlichen Konstruktionsstand der verschiedenen Fahrzeugkomponenten kommt es nach der Zusammenführung häufig zu Berührungen und Durchdringungen der Bauteilnetze im diskretisierten Finite-Element-Modell. Diese müssen zunächst detektiert und beseitigt werden, da sie ansonsten die Simulationsergebnisse verfälschen würden. Darüber hinaus müssen die Bauteilnetze miteinander durch Verbindungselemente verbunden werden. Da die Konstruktionsdaten in der frühen Phase jedoch keine vollständigen Verbindungsdaten beinhalten, muss der Berechnungsingenieur den Datensatz mit entsprechender Information aufbereiten. Die Vorverarbeitung von Eingabedaten für den Simulationsprozess nimmt angesichts steigender Variantenrechnungen und einer halbwegs automatisierten Standardauswertung der Simulationsergebnisse gegenüber der Nachbearbeitung einen immer höheren Stellenwert ein. Derartige Ergänzungen der Simulationsmodelle mussten bisher mit Hilfe eines Text-Editors direkt an den Eingabedateien vorgenommen werden. Netzfehler und fehlende Anbindungen zwischen Bauteilen konnten lediglich durch Anrechnen des Modells entdeckt werden. Dazu wurde der Simulationsprozess gestartet und nach einiger Zeit wieder abgebrochen. Durch die Analyse der bis dahin berechneten Zwischenergebnisse werden derartige Unzulänglichkeiten des Eingabemodells sichtbar. Vorweggenommene Konsistenzprüfungen machen zeitaufwändige Anrechnungen überflüssig. Weiteres Prozessoptimierungspotenzial liegt in der Integration und Angleichung verschiedener Werkzeuge. Eine enge Kopplung des Simulationsprozesses an die Vor- und Nachbearbeitung der Daten durch ein und dieselbe Applikation, die sowohl Ein- als auch Ausgabedaten verarbeiten kann, schafft die Grundlage für eine schnelle Iteration im Optimierungsprozess und trägt zur angestrebten Reduzierung der vom Ingenieur zu bedienenden Vielzahl von Applikationen bei. In Zeiten fortschreitender Globalisierung und Fusionierung, aber auch durch zunehmendes Outsourcing der Teilmodellerstellung an darauf spezialisierte Dienstleistungsunternehmen steigt der Kommunikationsbedarf über räumliche Grenzen hinweg zusammenarbeitender Entwicklungsteams. Kostenintensive Besprechungen, zu denen sich alle Beteiligten an einem Ort zusammenfinden müssen, können nur durch Verbesserung der bereits vorhandenen Fernkommunikationsinfrastruktur reduziert werden. Da auf die gemeinsame Betrachtung der Modelldaten als Diskussionsgrundlage bei Besprechungen nicht verzichtet werden kann, bietet sich eine netzwerkbasierte Kopplung entfernter Arbeitsplätze an, um kleinere Besprechungstermine durch Telefonate mit zeitgleicher kooperativer Visualisierungssitzung am Arbeitsplatzrechner ersetzen zu können. Ein weiterer Aspekt befasst sich mit der Absicherung der Zuverlässigkeit von Simulationsergebnissen. Um eine Aussage darüber machen zu können, welche Modifikation der Fahrzeugstruktur das simulierte Verhalten positiv beeinflusst hat, müssen zunächst alle Einflussfaktoren, die auf die Simulation wirken, analysiert werden. Dies geschieht in Stabilitätsanalysen, in denen anhand gleicher Eingabedaten die Streuung der Simulationsergebnisse gemessen und die Ursache dafür erforscht wird. Durch konstruktive Maßnahmen soll in Ursprungsbereichen maximaler Streuung das Modell dahingehend modifiziert werden, dass gleiche Eingabedaten zu annähernd gleichen Simulationsresultaten führen. Ziel dieser Arbeit ist, das Pre- und Postprocessing von Strukturmechaniksimulation im Fahrzeugentwicklungsprozess bezüglich neuer Funktionalität und Leistungsfähigkeit durch die Einbeziehung neuer Graphiktechnologien sowie durch die Entwicklung neuer Visualisierungsalgorithmen signifikant voranzubringen. B) Beiträge dieser Arbeit Da die Arbeit in enger Zusammenarbeit mit der Karosserieberechnungsabteilung der BMW-Gruppe entstand und die Forschungsergebnisse direkt von den Ingenieuren an alltäglichen Problemstellungen eingesetzt werden sollten, mussten zunächst Voraussetzungen für eine erhöhte Akzeptanz bei den Anwendern geschaffen werden. Dazu gehören vor allem kurze Ladezeiten der Daten, eine intuitiv zu bedienende Benutzerschnittstelle sowie komfortable Funktionalität, die es ermöglicht, die Aufgaben schneller zu lösen als mit anderen Applikationen. Die Analyse der zu verarbeitenden zeitabhängigen Simulationsdaten und der zum Einlesen zur Verfügung gestellten Bibliothek führte zu einer geeigneten internen Datenstruktur, die eine effiziente Datenaufbereitung erlaubt und damit zu geringeren Start-up-Zeiten führt als bei vielen kommerziell verfügbaren Visualisierungswerkzeugen. Ferner resultiert aus der Evaluation verschiedener Szenengraphbibliotheken unter Berücksichtigung der Rechnerplattform im Anwenderumfeld die Entscheidung zu Cosmo3D / OpenGL Optimizer. Durch die Datenstrukturen und Funktionalitäten der Bibliothek bleibt der Ressourcenbedarf im Zusammenspiel mit einem optimierten Szenengraph-Design im Rahmen dessen, was auf einem Standard-Arbeitsplatzrechner zur Verfügung steht. Zur Beschleunigung der Bildsynthese werden bereits bekannte Verfahren zur Optimierung polygonaler Modelle für die Weiterverarbeitung in der OpenGL Pipeline mit adaptierten Algorithmen verglichen, die unter Berücksichtigung der zugrunde liegenden Daten Quadrilateralstreifen maximaler Länge bilden. Zusätzlich wird der Einsatz verschiedener Detailstufen im CAE-Umfeld untersucht und eine Lösung zur deutlichen Steigerung der Bildwiederholrate während der Navigation durch das Finite-Element-Modell präsentiert. Durch die Entwicklung und Evaluation Textur-basierter Visualisierungsverfahren werden deren Vorzüge anhand verschiedener Beispiele aus dem Berechnungsumfeld verdeutlicht. Daraus lässt sich die Notwendigkeit ableiten, Standard-Arbeitsplatzrechner in Zukunft mit entsprechender Graphik-Hardware auszustatten, um von den Möglichkeiten moderner Visualisierungsalgorithmen profitieren zu können. Im Rahmen der vorliegenden Arbeit wurde die Möglichkeit geschaffen, nach dem interaktiven Zusammenführen der Modellkomponenten aus verschiedenen Datenquellen auftretende Netzfehler zu visualisieren und selektiv zu beheben. Dazu kommen auf hierarchischen Datenstrukturen basierende Algorithmen zum Einsatz. Verbunden mit Methoden zur Darstellung und interaktiven Modifikation von Verbindungselementen sowie der Detektion fehlerhafter Schweißpunktdaten wird die Grundlage geschaffen, um Finite-Element-Modelle für die Crash-Simulation effizient aufzubereiten und die Modellerstellung für Variantenrechnungen stark zu vereinfachen. Speziell auf die Bedürfnisse der Berechnungsingenieure zugeschnittene Interaktions- und Navigationsmechanismen sowie frei bewegliche Clip-Objekte erleichtern den Umgang mit den Modelldaten. Durch die Entwicklung dreidimensionaler Selektionsobjekte und eine effiziente Schnittkraftberechnung steht die Kraftflussvisualisierung mit Hilfe dynamischer Kraftflussröhren nun auch als interaktives Analysewerkzeug im Postprocessing zur Verfügung. Die Berechnung der notwendigen Größen im Batch-Betrieb und die anschließende Zwischenspeicherung in einem eigenen Dateiformat ermöglicht die Standardauswertung von festgelegten Kraftflussverläufen im Anschluss an die Simulation. Dies trägt weiterhin zur Beschleunigung und Automatisierung der Nachverarbeitung bei. Mit der Entwicklung eines Bild- beziehungsweise Filmgenerators konnte mit Ergebnissen dieser Arbeit zur Entwicklung eines Integrationswerkzeuges für die Ablaufsteuerung und das Datenmanagement in der Karosserieberechnung beigetragen werden. Es werden zwei Lösungen für Szenarien einer kooperativen Sitzung mit mehreren Rechnern präsentiert. Die Ergebnisse zeigen auf, wie zeitaufwändige Treffen zwischen Ingenieuren durch Telefonate mit gleichzeitiger kooperativer Visualisierungssitzung ersetzt werden können. Das vorgestellte Verfahren zur Stabilitätsanalyse von Simulationsprozessen hilft, Ursprünge von Instabilitäten aufzudecken und die Aussagekraft der Simulationsergebnisse verbesserter Modelle zu erhöhen. Durch diese Arbeit ist eine prototypische Visualisierungsplattform für die Vor- und Nachbereitung von Strukturmechanikdaten namens crashViewer entstanden. Das objektorientierte Softwaredesign des Prototypen erlaubt die Integration weiterer Datenformate sowie die Implementierung neuer Algorithmen zu deren Evaluation im produktiven Einsatz in der Karosserieberechnung, aber auch in anderen CAE-Bereichen. C) Gliederung der Arbeit Im Folgenden wird ein Überblick über den Aufbau dieser Arbeit gegeben, woraus der Zusammenhang der Kapitel untereinander hervorgeht. Kapitel 2 motiviert die Entwicklung einer in die Simulation integrierten Vor- und Nachverarbeitungsapplikation. Zu Beginn führt das Kapitel in das breite Feld der digitalen Fahrzeugentwicklung ein. Das Umfeld der Crash-Simulation wird detaillierter betrachtet, wodurch ein Fundament für ein besseres Verständnis der darauffolgenden Kapitel geschaffen wird. Kapitel 3 gibt einen Überblick zu den Grundlagen der interaktiven Computergraphik und der Visualisierung. Darüber hinaus werden die der Crash-Simulation zugrunde liegenden Daten beschrieben, indem zunächst die Strukturen, aus denen sich ein Gesamtfahrzeugmodell im Allgemeinen zusammensetzt, erläutert werden und anschließend auf die Datenformate der Simulationseingaben beziehungsweise der Simulationsergebnisse eingegangen wird, um die breite Spanne der zu verarbeitenden Daten zu beleuchten. Kapitel 4 präsentiert ein effizientes Szenengraph-Design für zeitabhängige Finite-Element-Modelle mit invarianter Topologie. Dazu werden die notwendigen Grundlagen der verwendeten Graphikbibliotheken vermittelt und Erweiterungsmöglichkeiten diskutiert. Kapitel 5 erläutert die Architektur des im Rahmen dieser Arbeit entstandenen Prototypen und gibt einen Überblick über entwickelte Interaktionsmechanismen zur effizienten Datenanalyse. Kapitel 6 diskutiert verschiedene Verfahren zur Darstellungsbeschleunigung. Während sich die Quadrilateralstreifengenerierung und die Simplifizierung mit der Optimierung der modellierten Geometrie für eine effiziente Verarbeitung in der Graphik-Hardware auseinandersetzt, zeigt der letzte Teil dieses Kapitels, wie durch den Einsatz von Texturen zusätzliche Geometrieverarbeitung überflüssig wird. Kapitel 7 stellt spezielle Funktionalitäten für die Vorverarbeitung von Eingabemodellen vor. Außer der in verschiedenen Bereichen eingesetzten Distanzvisualisierung wird das interaktive Modifizieren von Schweißpunktdaten und die Parameterübertragung zwischen inkompatiblen Gittern erläutert. Kapitel 8 veranschaulicht Konzepte für die Nachverarbeitung von Simulationsergebnissen. Es werden Techniken zur Visualisierung skalarer und vektorieller Größen präsentiert. Darüber hinaus werden die interaktive Kraftflussvisualisierung und die Darstellung von Instabilitäten in Simulationsergebnissen betrachtet. Die CORBA-basierte Erweiterung zum gemeinschaftlichen Arbeiten räumlich getrennter Anwender, sowie die Batch-basierte Bild- und Film-Generierung von Strukturmechanikdaten schließen die Vorstellung der im Rahmen dieser Arbeit neu entwickelten Methoden ab. Kapitel 9 stellt die Ergebnisse dieser Arbeit in einen Kontext. An Beispielen aus dem produktiven Entwicklungsprozess werden die erzielten Fortschritte verdeutlicht und die Akzeptanz bei den Anwendern kritisch beleuchtet. Abschließend wird ein Überblick über weiterführende Arbeiten gegeben, die auf den vorliegenden Ergebnissen basieren. ; This thesis presents visualization techniques and interaction concepts that have been developed for the pre- and post-processing of structural mechanics. This work was done in cooperation with the crash simulation department of the BMW Group. The automotive industry's main goal is ensuring its share of a global market, which is becoming ever more competitive and dynamic. On the one hand, product quality has to be increased in relation to fuel consumption, weight, and passive safety. On the other hand the development process needs to be streamlined in order to reduce development costs and time to market. These objectives are hoped to be achieved by making extensive use of virtual prototyping. The vehicle development process has completely changed during the past two decades. In the early eighties finite element analysis found its way into the simulation of structural mechanics in the German automotive industry. Initially developed for military purposes, in 1983 a group of engineers of several automotive companies started feasibility studies based on finite element models containing less than 5,000 beam elements. Seven years later productive results of finite element analysis in structural mechanics started to influence car body development. In the second half of the nineties important project decisions were made during the early phase of the development process based on a deeper insight into crash behavior provided by crash-worthiness simulation results. Today, numerical simulation is an indispensable part of the computer aided product development chain in the automotive industry. After the design of a new car model is completed, a digital model is constructed by means of computer aided design (CAD). In a meshing step the created parametric surfaces defined by spline curves are discretized. The results describe the geometry of the car body by finite elements, for crash simulation mainly three- or four-sided shells but also beams and volumetric elements. The finite element model is completed, for example, with material properties, contact information, and boundary conditions. This is done in a preprocessing step. Once the simulation input data is available, the whole model is handed over to the simulation process which takes about one or two days using massive parallel processing. The deformation is recorded in a large result file. Commonly, the first 120 milliseconds of a crash are simulated and each two-thousandth time step is stored. A time step of less than one microsecond leads to a result file containing more than sixty snapshots. Typically, physical data such as acceleration, velocity, displacement, and forces per nodes or thickness, stress, strain, and other energies per element are recorded. During post-processing the information is analyzed in order to evaluate crash-worthiness. The feedback provided for the construction department closes the loop when all goals set for the car body structure have been attained. The virtual car body development in the pre- and post-processing of crash simulation divides into two main phases: (1) In the concept phase, new ideas are discussed and evaluated in order to reach a priority objective like minimizing car body weight. Only few people per car project are involved for a period of 12 to 18 months in this first stage. (2) After the basic decisions have been made regarding new concepts, a second phase follows which compromises all other fields to refine those concepts with respect to other objectives coming from the area of stability, dynamic or NVH. This phase requires many engineers from different departments for a period of more than 30 months to optimize the product. The later undesirable properties are revealed the higher the cost will be for the then necessary changes. Until the late nineties transitions between adjacent car body parts were modeled as two finite element meshes that share common nodes at the border. Each time a car body part was replaced by an optimized variant in order to enhance the crash behavior either the whole car model had to be re-meshed or border nodes had to be adapted manually. Therefore, preparing such variant models was a very time consuming task. After simulation codes like PAM-CRASH were able to simulate car body connections like for example spotwelds, finite element models became more like their counterparts made of steel. Now, a flange is constructed, along which adjacent car body parts can be connected without sharing common nodes. This allows for an independent meshing of car body parts and therefore for more variant computations. However, independent meshing lead to mesh penetration or even perforation in flange areas when inhomogeneous meshes are assembled. Thus, a new task arose for preprocessing where those mesh errors have to be removed in order to avoid error-prone simulation results. On the post-processing side, large time-dependent data sets require dedicated visualization methods that help the engineers to interpret the huge amount of data at interactive frame rates. Therefore, finite element meshes need to be prepared for an optimized processing in the graphics pipeline. Typical types of data that have to be visualized are scalar values, vectors, tensors or any combination thereof. In 1997, when most of the commercial visualization tools provided by solver companies as add-on to the simulation software could no longer provide state-of-the-art graphics, a demand arose for new visualization techniques available for productive use. Besides, the growing throughput caused by an increasing number of car body variants and the acceleration of computation hardware allowing more optimization cycles, made it necessary to automate as much processing steps as possible. The growing outsourcing of development tasks to suppliers and the number of merges in the automotive industry, which entail cooperation of corresponding departments at different sites, require a client-server-solution for cooperative work. Finally, the simulation community is concerned about the validity of their results compared to real crash-tests. It is important to detect and minimize the sources of scattering in the results originated by the simulation model or process. This is also a precondition for stochastic simulation, which is used in order to optimize the crash behavior by varying input parameters. The goal of this thesis is to provide solutions to some of the issues just stated. First of all, the applicability of different scene graph APIs is evaluated for large time-dependent data sets. APIs such as Performer or Cosmo3D / OpenGL Optimizer have been developed to take advantage of multiprocessing. Those APIs can perform model optimization during scene graph creation and benefit from multiprocessing using frustum culling and occlusion culling while traversing the scene graph to increase frame and interaction rates. Because of the large time-dependent databases and the limited memory of the workstations an efficient scene graph design is very important in order to handle the complex data interdependencies and to achieve high rendering speed. While five years ago the models consisted of about 250,000 finite elements with nearly the same number of nodes, today the size of the models has almost quadrupled. Since the element topology does not change in crash simulation, the connectivity of the finite elements needs to be stored just once. An index set representing the topology is shared across the sub-graphs of all time steps. A Gouraud shaded surface requires to do the edge detection on the state where geometry is deformed most, which is in general the last one. In order to minimize memory consumption, the index set is used for both coordinates and normals. Therefore, coordinates at vertices with multiple normals need to be added once per normal. Other scene graph nodes, e.g. the one specifying the appearance, can also be shared. Handling triangular elements as degenerate quadrilaterals allows to represent a mesh of three- and four-sided shell elements in one scene graph node. The prototype application named crashViewer, which was implemented to evaluate the methods developed in this thesis, uses Cosmo3D / OpenGL Optimizer for historical reasons: this bundle had been presented as predecessor of the 1997 announced Fahrenheit project, which was aborted two years later. Nevertheless, the proposed scene graph design allows to visualize 60 time steps of a model containing half a million elements and the same number of nodes with a memory consumption of 360 MB (flat-shaded) or 970 MB (Gouraud-shaded), provided that a crease angle of 20 degree leads to 40% more normals than vertices. One basic requirement for an interactive visualization application is that the frame rate does not fall below an acceptable minimum threshold. What "acceptable" means depends on data and experience with other tools. Generally speaking, visualization data should be rendered as fast as possible. For this reason, one aim of this work is to point out methods to optimize the finite element meshes' rendering acceleration. Two approaches are examined: (1) concatenation of adjacent elements to reduce data redundancy during geometry processing and (2) mesh simplification to remove information that does not significantly influence the shape of a car body part. Although OpenGL Optimizer provides a tri-stripper (opTriStripper) that is able to convert any polygonal mesh into strips of triangles, it is not applicable in this field because the original mesh structure should still be visible in wireframe mode. Hence, a quadrilateral stripper was developed, which analyses the mesh structure and generates many parallel bands of maximum length. As a matter of fact, quad-strips are not as versatile as tri-strips because each turn costs two extra vertices. However, compared to opTriStripper's reduction to 63.5% the proposed bandification algorithm reduces the number of referenced vertices to 54% of an unstripped representation averaged over 3,274 car body parts. Depending on the availability of vertex arrays the bandification leads to a rendering speed-up factor of about 4.5 without and 1.7 with vertex arrays in comparison to the unstripped geometry. In order to achieve even higher frame rates during camera interaction, a two-stage level-of-detail concept is developed. In addition to a fine level displaying the original mesh resolution, which is essential for the visualization in pre- and post-processing of structural mechanics simulation, a second level with coarse triangles is used as intermediate model for camera movement. Each time the user modifies the view, a previously simplified mesh is rendered until the camera parameters are no longer changed. Then the finer level of detail is displayed. An simplification algorithm was implemented which uses the one-sided Hausdorff distance as an error measure and which is compared to the Successive Relaxation Algorithm provided by OpenGL Optimizer as opSRASimplify. Aside from the interface opSRASimplify, which turns out to be unsuitable for getting an optimal decimated mesh with respect to a predetermined error tolerance, the resulting mesh quality is not as high as with the new HECSimplify simplifier. Breaking the error criterion can be avoided by defining an appropriate cost function for opSRASimplify, which causes less triangles to be removed compared to HECSimplify. If the decimation target is specified to achieve the same level of reduction, then the resulting triangle mesh contains gaps and the model appears distorted. Different car body models are reduced to 9-18% of the original number of triangles applying HECSimplify. This leads to a rendering speed-up factor of between 3.4 and 6.7. There is a trade-off between rendering speed and memory consumption. HECSimplify only applies half-edge collapses to the polygonal mesh. These operations just modify the topology, not the vertex coordinates. Therefore, the original and the reduced mesh are able to refer to the same set of coordinates. On the one hand, coordinate set sharing requires less memory, on the other hand the speed-up factor of a model that could be reduced to 9% of the original triangles is far away from 11. Both modules, the quad-stripper and the simplifier, are embedded into the Cosmo3D / OpenGL Optimizer framework by providing corresponding action objects and new scene graph nodes. Furthermore, the scene graph API was extended by several other new objects to overcome the restrictions with line picking or to provide new functionality. For example, the csClipGroup node enables the user to control a freely movable clip-plane, which affects only the underlying scene graph. This provides better insight into heavily deformed car body structures. Another form of clipping that is developed within this thesis uses one-dimensional RGBA texture maps in order to hide geometry that should not be displayed under certain conditions. This visualization method can be used, for example, to mask out those model regions that do not correspond to a given critical value range. In combination with distance values to adjacent car body parts the rendering can be restricted to potential flange regions of the model. For that purpose, first of all the parameter has to be transformed into a texture coordinate with respect to the specified parameter range. Then, a color scale is defined as a texture map. Using the GL_DECAL environment the color coding can be limited to regions of certain value ranges. Using the same mechanism in the GL_MODULATE environment with the alpha-test enabled allows for clipping the geometry where the corresponding values map into texture regions with an alpha component set to be fully transparent. This technique facilitates the accentuation of critical structures, because the user is able to interactively modify the texture map or the texture lookup table, if an index texture is used to control the visualization. As stated above, the most important change in finite element modeling for crash simulation was the introduction of independently meshed car body parts. Since the assembly of such inhomogeneous meshes may include perforations or penetrations, for example, caused by a shifted discretization along curved flanges, there was a growing demand for an interactive method to detect and remove this kind of mesh errors. Perforating regions can be detected by applying collision detection to the finite element model. Efficient collision detection as proposed by Gottschalk et al. requires hierarchical sub-structuring of the car body model. Consequently, in this study, each car body part is subdivided by a bounding volume tree (BVT). Different bounding volume types are tested: spheres, axis-aligned (AABB), and object-oriented bounding boxes (OBB). For perforation detection, where computation-intensive element-element-intersection tests are necessary at the lowest BVT level, OBBs turn out to be most efficient because they are very tight positioned around the element structure. Hence, downward traversals in the BVT can be terminated early because any one of 15 separating axes that defines a plane disjoining both volumes can be found. In order to detect penetrating nodes the minimum node-element-distances need to be computed. The BVT traversal algorithm is adapted appropriately. Children of a BVT node are visited only if their distance falls below a specified maximum distance of interest. Penetrating node-element-pairs are collected in a list for subsequent visualization. Using an interface to the original PAM-CRASH algorithm for penetration removal it is possible to provide the desired interactive mechanism that allows the engineers even to restrict mesh modification to selected car body parts. This is a big advantage over starting the simulation until initial forces move penetrating nodes apart from penetrated elements and restoring the computed mesh modification in the input data deck. First, the interactive method gives direct feedback and the engineers do not have to switch tools. Second, during the optimization of the car body structure by replacing single car body parts by variants this procedure enables the engineers to keep everything but the variant part fixed. Thus, only the nodes of the incoming part are aligned to its neighborhood and the confined modification makes it easier to compare the results of two simulations runs. What is more, the bounding volume hierarchy provides beneficial effects on many other tasks in pre- and post-processing of crash-worthiness simulation. It can be used to detect and follow flanges automatically or to spot flange regions that have only been inadequately connected. A basic task is the verification of connecting elements. For example, a spotweld must not exceed a maximum distance to those parts it should connect. Otherwise, a pending spotweld may suspend the simulation run delaying the development process and raising costs. In this study, several criteria for the validation of connecting elements are elaborated. Erroneous spotweld elements are emphasized by different colors and/or geometry. The engineers are successively guided to each problematic connection. Without this feature it would not be possible to find these model errors in such a short time. Furthermore, a method is developed that enables the computation engineers to effectively add missing connection information by means of spotwelds to the input model. Thus, it becomes even practicable to start with crash-worthiness simulations before detailed connection data is available from CAD data. One aim in virtual vehicle development is to combine the results of several areas in numerical simulation. In order to map the real development chain closely onto the virtual one, material properties influencing preliminary steps like forming have to be considered. For example, a deep-drawn blank sheet has a lower thickness in areas of high curvature than in other areas. As long as the material of a car body in crash simulation is assumed to be constant the before mentioned manufacturing influences cannot be properly represented. A hardware-based method is developed in this thesis for the efficient mapping of any type of data between incompatible meshes that are geometrically congruent. It utilizes the transformation and interpolation capability of the graphics subsystem. Element identifiers of one mesh are color-coded. For each element of the other mesh the view matrix is set up appropriately and the visible part of the first mesh is rendered. The colors that represent the element IDs can be read back into main memory. After the correlation between elements is finished in graphics hardware, the values are finally transfered in software. The post-processing of crash-worthiness simulation results necessitates the handling of large data sets. Since a binary result file may contain 2 GB of data but an engineer's workstation often is limited to 1 GB of main memory these boundary conditions need to be considered while designing data structures and algorithms of visualization software for this application area. On the other hand, interactivity and high rendering performance is a precondition to obtain acceptance by the user. The required tool should provide interaction mechanisms that assist the user in exploring and navigating through the data. Mainly, it should help to interpret the data by making the invisible visible. Besides an effective scene graph design, in this study, the internal data structures of the developed prototype application have been implemented with memory consumption in mind. Parameter transfer in post-processing is done state by state very fast by pointer-based data structures. The extensive use of texture mapping enhances the rendering performance. Visualization techniques are proposed that use textures for the direct mapping of scalar values onto the car body geometry, for the animated display of vector data, and for the visual discretization of the finite element mesh in the form of a wireframe texture map. All these approaches spare the transformation stage of the graphics pipeline additional processing of vertex-based data. For example, the traditional display method for shaded geometry with visible element borders is two-pass rendering, which halves the frame rate. The application of a black-bordered luminance texture, which is white inside, onto each geometric primitive balances the load between geometry and texture unit. Also, the encoding of a vector's direction by applying an animated texture onto a line reduces geometry load and leaves the underlying structure mostly visible in contrast to conventional vector visualization with arrows. Force flux visualization, first presented by Kuschfeldt et al. gives an overview over which components of the car body model absorb or transfer forces. It is necessary to detect and to understand the force progression within the car body structure. For example, the longitudinal structures within the front part of a car body play an important role for increasing the ability of the body to absorb forces in a frontal crash. Force flux visualization enables the engineers to design car components with an optimal crash behavior. This technique was made available for interactive daily use in crash simulation analysis. Providing a dedicated interaction mechanism, the prototype application allows to interactively define a trace-line along which the force flux can be visualized. For each section plane positioned in small intervals perpendicular along the trace-line the simulated node forces are accumulated. The resampling is accelerated by utilization of the bounding volume hierarchy. Each section force sum is then represented by color and radius of one ring of a tube around the trace-line. The dynamic trace-line definition aligns the force tube to the deforming structure of the analyzed car body part, for example, a longitudinal mounting. The specified trace-lines can be stored in order to precompute force tubes off line. This can be done by another prototype application in batch processing after simulation has finished. During a visualization session the precomputed values can be directly converted into time dependent force tube representations. The decoupling of time consuming computation and the interactive visualization further accelerates the analysis of crash-worthiness simulation. Starting multiple simulation runs with the same input data deck will produce different results. The scattering in results has to be minimized in order to be able to evaluate the influence of structure modifications. This work presents a method to detect and visualize instabilities of the simulation. The above stated texture-based visualization points out sources of instability and helps the engineers to determine if a branching is caused by the model structure or if it was originated by the solver. The pros and cons of different measurement functions are discussed. Furthermore, a CORBA-based synchronization of multiple viewers displaying different data sets is presented. This allows to analyze the simulation results of one run in direct comparison to those of other runs. It is very useful to view the differences in crash behavior of multiple car body models on one workstation. Moreover, this functionality can be used in combination with a telephone call to supersede a meeting between a computation engineer and his external supplier. The visualization is done locally on each client. Providing that data and software is available at each participating client, the only data that have to be transferred during a cooperative session are the events triggered at the steering master-client and propagated to one or more slave-clients. A master token decides which participant is able to send generated events to the other instances. This mechanism avoids conflicting camera control when multiple users try to modify their view at the same time. Another approach describes how an image-based client-server model can be used in this context. After a frame has been rendered on the server, it is encoded to reduce the amount of data. The encoded image stream is transferred to any client that is able to decode and display. There are less requirements for the client but the connection needs to provide a certain bandwidth. This scenario can also be used for remote visualization. The prototype crashViewer can be connected to a Java applet running inside a web-browser. Finally, a method for standardized analysis of crash-worthiness simulation is presented. A batch-processing prototype application has been developed to generate digital movies using a predetermined camera path. The contributions of this thesis aim at further acceleration of the virtual vehicle development process, for example, by introducing new interaction mechanisms, making extensive use of hierarchical data structures, using hardware-accelerated visualization techniques, and providing solutions for process automation.
Die 1948 im Auftrag der US-amerikanischen Militärregierung gegründete Zeitschrift Der Monat war ein intellektueller Brennspiegel der jungen Bundesrepublik, in dem die politischen Deutungskonflikte der Zeit ausgetragen wurden, mit Fokus auf den Nationalsozialismus, den Sowjetkommunismus und die Zukunft der westlichen Welt. Zu ihrem Renommee trug bei, dass sie zahlreiche prominente Autoren wie Hannah Arendt, Raymond Aron, Hans Kohn, Herbert Lüthy, George F. Kennan oder auch die Ex-Kommunisten Arthur Koestler, George Orwell und Richard Löwenthal versammelte.Joachim Gmehling zeigt, welches Bild in der Zeitschrift vom nationalsozialistischen und sowjetkommunistischen Herrschaftssystem gezeichnet wurde und wie der Vergleich der beiden Diktaturen ausfiel. Dabei rekonstruiert er nicht nur den Einfluss der zeitgenössischen Totalitarismustheorien sowie die Imperative der US-amerikanischen Besatzungspolitik in Westdeutschland, sondern geht auch auf die CIA-Hintergründe des Periodikums ein.Eine Studie zu den Anfängen des Kalten Krieges, die angesichts der vielschichtigen Krise der westlichen Demokratien an Aktualität gewinnt.
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext: