Nicht wenige Menschen halten Donald Trumps Sieg bei der Präsidentschaftswahl in den USA für das Ergebnis eines russischen Komplotts. Und so liegt hundert Jahre nach der Oktoberrevolution die Analogie zur deutsch-bolschewistischen Zusammenarbeit auf der Hand. (APuZ)
Der Werbung kommt als essentieller Bestandteil der gesamten Kommunikationspolitik eines Unternehmens die wichtige Aufgabe zu, die Marken zu stärken und damit zur Sicherung der Wertschöpfungskraft der Unternehmen beizutragen. Die Wirkung kommunikativer Maßnahmen ist zu komplex, um sie anhand eines Wirkungsmodells darzustellen. In dieser Arbeit wird ein Überblick über die Vielzahl unterschiedlicher Werbewirkungsmodelle gegeben, die wohl bekanntesten Vertreter sind das Elaboration-Likelihood-Modell (ELM) und das Modell der Wirkungspfade von Kroeber-Riel.Anhand von empirischen Befunden werden ausgewählte Einflussfaktoren auf die Werbewirkung besprochen. Es handelt sich beispielsweise um den Einfluss des Zeitverlaufs auf die Informationsverarbeitung, den Einfluss von Werbevariationen auf die Einstellung zum Werbeobjekt, die Wirkung von Werbewiederholungen und Werbeinhalt auf die Wahrnehmung oder auch die Wirkung von Produktwissen auf die Produktbeurteilung.In einer empirischen Studie werden zwei unterschiedliche Print-Werbeformen auf ihre Werbewirkung getestet: Ein klassisches Inserat (hoher Bildanteil, enthält nur die wichtigsten Produktinformationen) und ein Advertorial (informative Werbung, vermittelt in Berichtsform die Leistungsvorteile des vorgestellten Produkts). Um die Auswirkungen unterschiedlicher Involvement-Niveaus zu testen, wurden High- und Low-Involvementgruppen gebildet. Es zeigt sich, dass insbesondere bei den High-Involvementgruppen die informative Werbeform des Advertorials positive Auswirkungen auf die Produktbeurteilung und die Kaufwahrscheinlichkeit hat. Aus den Erkenntnissen werden einige Empfehlungen abgeleitet. ; The impact of an advertorial versus a classic advertisement on product memory and evaluationAn empirical study of the advertising effectiveness of advertorials versus classic ads in daily newspapers.AbstractAs an integral part of entire communication policy of a company, the role of advertising is to reinforce the brand names and, thus, contribute to securing the value added strength of the company. The impact of communicative measures is too complex to portray using an impact model. In this thesis an overview of the wide variety of advertising impact models is given; probably the most well-known representatives are the Elaboration-Likelihood-Model (ELM) and the Advertising Effects Path Model by Kroeber-Riel.Selected factors influencing the impact of advertising are discussed based on empirical findings. For example, it deals with the effect of timing on information processing, the effect of advertising variations on one?s attitude toward a promotional item, the impact of ad repetition and ad content on one?s perception as well as the impact of product knowledge on product evaluation. In an empirical study two different forms of advertising in print media are tested with regard to their advertising impact: A classic ad (with a large amount of pictures, contains only the most important product information) and an advertorial (informative ad, conveys the performance benefits of the product presented in the form of a report). In order to test the effects of various involvement levels, high and low involvement groups were formed. It shows that, particularly with high-involvement groups, the informative form of advertising, the advertorial, has positive effects on product evaluation and purchase probability. Several recommendations can be derived from these findings. ; Gerhard Valeskini ; Abweichender Titel laut Übersetzung der Verfasserin/des Verfassers ; Zsfssung in dt. und engl. Sprache ; Graz, Univ., Masterarb., 2012 ; (VLID)221858
During the last three decades of the eighteenth century German men of letters sensed that they had something to learn from their Scottish counterparts about the forging of a cultural and linguistic identity. By the second decade of the nineteenth century the pupils had far outstripped the teachers and were already embarked on a quest for a full blown national identity. The Scots, by contrast, had completed a long and complex process of disowning their memory of a distinct Scottish sovereignity, discarding the intellectual apparatus that might have supported it - national myths, separatist historical scholarship and the ideas of uniqueness and superiority. The fate of James Macpherson's Works of Ossian (1765) serves as an illustration of these contradictory developments. In Scotland the success of Ossian was shortlived as the complexity of Scottish enquiries into history and society stretched far beyond Macpherson's idealized Highland world. Scottish historiography and political theory dispensed with the indigenous and ethnic dimensions essential for the emergence of Romantic nationalism. For many continental readers Ossian provided a model for their own search for a national identity through the revival of the indigenous cultural legacy. The German quest for a politically distinct national identity rose to pre-eminence in social and political discourse. By the early nineteenth century the Enlightenment affinities beween Scottland and Germany had given way to profoundly different political and cultural agendas. In Scotland the future was soundly British, Scotland's past had become the stuff of folklore, while Germany's past was being recast into a new form of national self-assertion. ; During the last three decades of the eighteenth century German men of letters sensed that they had something to learn from their Scottish counterparts about the forging of a cultural and linguistic identity. By the second decade of the nineteenth century the pupils had far outstripped the teachers and were already embarked on a quest for a full blown national identity. The Scots, by contrast, had completed a long and complex process of disowning their memory of a distinct Scottish sovereignity, discarding the intellectual apparatus that might have supported it - national myths, separatist historical scholarship and the ideas of uniqueness and superiority. The fate of James Macpherson's Works of Ossian (1765) serves as an illustration of these contradictory developments. In Scotland the success of Ossian was shortlived as the complexity of Scottish enquiries into history and society stretched far beyond Macpherson's idealized Highland world. Scottish historiography and political theory dispensed with the indigenous and ethnic dimensions essential for the emergence of Romantic nationalism. For many continental readers Ossian provided a model for their own search for a national identity through the revival of the indigenous cultural legacy. The German quest for a politically distinct national identity rose to pre-eminence in social and political discourse. By the early nineteenth century the Enlightenment affinities beween Scottland and Germany had given way to profoundly different political and cultural agendas. In Scotland the future was soundly British, Scotland's past had become the stuff of folklore, while Germany's past was being recast into a new form of national self-assertion.
Der folgende Beitrag, der multimodale Medienanalyse mit einem kulturwissen-schaftlichen Ansatz verbindet, beschäftigt sich mit der Medialisierung von tes-timonialen Diskursen anhand zweier Beispiele: dem performativen Dokumen-tarfilm QUE TE VER VIVA (1989) von Lúcia Murat und der Comicserie SUBVERSIVOS (1999ff.) von André Diniz. Beiden gemein ist der Gegenstand der se-xualisierten Folter an Frauen aus dem Widerstand gegen die brasilianische Mi-litärdiktatur, beide verarbeiten Formen des testimonialen Diskurses und ver-binden dies mit einer reflektierten ästhetischen Transgression der vorherr-schenden Erinnerungsdiskurse ihrer Zeit. Die Mediatisierung von ZeugInnen-aussagen zu Foltererfahrungen wirft gemeinhin medienästhetische und medi-enethische Fragen zu den Grenzen des Sag- und Repräsentierbaren in media-len Diskursen auf. In unseren beiden Fallbeispielen, die durch die intermediale Bezugnahme und ästhetische Transposition von erzählerischen und bildlichen Motiven aus Murats Dokumentarfilm in der Comicserie verbunden sind, spielt Multimodalität als Set von Diskursstrategien eine zentrale Rolle dabei, wie ein Erfahrungsspektrum jenseits des Sag- und Visualisierbaren evoziert wird. Der medienübergreifende Vergleich lenkt dabei das Augenmerk auf das Zusam-menspiel von verschiedenen semiotischen Modalitäten, mit denen die Verkör-perung von Leid- und Traumaerfahrungen in testimonialen Erzählungen me-dial konstruiert wird. Da diese Strategien eingebettet sind in die Modellierung und Reflexion der komplexen Weltbezüge des testimonialen Diskurses, die an der Grenze von Subjektivität, Faktizität und Performativität der kulturellen Er-innerung angesiedelt sind, zeigt dieser Beitrag zudem, wie die Dimension refe-renzieller Modalitäten im Sinne einer Erweiterung des Gegenstandsbereichs der multimodalen Medienanalyse fruchtbar gemacht werden kann. ; The following contribution, which combines multimodal media analysis with a cultural-scientific approach, examines the medialization of testimonial dis-courses based on two examples: the performative documentary QUE TE VER VIVA (1989) by Lúcia Murat and the comic series SUBVERSIVOS (1999ff.) by André Diniz. Both are about sexualized torture of female members of the re-sistance against the Brazilian military dictatorship, both process testimonial discourses and combine this negotiation with a reflective aesthetic transgres-sion of the prevailing memory discourses of their time. The mediatization of testimonies on torture generally raises questions of media aesthetics and me-dia ethics concerning the limits of what can be said and represented in media discourses. In our two case studies – which are connected through intermedial references and aesthetic transpositions, where narrative and pictorial motifs from Murat's documentary appear in the comic series – multimodality plays a key role. As a set of discursive strategies, multimodality helps evoke an expe-riential spectrum beyond what can be said and what can be visualized. The cross-media comparison draws the attention to the interaction of different se-miotic modalities, which construct the embodiments of suffering and traumatic experience in testimonial narratives. As these strategies are embedded in the ways in which testimonial discourse models and reflects complex world refer-ences, which are situated at the borders of subjectivity, facticity and performa-tivity of cultural memory, this contribution also shows how referential modali-ties can be a useful dimension to expand the scope of possible applications for multimodal media analysis.
Der Alpinismus geriet im ausgehenden 19. Jahrhundert zu einem kulturellen Phänomen, welches, über gesellschaftliche Funktionen der Erholung und des Wettkampfes, in Verknüpfung mit politischen Dimensionen des Krieges und des Deutschnationalismus, im 20. Jahrhundert eine Neubewertung erhielt. Im bürgerlichen Deutschen und Österreichischen Alpenverein wurde eine umfassende Verbindung aus Krieg und Alpinismus ideologisch, wie auch institutionell suggeriert und damit erfahrbar. Die Affinität dieser Vorstellungswelten zueinander, verhalf einem "kriegerischen Alpinismus", welcher weiterführend als kulturelles Konstrukt zu einem Leitbild von Kriegslegitimation wurde und Eingang in eine national geprägte Erzählung und Rezeption des Ersten Weltkriegs erhielt. Die daraus resultierende Mythisierung und Romantisierung des Alpenkriegs, wurde über propagierte Heldenbilder speziell in der Dolomitenfront verortet und gesellschaftliche Werte der Identität, Männlichkeit und des Nationalismus dadurch nachhaltig beeinflusst. Spuren dieser manifestierten Mythen sind heute noch, sowohl an Gedenkorten, wie auch im österreichischen kollektiven Gedächtnis zu finden. ; At the end of the 19th century, alpinism turned into a cultural phenomenon characterized by the societal functions of recreation and competition. However, the movement experienced a revaluation by combining its original purpose with the political dimension of war and German nationalism in the course of the early 20th century. Within the civil German and Austrian Alpine Association, a comprehensive relation between war and alpinism developed, both on an ideological and institutional level. The mutual affinity between those conceptional worlds lead to the emergence of a "martial alpinism", which became a prime model for the legitimization of war, and entered the nationally coined narration and reception of World War I. The resulting mythologization and romanticizing of the Alpine war was especially perceptible in propagandized heroic images of the front in the Dolomites, and had a lasting impact on the social norms of identity, masculinity and nationalism. Traces of these manifested myths can still be found to the present day at memorial sites, as well as in the Austrian collective memory. ; vorgelegt von Martin Wastlbauer ; Abweichender Titel laut Übersetzung des Verfassers/der Verfasserin ; Zusammenfassungen in Deutsch und Englisch ; Karl-Franzens-Universität Graz, Diplomarbeit, 2017 ; (VLID)2287196
How can it be explained that two people with the same IQ receive different scores on an exam? Is it intelligence? Personality? Can thinking styles, located at the interface between intelligence and personality, make important contributions? For Robert Sternberg, thinking styles are not an ability, but rather the way in which one wants to use one's abilities. Sternberg developed the model of self-government with 13 thinking styles, which can all be measured by the Thinking Style Inventory (TSI). Each thinking style stands for a unique way to deal with problems and tasks. To investigate a possible relationship between thinking styles and intelligence, data were collected from 164 students. For this purpose the German version of the TSI and the Intelligence-Structure-Test 2000 R (I-S-T 2000 R) were applied. To take effects of age and gender into account, the relationship between thinking styles and aspects of intelligence, measured by the I-S-T 2000 R was calculated by using partial correlation. Due to the large number of correlations, the Bonferroni-Holm correction was applied. No significant correlations could be found. At least differences in sex and age were found. Men achieved significantly higher scores on the legislative, judicative, global and liberal thinking styles than women. Also a correlation between memory and age was found. Like in previous studies no convincing correlations between thinking styles and intelligence were found. This study was a first attempt to examine the German version of the TSI in conjunction with intelligence. Although no significant correlations were found, some of the hypothesis were expected to point in the right directions. ; von Miachael Haid ; Zusammenfassungen in Deutsch und Englisch ; Abweichender Titel laut Übersetzung des Verfassers/der Verfasserin ; Karl-Franzens-Universität Graz, Diplomarbeit, 2016 ; (VLID)1344617
A) Motivation und Problemstellung Der Computer ist heute eines der wichtigsten Hilfsmittel beim Entwurf und der Entwicklung von Fahrzeugen. Zunächst wurde er von Konstrukteuren für das Computer Aided Design (CAD) von virtuellen Fahrzeugmodellen eingesetzt. Inzwischen ist er in vielen anderen Bereichen der Fahrzeugentwicklung unentbehrlich geworden: der Entwicklungszyklus von Automobilen ist durch die Computer-gestützte numerische Simulation substanziell verkürzt worden. An virtuellen Prototypen gewonnene Ergebnisse können zunächst optimiert und anschließend am realen Prototypen validiert werden. Untersuchungen der Fahrdynamik, des Crash-Verhaltens, der Innenraumakustik und der Außenhautumströmung sind nur einige Anwendungsfelder, in denen Computer-basierte Technologien zur Senkung der Entwicklungskosten beitragen. Nach den Vorgaben aus dem Design wird ein Konstruktionsmodell erstellt; die erzeugten CAD-Daten beschreiben die Fahrzeugkomponenten anhand parametrischer Flächen und zusätzlicher Materialinformationen. Um die Daten in numerischen Simulationen verwenden zu können, müssen die Flächenbeschreibungen zunächst diskretisiert werden. Für die Strukturmechaniksimulation wird das CAD-Modell daher in ein Finite-Element-Modell umgewandelt, das dann zum größten Teil aus drei- und viereckigen Schalenelementen besteht. Das Finite-Element-Modell wird in einem Vorverarbeitungsschritt aufbereitet und mit zusätzlichen Daten ergänzt, bevor es dem Simulationsprogramm als Eingabedaten übergeben wird. Nach der meist sehr zeitintensiven Simulation, die für Gesamtfahrzeugmodelle mehrere Tage in Anspruch nehmen kann, liegen als Ergebnis große Datenmengen vor. Diese können aufgrund ihres Umfangs und ihrer Komplexität nur mit ausgereiften Visualisierungswerkzeugen ausgewertet werden. Die Erkenntnisse aus der Simulationsanalyse fließen an den Konstrukteur zurück. So schließt sich der Zyklus, der den virtuellen Prototypen solange iterativ verbessert, bis alle Zielgrößen erreicht werden. Bereits Anfang der achtziger Jahre wurden Strukturanalysen mit Hilfe numerischer Simulation anhand einfacher Balkenmodelle durchgeführt. Die Modellkomplexität geht mit der Leistungssteigerung der Hardware und der Weiterentwicklung der Simulationssoftware einher: die Modellgröße hat sich seitdem alle drei Jahre mehr als verdoppelt. Der Notwendigkeit, dem Entwicklungsingenieur entsprechende Visualisierungswerkzeuge zur Verfügung zu stellen, wurde bisher von den Herstellern der Simulationssoftware mit eigenen Lösungen begegnet. Anfangs entstanden einfache Darstellungsanwendungen, die das Fahrzeug als Gittermodell zeichneten, ohne einen räumlichen Eindruck zu vermitteln; die Applikationen wurden weiterentwickelt, entsprechen jedoch heute in der Regel nicht mehr dem, was im Bereich der Softwareentwicklung und vor allem der Visualisierung Stand der Technik ist. Der Fortschritt durch wissenschaftliche Forschung in der Computergraphik und die Weiterentwicklung der Hardware, insbesondere der Graphiksubsysteme, lässt die Lücke zwischen dem, was in der Visualisierung möglich ist, und dem, was in kommerziellen Produkten zur Datenanalyse angeboten wird, immer größer klaffen. Zudem ist die Wissenschaft im Bereich der angewandten Informatik stets bemüht, Einsatzgebiete zu identifizieren, in denen neu entwickelte Methoden evaluiert und verbessert werden können. Eine enge Zusammenarbeit zwischen Ingenieuren und Wissenschaftlern erscheint daher als sehr vielversprechend und zwingend notwendig. Die vorliegende Arbeit ist im Rahmen einer engen Kooperation mit der Berechnungsabteilung der BMW-Gruppe entstanden. Sie hat zum Ziel, den bestehenden Fahrzeugentwicklungsprozess im Umfeld der Strukturmechaniksimulation zu analysieren und durch Adaption neuer Methoden der Computergraphik aus anderen Bereichen sowie durch Entwicklung neuer Visualisierungstechniken und Interaktionsmechanismen zu beschleunigen. Eine Evaluation der eingesetzten Konzepte soll anhand einer prototypischen Applikation vorgenommen werden. Bisher wurde in der Visualisierung im Bereich der Strukturmechaniksimulation auf Basis von vierseitigen Schalenelementen nur wenig geforscht. Für die Analyse von Crash-Simulationsergebnissen müssen große, zeitabhängige Datensätze effizient verarbeitet werden. Dabei soll die Netzstruktur des Finite-Element-Modells erhalten bleiben, ohne dass dabei auf hohe Interaktionsraten verzichtet werden muss. Eine schnelle Datenaufbereitung spielt dabei eine ebenso wichtige Rolle, wie die Navigation durch das virtuelle dreidimensionale Fahrzeugmodell mit Hilfe der an einem Standardarbeitsplatz vorhandenen Eingabegeräte. Die Weiterentwicklung der Simulationscodes hat es ermöglicht, Teilstrukturen mit Randbedingungen zu versehen, so dass nun Berechnungen an Teilmodellen vorgenommen werden können. In der Karosserieberechnung werden anstatt homogen vernetzter Gesamtmodelle seitdem unabhängig voneinander vernetzte Bauteile zu virtuellen Fahrzeugmodellen zusammengesetzt. Der Netzanschluss benachbarter Bauteile wird nun nicht mehr über das aufwändige Abgleichen und Nutzen gemeinsamer Randknoten hergestellt; stattdessen überlappen die Bauteilnetze in Flanschbereichen, wo sie durch neu entwickelte Verbindungselemente aneinander gebunden werden. Dies hat unter anderem den Vorteil, dass einzelne Bauteile durch Varianten ausgetauscht werden können, ohne dass die Umgebung neu vernetzt werden muss. Wichtige Entscheidungen müssen bereits in der frühen Phase eines Fahrzeugprojektes aufgrund der durch numerische Simulation gewonnenen Erkenntnisse getroffen werden. Das setzt voraus, dass die bis dahin verfügbaren Konstruktionsdaten in rechenbare Simulationsmodelle umgesetzt werden können. Durch die unabhängige Vernetzung einzelner Bauteile und den unterschiedlichen Konstruktionsstand der verschiedenen Fahrzeugkomponenten kommt es nach der Zusammenführung häufig zu Berührungen und Durchdringungen der Bauteilnetze im diskretisierten Finite-Element-Modell. Diese müssen zunächst detektiert und beseitigt werden, da sie ansonsten die Simulationsergebnisse verfälschen würden. Darüber hinaus müssen die Bauteilnetze miteinander durch Verbindungselemente verbunden werden. Da die Konstruktionsdaten in der frühen Phase jedoch keine vollständigen Verbindungsdaten beinhalten, muss der Berechnungsingenieur den Datensatz mit entsprechender Information aufbereiten. Die Vorverarbeitung von Eingabedaten für den Simulationsprozess nimmt angesichts steigender Variantenrechnungen und einer halbwegs automatisierten Standardauswertung der Simulationsergebnisse gegenüber der Nachbearbeitung einen immer höheren Stellenwert ein. Derartige Ergänzungen der Simulationsmodelle mussten bisher mit Hilfe eines Text-Editors direkt an den Eingabedateien vorgenommen werden. Netzfehler und fehlende Anbindungen zwischen Bauteilen konnten lediglich durch Anrechnen des Modells entdeckt werden. Dazu wurde der Simulationsprozess gestartet und nach einiger Zeit wieder abgebrochen. Durch die Analyse der bis dahin berechneten Zwischenergebnisse werden derartige Unzulänglichkeiten des Eingabemodells sichtbar. Vorweggenommene Konsistenzprüfungen machen zeitaufwändige Anrechnungen überflüssig. Weiteres Prozessoptimierungspotenzial liegt in der Integration und Angleichung verschiedener Werkzeuge. Eine enge Kopplung des Simulationsprozesses an die Vor- und Nachbearbeitung der Daten durch ein und dieselbe Applikation, die sowohl Ein- als auch Ausgabedaten verarbeiten kann, schafft die Grundlage für eine schnelle Iteration im Optimierungsprozess und trägt zur angestrebten Reduzierung der vom Ingenieur zu bedienenden Vielzahl von Applikationen bei. In Zeiten fortschreitender Globalisierung und Fusionierung, aber auch durch zunehmendes Outsourcing der Teilmodellerstellung an darauf spezialisierte Dienstleistungsunternehmen steigt der Kommunikationsbedarf über räumliche Grenzen hinweg zusammenarbeitender Entwicklungsteams. Kostenintensive Besprechungen, zu denen sich alle Beteiligten an einem Ort zusammenfinden müssen, können nur durch Verbesserung der bereits vorhandenen Fernkommunikationsinfrastruktur reduziert werden. Da auf die gemeinsame Betrachtung der Modelldaten als Diskussionsgrundlage bei Besprechungen nicht verzichtet werden kann, bietet sich eine netzwerkbasierte Kopplung entfernter Arbeitsplätze an, um kleinere Besprechungstermine durch Telefonate mit zeitgleicher kooperativer Visualisierungssitzung am Arbeitsplatzrechner ersetzen zu können. Ein weiterer Aspekt befasst sich mit der Absicherung der Zuverlässigkeit von Simulationsergebnissen. Um eine Aussage darüber machen zu können, welche Modifikation der Fahrzeugstruktur das simulierte Verhalten positiv beeinflusst hat, müssen zunächst alle Einflussfaktoren, die auf die Simulation wirken, analysiert werden. Dies geschieht in Stabilitätsanalysen, in denen anhand gleicher Eingabedaten die Streuung der Simulationsergebnisse gemessen und die Ursache dafür erforscht wird. Durch konstruktive Maßnahmen soll in Ursprungsbereichen maximaler Streuung das Modell dahingehend modifiziert werden, dass gleiche Eingabedaten zu annähernd gleichen Simulationsresultaten führen. Ziel dieser Arbeit ist, das Pre- und Postprocessing von Strukturmechaniksimulation im Fahrzeugentwicklungsprozess bezüglich neuer Funktionalität und Leistungsfähigkeit durch die Einbeziehung neuer Graphiktechnologien sowie durch die Entwicklung neuer Visualisierungsalgorithmen signifikant voranzubringen. B) Beiträge dieser Arbeit Da die Arbeit in enger Zusammenarbeit mit der Karosserieberechnungsabteilung der BMW-Gruppe entstand und die Forschungsergebnisse direkt von den Ingenieuren an alltäglichen Problemstellungen eingesetzt werden sollten, mussten zunächst Voraussetzungen für eine erhöhte Akzeptanz bei den Anwendern geschaffen werden. Dazu gehören vor allem kurze Ladezeiten der Daten, eine intuitiv zu bedienende Benutzerschnittstelle sowie komfortable Funktionalität, die es ermöglicht, die Aufgaben schneller zu lösen als mit anderen Applikationen. Die Analyse der zu verarbeitenden zeitabhängigen Simulationsdaten und der zum Einlesen zur Verfügung gestellten Bibliothek führte zu einer geeigneten internen Datenstruktur, die eine effiziente Datenaufbereitung erlaubt und damit zu geringeren Start-up-Zeiten führt als bei vielen kommerziell verfügbaren Visualisierungswerkzeugen. Ferner resultiert aus der Evaluation verschiedener Szenengraphbibliotheken unter Berücksichtigung der Rechnerplattform im Anwenderumfeld die Entscheidung zu Cosmo3D / OpenGL Optimizer. Durch die Datenstrukturen und Funktionalitäten der Bibliothek bleibt der Ressourcenbedarf im Zusammenspiel mit einem optimierten Szenengraph-Design im Rahmen dessen, was auf einem Standard-Arbeitsplatzrechner zur Verfügung steht. Zur Beschleunigung der Bildsynthese werden bereits bekannte Verfahren zur Optimierung polygonaler Modelle für die Weiterverarbeitung in der OpenGL Pipeline mit adaptierten Algorithmen verglichen, die unter Berücksichtigung der zugrunde liegenden Daten Quadrilateralstreifen maximaler Länge bilden. Zusätzlich wird der Einsatz verschiedener Detailstufen im CAE-Umfeld untersucht und eine Lösung zur deutlichen Steigerung der Bildwiederholrate während der Navigation durch das Finite-Element-Modell präsentiert. Durch die Entwicklung und Evaluation Textur-basierter Visualisierungsverfahren werden deren Vorzüge anhand verschiedener Beispiele aus dem Berechnungsumfeld verdeutlicht. Daraus lässt sich die Notwendigkeit ableiten, Standard-Arbeitsplatzrechner in Zukunft mit entsprechender Graphik-Hardware auszustatten, um von den Möglichkeiten moderner Visualisierungsalgorithmen profitieren zu können. Im Rahmen der vorliegenden Arbeit wurde die Möglichkeit geschaffen, nach dem interaktiven Zusammenführen der Modellkomponenten aus verschiedenen Datenquellen auftretende Netzfehler zu visualisieren und selektiv zu beheben. Dazu kommen auf hierarchischen Datenstrukturen basierende Algorithmen zum Einsatz. Verbunden mit Methoden zur Darstellung und interaktiven Modifikation von Verbindungselementen sowie der Detektion fehlerhafter Schweißpunktdaten wird die Grundlage geschaffen, um Finite-Element-Modelle für die Crash-Simulation effizient aufzubereiten und die Modellerstellung für Variantenrechnungen stark zu vereinfachen. Speziell auf die Bedürfnisse der Berechnungsingenieure zugeschnittene Interaktions- und Navigationsmechanismen sowie frei bewegliche Clip-Objekte erleichtern den Umgang mit den Modelldaten. Durch die Entwicklung dreidimensionaler Selektionsobjekte und eine effiziente Schnittkraftberechnung steht die Kraftflussvisualisierung mit Hilfe dynamischer Kraftflussröhren nun auch als interaktives Analysewerkzeug im Postprocessing zur Verfügung. Die Berechnung der notwendigen Größen im Batch-Betrieb und die anschließende Zwischenspeicherung in einem eigenen Dateiformat ermöglicht die Standardauswertung von festgelegten Kraftflussverläufen im Anschluss an die Simulation. Dies trägt weiterhin zur Beschleunigung und Automatisierung der Nachverarbeitung bei. Mit der Entwicklung eines Bild- beziehungsweise Filmgenerators konnte mit Ergebnissen dieser Arbeit zur Entwicklung eines Integrationswerkzeuges für die Ablaufsteuerung und das Datenmanagement in der Karosserieberechnung beigetragen werden. Es werden zwei Lösungen für Szenarien einer kooperativen Sitzung mit mehreren Rechnern präsentiert. Die Ergebnisse zeigen auf, wie zeitaufwändige Treffen zwischen Ingenieuren durch Telefonate mit gleichzeitiger kooperativer Visualisierungssitzung ersetzt werden können. Das vorgestellte Verfahren zur Stabilitätsanalyse von Simulationsprozessen hilft, Ursprünge von Instabilitäten aufzudecken und die Aussagekraft der Simulationsergebnisse verbesserter Modelle zu erhöhen. Durch diese Arbeit ist eine prototypische Visualisierungsplattform für die Vor- und Nachbereitung von Strukturmechanikdaten namens crashViewer entstanden. Das objektorientierte Softwaredesign des Prototypen erlaubt die Integration weiterer Datenformate sowie die Implementierung neuer Algorithmen zu deren Evaluation im produktiven Einsatz in der Karosserieberechnung, aber auch in anderen CAE-Bereichen. C) Gliederung der Arbeit Im Folgenden wird ein Überblick über den Aufbau dieser Arbeit gegeben, woraus der Zusammenhang der Kapitel untereinander hervorgeht. Kapitel 2 motiviert die Entwicklung einer in die Simulation integrierten Vor- und Nachverarbeitungsapplikation. Zu Beginn führt das Kapitel in das breite Feld der digitalen Fahrzeugentwicklung ein. Das Umfeld der Crash-Simulation wird detaillierter betrachtet, wodurch ein Fundament für ein besseres Verständnis der darauffolgenden Kapitel geschaffen wird. Kapitel 3 gibt einen Überblick zu den Grundlagen der interaktiven Computergraphik und der Visualisierung. Darüber hinaus werden die der Crash-Simulation zugrunde liegenden Daten beschrieben, indem zunächst die Strukturen, aus denen sich ein Gesamtfahrzeugmodell im Allgemeinen zusammensetzt, erläutert werden und anschließend auf die Datenformate der Simulationseingaben beziehungsweise der Simulationsergebnisse eingegangen wird, um die breite Spanne der zu verarbeitenden Daten zu beleuchten. Kapitel 4 präsentiert ein effizientes Szenengraph-Design für zeitabhängige Finite-Element-Modelle mit invarianter Topologie. Dazu werden die notwendigen Grundlagen der verwendeten Graphikbibliotheken vermittelt und Erweiterungsmöglichkeiten diskutiert. Kapitel 5 erläutert die Architektur des im Rahmen dieser Arbeit entstandenen Prototypen und gibt einen Überblick über entwickelte Interaktionsmechanismen zur effizienten Datenanalyse. Kapitel 6 diskutiert verschiedene Verfahren zur Darstellungsbeschleunigung. Während sich die Quadrilateralstreifengenerierung und die Simplifizierung mit der Optimierung der modellierten Geometrie für eine effiziente Verarbeitung in der Graphik-Hardware auseinandersetzt, zeigt der letzte Teil dieses Kapitels, wie durch den Einsatz von Texturen zusätzliche Geometrieverarbeitung überflüssig wird. Kapitel 7 stellt spezielle Funktionalitäten für die Vorverarbeitung von Eingabemodellen vor. Außer der in verschiedenen Bereichen eingesetzten Distanzvisualisierung wird das interaktive Modifizieren von Schweißpunktdaten und die Parameterübertragung zwischen inkompatiblen Gittern erläutert. Kapitel 8 veranschaulicht Konzepte für die Nachverarbeitung von Simulationsergebnissen. Es werden Techniken zur Visualisierung skalarer und vektorieller Größen präsentiert. Darüber hinaus werden die interaktive Kraftflussvisualisierung und die Darstellung von Instabilitäten in Simulationsergebnissen betrachtet. Die CORBA-basierte Erweiterung zum gemeinschaftlichen Arbeiten räumlich getrennter Anwender, sowie die Batch-basierte Bild- und Film-Generierung von Strukturmechanikdaten schließen die Vorstellung der im Rahmen dieser Arbeit neu entwickelten Methoden ab. Kapitel 9 stellt die Ergebnisse dieser Arbeit in einen Kontext. An Beispielen aus dem produktiven Entwicklungsprozess werden die erzielten Fortschritte verdeutlicht und die Akzeptanz bei den Anwendern kritisch beleuchtet. Abschließend wird ein Überblick über weiterführende Arbeiten gegeben, die auf den vorliegenden Ergebnissen basieren. ; This thesis presents visualization techniques and interaction concepts that have been developed for the pre- and post-processing of structural mechanics. This work was done in cooperation with the crash simulation department of the BMW Group. The automotive industry's main goal is ensuring its share of a global market, which is becoming ever more competitive and dynamic. On the one hand, product quality has to be increased in relation to fuel consumption, weight, and passive safety. On the other hand the development process needs to be streamlined in order to reduce development costs and time to market. These objectives are hoped to be achieved by making extensive use of virtual prototyping. The vehicle development process has completely changed during the past two decades. In the early eighties finite element analysis found its way into the simulation of structural mechanics in the German automotive industry. Initially developed for military purposes, in 1983 a group of engineers of several automotive companies started feasibility studies based on finite element models containing less than 5,000 beam elements. Seven years later productive results of finite element analysis in structural mechanics started to influence car body development. In the second half of the nineties important project decisions were made during the early phase of the development process based on a deeper insight into crash behavior provided by crash-worthiness simulation results. Today, numerical simulation is an indispensable part of the computer aided product development chain in the automotive industry. After the design of a new car model is completed, a digital model is constructed by means of computer aided design (CAD). In a meshing step the created parametric surfaces defined by spline curves are discretized. The results describe the geometry of the car body by finite elements, for crash simulation mainly three- or four-sided shells but also beams and volumetric elements. The finite element model is completed, for example, with material properties, contact information, and boundary conditions. This is done in a preprocessing step. Once the simulation input data is available, the whole model is handed over to the simulation process which takes about one or two days using massive parallel processing. The deformation is recorded in a large result file. Commonly, the first 120 milliseconds of a crash are simulated and each two-thousandth time step is stored. A time step of less than one microsecond leads to a result file containing more than sixty snapshots. Typically, physical data such as acceleration, velocity, displacement, and forces per nodes or thickness, stress, strain, and other energies per element are recorded. During post-processing the information is analyzed in order to evaluate crash-worthiness. The feedback provided for the construction department closes the loop when all goals set for the car body structure have been attained. The virtual car body development in the pre- and post-processing of crash simulation divides into two main phases: (1) In the concept phase, new ideas are discussed and evaluated in order to reach a priority objective like minimizing car body weight. Only few people per car project are involved for a period of 12 to 18 months in this first stage. (2) After the basic decisions have been made regarding new concepts, a second phase follows which compromises all other fields to refine those concepts with respect to other objectives coming from the area of stability, dynamic or NVH. This phase requires many engineers from different departments for a period of more than 30 months to optimize the product. The later undesirable properties are revealed the higher the cost will be for the then necessary changes. Until the late nineties transitions between adjacent car body parts were modeled as two finite element meshes that share common nodes at the border. Each time a car body part was replaced by an optimized variant in order to enhance the crash behavior either the whole car model had to be re-meshed or border nodes had to be adapted manually. Therefore, preparing such variant models was a very time consuming task. After simulation codes like PAM-CRASH were able to simulate car body connections like for example spotwelds, finite element models became more like their counterparts made of steel. Now, a flange is constructed, along which adjacent car body parts can be connected without sharing common nodes. This allows for an independent meshing of car body parts and therefore for more variant computations. However, independent meshing lead to mesh penetration or even perforation in flange areas when inhomogeneous meshes are assembled. Thus, a new task arose for preprocessing where those mesh errors have to be removed in order to avoid error-prone simulation results. On the post-processing side, large time-dependent data sets require dedicated visualization methods that help the engineers to interpret the huge amount of data at interactive frame rates. Therefore, finite element meshes need to be prepared for an optimized processing in the graphics pipeline. Typical types of data that have to be visualized are scalar values, vectors, tensors or any combination thereof. In 1997, when most of the commercial visualization tools provided by solver companies as add-on to the simulation software could no longer provide state-of-the-art graphics, a demand arose for new visualization techniques available for productive use. Besides, the growing throughput caused by an increasing number of car body variants and the acceleration of computation hardware allowing more optimization cycles, made it necessary to automate as much processing steps as possible. The growing outsourcing of development tasks to suppliers and the number of merges in the automotive industry, which entail cooperation of corresponding departments at different sites, require a client-server-solution for cooperative work. Finally, the simulation community is concerned about the validity of their results compared to real crash-tests. It is important to detect and minimize the sources of scattering in the results originated by the simulation model or process. This is also a precondition for stochastic simulation, which is used in order to optimize the crash behavior by varying input parameters. The goal of this thesis is to provide solutions to some of the issues just stated. First of all, the applicability of different scene graph APIs is evaluated for large time-dependent data sets. APIs such as Performer or Cosmo3D / OpenGL Optimizer have been developed to take advantage of multiprocessing. Those APIs can perform model optimization during scene graph creation and benefit from multiprocessing using frustum culling and occlusion culling while traversing the scene graph to increase frame and interaction rates. Because of the large time-dependent databases and the limited memory of the workstations an efficient scene graph design is very important in order to handle the complex data interdependencies and to achieve high rendering speed. While five years ago the models consisted of about 250,000 finite elements with nearly the same number of nodes, today the size of the models has almost quadrupled. Since the element topology does not change in crash simulation, the connectivity of the finite elements needs to be stored just once. An index set representing the topology is shared across the sub-graphs of all time steps. A Gouraud shaded surface requires to do the edge detection on the state where geometry is deformed most, which is in general the last one. In order to minimize memory consumption, the index set is used for both coordinates and normals. Therefore, coordinates at vertices with multiple normals need to be added once per normal. Other scene graph nodes, e.g. the one specifying the appearance, can also be shared. Handling triangular elements as degenerate quadrilaterals allows to represent a mesh of three- and four-sided shell elements in one scene graph node. The prototype application named crashViewer, which was implemented to evaluate the methods developed in this thesis, uses Cosmo3D / OpenGL Optimizer for historical reasons: this bundle had been presented as predecessor of the 1997 announced Fahrenheit project, which was aborted two years later. Nevertheless, the proposed scene graph design allows to visualize 60 time steps of a model containing half a million elements and the same number of nodes with a memory consumption of 360 MB (flat-shaded) or 970 MB (Gouraud-shaded), provided that a crease angle of 20 degree leads to 40% more normals than vertices. One basic requirement for an interactive visualization application is that the frame rate does not fall below an acceptable minimum threshold. What "acceptable" means depends on data and experience with other tools. Generally speaking, visualization data should be rendered as fast as possible. For this reason, one aim of this work is to point out methods to optimize the finite element meshes' rendering acceleration. Two approaches are examined: (1) concatenation of adjacent elements to reduce data redundancy during geometry processing and (2) mesh simplification to remove information that does not significantly influence the shape of a car body part. Although OpenGL Optimizer provides a tri-stripper (opTriStripper) that is able to convert any polygonal mesh into strips of triangles, it is not applicable in this field because the original mesh structure should still be visible in wireframe mode. Hence, a quadrilateral stripper was developed, which analyses the mesh structure and generates many parallel bands of maximum length. As a matter of fact, quad-strips are not as versatile as tri-strips because each turn costs two extra vertices. However, compared to opTriStripper's reduction to 63.5% the proposed bandification algorithm reduces the number of referenced vertices to 54% of an unstripped representation averaged over 3,274 car body parts. Depending on the availability of vertex arrays the bandification leads to a rendering speed-up factor of about 4.5 without and 1.7 with vertex arrays in comparison to the unstripped geometry. In order to achieve even higher frame rates during camera interaction, a two-stage level-of-detail concept is developed. In addition to a fine level displaying the original mesh resolution, which is essential for the visualization in pre- and post-processing of structural mechanics simulation, a second level with coarse triangles is used as intermediate model for camera movement. Each time the user modifies the view, a previously simplified mesh is rendered until the camera parameters are no longer changed. Then the finer level of detail is displayed. An simplification algorithm was implemented which uses the one-sided Hausdorff distance as an error measure and which is compared to the Successive Relaxation Algorithm provided by OpenGL Optimizer as opSRASimplify. Aside from the interface opSRASimplify, which turns out to be unsuitable for getting an optimal decimated mesh with respect to a predetermined error tolerance, the resulting mesh quality is not as high as with the new HECSimplify simplifier. Breaking the error criterion can be avoided by defining an appropriate cost function for opSRASimplify, which causes less triangles to be removed compared to HECSimplify. If the decimation target is specified to achieve the same level of reduction, then the resulting triangle mesh contains gaps and the model appears distorted. Different car body models are reduced to 9-18% of the original number of triangles applying HECSimplify. This leads to a rendering speed-up factor of between 3.4 and 6.7. There is a trade-off between rendering speed and memory consumption. HECSimplify only applies half-edge collapses to the polygonal mesh. These operations just modify the topology, not the vertex coordinates. Therefore, the original and the reduced mesh are able to refer to the same set of coordinates. On the one hand, coordinate set sharing requires less memory, on the other hand the speed-up factor of a model that could be reduced to 9% of the original triangles is far away from 11. Both modules, the quad-stripper and the simplifier, are embedded into the Cosmo3D / OpenGL Optimizer framework by providing corresponding action objects and new scene graph nodes. Furthermore, the scene graph API was extended by several other new objects to overcome the restrictions with line picking or to provide new functionality. For example, the csClipGroup node enables the user to control a freely movable clip-plane, which affects only the underlying scene graph. This provides better insight into heavily deformed car body structures. Another form of clipping that is developed within this thesis uses one-dimensional RGBA texture maps in order to hide geometry that should not be displayed under certain conditions. This visualization method can be used, for example, to mask out those model regions that do not correspond to a given critical value range. In combination with distance values to adjacent car body parts the rendering can be restricted to potential flange regions of the model. For that purpose, first of all the parameter has to be transformed into a texture coordinate with respect to the specified parameter range. Then, a color scale is defined as a texture map. Using the GL_DECAL environment the color coding can be limited to regions of certain value ranges. Using the same mechanism in the GL_MODULATE environment with the alpha-test enabled allows for clipping the geometry where the corresponding values map into texture regions with an alpha component set to be fully transparent. This technique facilitates the accentuation of critical structures, because the user is able to interactively modify the texture map or the texture lookup table, if an index texture is used to control the visualization. As stated above, the most important change in finite element modeling for crash simulation was the introduction of independently meshed car body parts. Since the assembly of such inhomogeneous meshes may include perforations or penetrations, for example, caused by a shifted discretization along curved flanges, there was a growing demand for an interactive method to detect and remove this kind of mesh errors. Perforating regions can be detected by applying collision detection to the finite element model. Efficient collision detection as proposed by Gottschalk et al. requires hierarchical sub-structuring of the car body model. Consequently, in this study, each car body part is subdivided by a bounding volume tree (BVT). Different bounding volume types are tested: spheres, axis-aligned (AABB), and object-oriented bounding boxes (OBB). For perforation detection, where computation-intensive element-element-intersection tests are necessary at the lowest BVT level, OBBs turn out to be most efficient because they are very tight positioned around the element structure. Hence, downward traversals in the BVT can be terminated early because any one of 15 separating axes that defines a plane disjoining both volumes can be found. In order to detect penetrating nodes the minimum node-element-distances need to be computed. The BVT traversal algorithm is adapted appropriately. Children of a BVT node are visited only if their distance falls below a specified maximum distance of interest. Penetrating node-element-pairs are collected in a list for subsequent visualization. Using an interface to the original PAM-CRASH algorithm for penetration removal it is possible to provide the desired interactive mechanism that allows the engineers even to restrict mesh modification to selected car body parts. This is a big advantage over starting the simulation until initial forces move penetrating nodes apart from penetrated elements and restoring the computed mesh modification in the input data deck. First, the interactive method gives direct feedback and the engineers do not have to switch tools. Second, during the optimization of the car body structure by replacing single car body parts by variants this procedure enables the engineers to keep everything but the variant part fixed. Thus, only the nodes of the incoming part are aligned to its neighborhood and the confined modification makes it easier to compare the results of two simulations runs. What is more, the bounding volume hierarchy provides beneficial effects on many other tasks in pre- and post-processing of crash-worthiness simulation. It can be used to detect and follow flanges automatically or to spot flange regions that have only been inadequately connected. A basic task is the verification of connecting elements. For example, a spotweld must not exceed a maximum distance to those parts it should connect. Otherwise, a pending spotweld may suspend the simulation run delaying the development process and raising costs. In this study, several criteria for the validation of connecting elements are elaborated. Erroneous spotweld elements are emphasized by different colors and/or geometry. The engineers are successively guided to each problematic connection. Without this feature it would not be possible to find these model errors in such a short time. Furthermore, a method is developed that enables the computation engineers to effectively add missing connection information by means of spotwelds to the input model. Thus, it becomes even practicable to start with crash-worthiness simulations before detailed connection data is available from CAD data. One aim in virtual vehicle development is to combine the results of several areas in numerical simulation. In order to map the real development chain closely onto the virtual one, material properties influencing preliminary steps like forming have to be considered. For example, a deep-drawn blank sheet has a lower thickness in areas of high curvature than in other areas. As long as the material of a car body in crash simulation is assumed to be constant the before mentioned manufacturing influences cannot be properly represented. A hardware-based method is developed in this thesis for the efficient mapping of any type of data between incompatible meshes that are geometrically congruent. It utilizes the transformation and interpolation capability of the graphics subsystem. Element identifiers of one mesh are color-coded. For each element of the other mesh the view matrix is set up appropriately and the visible part of the first mesh is rendered. The colors that represent the element IDs can be read back into main memory. After the correlation between elements is finished in graphics hardware, the values are finally transfered in software. The post-processing of crash-worthiness simulation results necessitates the handling of large data sets. Since a binary result file may contain 2 GB of data but an engineer's workstation often is limited to 1 GB of main memory these boundary conditions need to be considered while designing data structures and algorithms of visualization software for this application area. On the other hand, interactivity and high rendering performance is a precondition to obtain acceptance by the user. The required tool should provide interaction mechanisms that assist the user in exploring and navigating through the data. Mainly, it should help to interpret the data by making the invisible visible. Besides an effective scene graph design, in this study, the internal data structures of the developed prototype application have been implemented with memory consumption in mind. Parameter transfer in post-processing is done state by state very fast by pointer-based data structures. The extensive use of texture mapping enhances the rendering performance. Visualization techniques are proposed that use textures for the direct mapping of scalar values onto the car body geometry, for the animated display of vector data, and for the visual discretization of the finite element mesh in the form of a wireframe texture map. All these approaches spare the transformation stage of the graphics pipeline additional processing of vertex-based data. For example, the traditional display method for shaded geometry with visible element borders is two-pass rendering, which halves the frame rate. The application of a black-bordered luminance texture, which is white inside, onto each geometric primitive balances the load between geometry and texture unit. Also, the encoding of a vector's direction by applying an animated texture onto a line reduces geometry load and leaves the underlying structure mostly visible in contrast to conventional vector visualization with arrows. Force flux visualization, first presented by Kuschfeldt et al. gives an overview over which components of the car body model absorb or transfer forces. It is necessary to detect and to understand the force progression within the car body structure. For example, the longitudinal structures within the front part of a car body play an important role for increasing the ability of the body to absorb forces in a frontal crash. Force flux visualization enables the engineers to design car components with an optimal crash behavior. This technique was made available for interactive daily use in crash simulation analysis. Providing a dedicated interaction mechanism, the prototype application allows to interactively define a trace-line along which the force flux can be visualized. For each section plane positioned in small intervals perpendicular along the trace-line the simulated node forces are accumulated. The resampling is accelerated by utilization of the bounding volume hierarchy. Each section force sum is then represented by color and radius of one ring of a tube around the trace-line. The dynamic trace-line definition aligns the force tube to the deforming structure of the analyzed car body part, for example, a longitudinal mounting. The specified trace-lines can be stored in order to precompute force tubes off line. This can be done by another prototype application in batch processing after simulation has finished. During a visualization session the precomputed values can be directly converted into time dependent force tube representations. The decoupling of time consuming computation and the interactive visualization further accelerates the analysis of crash-worthiness simulation. Starting multiple simulation runs with the same input data deck will produce different results. The scattering in results has to be minimized in order to be able to evaluate the influence of structure modifications. This work presents a method to detect and visualize instabilities of the simulation. The above stated texture-based visualization points out sources of instability and helps the engineers to determine if a branching is caused by the model structure or if it was originated by the solver. The pros and cons of different measurement functions are discussed. Furthermore, a CORBA-based synchronization of multiple viewers displaying different data sets is presented. This allows to analyze the simulation results of one run in direct comparison to those of other runs. It is very useful to view the differences in crash behavior of multiple car body models on one workstation. Moreover, this functionality can be used in combination with a telephone call to supersede a meeting between a computation engineer and his external supplier. The visualization is done locally on each client. Providing that data and software is available at each participating client, the only data that have to be transferred during a cooperative session are the events triggered at the steering master-client and propagated to one or more slave-clients. A master token decides which participant is able to send generated events to the other instances. This mechanism avoids conflicting camera control when multiple users try to modify their view at the same time. Another approach describes how an image-based client-server model can be used in this context. After a frame has been rendered on the server, it is encoded to reduce the amount of data. The encoded image stream is transferred to any client that is able to decode and display. There are less requirements for the client but the connection needs to provide a certain bandwidth. This scenario can also be used for remote visualization. The prototype crashViewer can be connected to a Java applet running inside a web-browser. Finally, a method for standardized analysis of crash-worthiness simulation is presented. A batch-processing prototype application has been developed to generate digital movies using a predetermined camera path. The contributions of this thesis aim at further acceleration of the virtual vehicle development process, for example, by introducing new interaction mechanisms, making extensive use of hierarchical data structures, using hardware-accelerated visualization techniques, and providing solutions for process automation.
This dissertation focuses on predictability problems regarding the behaviour of the professional librarians in public-, school- and research libraries in specific crucial situations. The material was obtained by observations/participations (over 10 years) in the daily work in Swedish libraries by non-structured interviews and "free" discussions with librarians and library visitors. Over 200 interviews with 87 librarians and over 300 discussions with 261 library visitors are the fundament of the empirical basis of my study. These findings build up a theoretical basis (a heuristic model) grounded in ideas of deterministic chaos and complexity theory. Deterministic means, that the current state is the consequence of its preceding states, in my terms, the corporate memory in organizations. Chaotic means the sensitivity of initial condition. Deterministic chaos describes behaviour which satisfies the conditions of determinism but even shows the characteristics of chaos. The study shows that differences between the behaviour of the librarians and the predictions of the behaviour in crucial situations from the political leadership are essentially grounded in ·The history of Swedish libraries (deterministic rationality and self-rationality). ·The asymmetric information between librarians and politicians. ·Self-organization of librarians in the daily work. ·The "free" will of librarians in crucial situations grounded in the philosophy of Kant. The behaviour I could observe was studied in the following situations: ·The demand of a law, which secures the existence of public- and school libraries. ·The selection, development and installation of appropriate computer based information systems in public- school- and research libraries. ·The GÖK- and KUR-projects, which was based on the assumption that new ways to work with the daily patterns in libraries should open the library for more visitors, book loaners and information seekers. The issues discussed in this dissertation gave the following results: ·That the long time, in many cases even short time, unpredictability of librarian behaviour in for the library crucial situations is not only understandable – but also necessary for the development of the library. ·That the deterministic chaotic behaviour of the librarians is generated by self-rationality, asymmetric information, and self-organization. ·That the library is not a chaotic organization but a deterministic chaotic organization. Further I could see tendencies for the same behaviour in other professional, knowledge based Non Profit Organizations like schools, universities and hospitals.
Seit der deutschen Wiedervereinigung steht die Stadt Berlin im Fokus einer Kampagne, die die Identität von Berlin neu definiert und die allgemeine Darstellung der Stadt positiv zu beeinflussen versucht. Das weit verbreitete Stadtbild beinhaltet jedoch nicht immer die Vielfältigkeit von sozialen und urbanen Akteuren. Oftmals wird Berlin als eine elitäre Stadt dargestellt, soziale Spannungen werden nicht betrachtet und können sich durch die einseitige Darstellung sogar verstärken. Diese Arbeit vergleicht die verschiedenen Darstellungen der Stadt, die von lokalen politischen Akteuren, der Tourismusbranche und von sozialen Bürgerbewegungen propagiert werden. Sie werden in der Arbeit ausgiebig erläutert und bewertet. Ein abschließender Vergleich legt die unterschiedlichen Darstellungen und Gemeinsamkeiten der verschiedenen Akteure dar. Neben der historischen Analyse mit Einbezug des Wandels der Stadt, werden Aspekte und Themen wie Kommerzialisierung, Bürgerbeteiligung, Multikulturalismus und Subkulturen behandelt. Darüber hinaus werden im Rahmen dieser Arbeit Fragen und Probleme des Urbanismus und der Gestaltung des Stadtbildes durch einen bildlichen Ansatz mit Einbezug der verschiedenen Konstellationen analysiert. Der Ansatz beruht auf der Idee des "dialektischen Bildes" von Walter Benjamin aus seinem 'Passagen-Werk'. Die Auswertung ergibt, dass die öffentliche Darstellung der Stadt von lokalen politischen Akteuren und der Tourismusbranche viele Gemeinsamkeiten aufweisen, während die Darstellung der Bewohner deutlich davon abweicht. Dieser Kontrast spiegelt eine große Unzufriedenheit von Teilen der Bevölkerung mit der offiziellen Darstellung der Stadt, welche sich auf einen post-industriellen, ökonomischen Ansatz stützt. ; Since German Reunification the city of Berlin has been the object of a carefully designed campaign to reinvent its identity and to promote its image. The propagated city image does not always include the wide variety of social and urban expressions, and frequently compels an elitist vision of the city that, far from alleviating emerging social tensions, reinforces them. This research offers a comparative analysis of the city image produced by the local government, and the imagery produced by other actors involved in urban processes. To this end, a collection of images representing the city of Berlin was integrated, with materials produced by three main sectors: the local government, the tourism industry and a variety of social movements. The collected images are described and analyzed with the aim of knowing the assumptions they comprise, and are afterwards compared against each other to find similarities and differences between the city visions of their producers. Topics like historical memory, urban change, commercialization, public participation, subcultural expressions and multiculturalism arose from this comparison. In addition, the dissertation proposes a visual approach for the analysis of issues linked to urbanism and the construction of city image. Such approach is inspired in the idea of "dialectical image", described by Walter Benjamin in his unfinished 'Arcades Project', and consists in putting together a set of chosen pictures in small groups or "constellations" that make evident their similarities and differences. The research shows that the image prompted by the local government and by the tourist industry are alike, while there are significant divergences between the official image and the representations of citizens. These divergences seem to reflect a deep dissatisfaction of some sectors of the population with the official city model, based on assumptions of a post-industrial economy.
In: Die Natur der Gesellschaft: Verhandlungen des 33. Kongresses der Deutschen Gesellschaft für Soziologie in Kassel 2006. Teilbd. 1 u. 2, S. 4831-4841
"Subjektivität hat Konjunktur. Die traditionell strukturtheoretisch orientierte Arbeits- und Industriesoziologie entdeckt das autonome, zumindest aber widerständige Subjekt und fragt sich, wie dessen Eigensinnigkeit innerhalb der gesellschaftlichen Strukturen zu verorten ist, die es doch eigentlich prägen. Gleichzeitig beobachtet sie die Betriebe dabei, wie sie Subjektivierung als Steuerungsmechanismus einsetzen und das, was bislang als störend galt, erfolgreich als Ressource nutzen: die individuellen Eigenschaften und Bedürfnisse ihrer MitarbeiterInnen. Die soziologische Theorie steht vor ähnlichen Problemen. Überraschenderweise lässt sich das strikt modelltheoretisch arbeitende Rationalprogramm davon irritieren, dass Menschen keine rationalen Akteure sind. Dies macht der Theoriebildung einerseits Ärger: Der Mensch verfügt weder über die kognitiven Kompetenzen rationaler Akteure noch über deren eindeutige Präferenzstruktur, Gefühle arbeiten auf ihre eigene Rechnung, Gesten und Routinen sind ins Körpergedächtnis eingegangen - all dies erschwert die rationale Entscheidungsfindung. Andererseits hat diese Ausstattung aber auch Vorteile: Begrenzte Rationalität löst bestimmte Probleme erheblich besser, satisficing fungiert als hilfreiche Stoppregel bei der Alternativenabwahl, Gefühle ermöglichen Selbstbindungen - all dies hilft dabei, soziale Abstimmungsprobleme zu lösen. Werden rationale Akteure auf ein menschliches Maß zurückgestutzt, kooperieren sie öfter, als es die Theorie erlaubt. Wie die Arbeits- und Industriesoziologie weiß auch die Sozialtheorie, dass man diese Kapazitäten zu Steuerungszwecken nutzen kann. Offensichtlich haben diese beiden getrennt geführten Diskurse ein ähnliches Problem: Sie haben die 'innere Natur der Gesellschaft' und ihre Bedeutung als Restriktion und Ressource sozialen Handelns entdeckt, stellen aber fest, dass das beobachtete Phänomen nicht so recht in ihre Theorieprogramme passt. In diesem Vortrag wird dafür plädiert, Sozialtheorie und Subjektivierung modelltheoretisch zu verknüpfen. Im Ergebnis wird von der Fiktion eines ungeteilten Akteurs Abstand genommen und ein Modell vorgeschlagen, das davon ausgeht, dass der Akteur sich selbst zum Subjekt macht, indem er versucht, die internen Abstimmungsprobleme zu bearbeiten, die aus der Konfrontation rationaler Interessenverfolgung und 'innerer Natur' entstehen." (Autorenreferat)
Das Dissertationsprojekt "Theorien und Muster der Landschaftswahrnehmung: Landschaft aus der Sicht von Migranten" ist als kumulative Dissertation in fünf Manuskripten angelegt, die in einem ganzheitlichen theoretischen Modell aus Theorien der Landschaftsbewertung von Zube (1984) organisiert sind. Im Allgemeinen nutzen Bewertungsverfahren von Landschaft und Landschaftsbild objektiv definierbare Landschaftselemente und Strukturen, die von Experten wie z.B. Landschaftsarchitekten oder Landschaftsplanern gezählt, gemessen und kartiert werden. Dieses Vorgehen repräsentiert das Expertenparadigma in Zubes Modell der drei Paradigmen zur Landschaftsbewertung. Wenn diese "objektiv existenten" Elemente jedoch von Menschen wahrgenommen werden, die ausgehend von ihren persönlichen Bedürfnissen und Vorlieben die Landschaft betrachten und den subjektiven Prozess von Selektion, Sinngebung und Identifikation mit den Landschaftselementen und Strukturen vollziehen, die für sie selbst in diesem Moment wichtig sind, wird dieser Vorgang als Verhaltensparadigma bezeichnet. Theorien und Konzepte zur psychologischen Wahrnehmung und die Untersuchung menschlicher auf die Landschaft gerichteter Bedürfnisse geben diesem Paradigma den theoretischen Rahmen. Aber welche Zuschreibungen zu Landschaft werden von Menschen tatsächlich gemacht? Welche Rolle spielen dabei der kulturelle Hintergrund und die Heimat der Menschen in diesem sinnstiftenden Prozess? Diese Forschungsfragen überspannen das Gesamtprojekt. Funktionale Landschaftstheorien können Landschaftselemente anhand empirischer Erhebungen definieren, und sozial-psychologische Theorien erklären das zweckmäßige menschliche Verhalten, aber um den Prozess der individuellen Zuschreibung von persönlichen und individuellen Landschaftsfunktionen gemäß der eigenen Geschichte und Bedürfnisse zu verstehen, braucht es einen anderen methodischen und theoretischen Ansatz. Um zu erforschen, wie Menschen sich ein Bild von ihrer neuen Landschaft gemacht und sich ihre Funktionen erschlossen haben, wurde zunächst eine historische Studie zu Migranten nach Deutschland und Deutschen Emigranten im 18. und 19. Jahrhundert durchgeführt. Als zweiter Ansatz wurden in einer empirischen Studie objektiv definierte Landschaftselemente in Verbindung mit etablierten Theorien zu individuellem Verhalten und Gruppenpräferenzen gebracht und dazu in Deutschland lebende Migranten befragt. Hierzu wurde eine neue Methode für die qualitative Sozialforschung entwickelt, die sich in ihrem Konzept an das dritte Paradigma von Zube, das Erfahrungsparadigma, anlehnt. Grundlegend zur Entwicklung dieser Methode waren theoretische Vorannahmen, die mit qualitätsreferenzierten Fotografien von Landschaftselementen zusammen selbst ein Abbild von der Beziehung Mensch und Landschaft darstellen. Anhand einfachster Fragestellungen zu Präferenzen, Meidungen und Tätigkeiten in der Landschaft wurden sie in einem Bildfragebogen und einer Großbildpräsentation vereint und verschiedenen Gruppen von Migranten, die Teilnehmer an Projekten der "Interkulturellen Gärten" waren gezeigt. Durch diese Methode, die auf dem Erfahrungsparadigma von Zube basiert, konnte der Prozess der sinnstiftenden Zuschreibungen zu Landschaft und der Selektion von individuell relevanten Landschaftsfunktionen besser verstanden werden. Die Ergebnisse der Studie zeigten, dass es sowohl kulturabhängige wie auch kulturübergreifende Landschaftspräferenzen gibt. Die Ergebnisse sind von Relevanz für Landschaftsplaner, die sich um Landschaftsplanung im interkulturellen Bereich bemühen und Landschaft für eine breite Bevölkerung erlebbar und zugänglich machen wollen. Weiterhin ist der Prozess von individueller Sinngebung oder das "Placemaking" als ein in den USA entwickeltes Konzept, hervorgegangen aus der Kritik an bevölkerungsferner Stadtplanung, ein wichtiger Baustein von Integration. Das Konzept "Placemaking" kann, obwohl es für den urbanen Raum entwickelt wurde, auf Landschaftsplanung übertragen werden. Es erfüllt die Anforderungen eines gleichberechtigten Dialoges dahingehend, dass alle Beteiligten an der aktiven Landschaftswahrnehmung und der Landschaftsplanung gleichermaßen beteiligt werden müssen, wenn diese erfolgreich, im Sinne von akzeptiert und bedürfniserfüllend, sein soll. Diese Schlussfolgerung ist kohärent mit der Formulierung des Erfahrungsparadigmas nach Zube, in dem er es für wichtig erachtet, dass die Verbindungen zwischen Mensch und Landschaft künstlerisch oder wissenschaftlich interpretiert und den Menschen wieder präsentiert - also re-präsentiert - werden, damit sie auch diese Information in ihre eigene Sinnstiftung von Landschaft aufnehmen und sich damit auseinandersetzen können. So bestätigt diese Arbeit die Unverzichtbarkeit des Erfahrungsparadigmas für die Landschaftsplanung. Gemäß der Definition der Europäischen Landschaftskonvention, die Landschaft als Beitrag zur Identität eines jeden einzelnen Menschen und auch der kultureller Gruppen definiert, kann es nicht ausreichen, nur objektiv-funktionale Elemente und Informationen über menschliches Verhalten in die Landschaftsplanung zu integrieren, sondern es muss der Prozess der Landschaftswahrnehmung und der subjektiven Sinngebung, das "Placemaking", besser verstanden werden. Diese Arbeit hat zu diesem besseren Verständnis einen Beitrag geleistet. ; The dissertation project "Theories and patterns of landscape perception: landscape from the perspective of migrants" organises in five manuscripts that are merged in one heuristic model of landscape assessment theory introduced by Zube (1984). Generally landscape assessments use the objectively defined landscape elements and structures that can be counted and mapped by an expert based upon the Professional paradigm in Zube's model. From Zube we learn that how these elements function when perceived by people who are interested in meeting their everyday needs within a landscape is based upon the subjective process of selection and identification through their own sense of the things they need and thus perceive as important – the Behavioural paradigm. The theories of perception in psychology and the examination of human needs helped to provide a theoretical framework for this phenomenon. But what sort of meanings do people give to landscapes and landscape elements, and what role does the cultural background of people play in this meaning-creating-process? It is this general question that initiated and guided this research project. While landscape theories can isolate elements based on empirical observation and social/psychological theories can provide ways to understand purposive human behaviour, understanding the processes by which meaningful landscapes are created and collective memory and identity are located requires a different theoretical and methodological approach. In order to investigate how people create meaningful landscapes, this study first investigated situations in the past when German immigrants and emigrants engaged in this process. Second, in order to better understand to what extent the functional theories of landscape based upon objectively isolated features is linked to the subjective preferences and behaviours of individuals and groups, an empirical study of recent migrants was conducted. In order to carry out this case study, a new methodology for qualitative research of landscapes, inspired by Zube's Humanistic paradigm was developed. The centrepiece of this new methodology is the use of photographs of certified high quality selected according to the theories on the interrelationships between humans and landscape elements. These photographs were organized based upon simple questions of how one might expect to behave in the landscape pictured and which landscapes were preferred and which were disliked. These pictures and questions were administered to groups of recent migrants who all participated in the "intercultural gardens" project. Through this methodology based upon the humanistic paradigm of Zube, a new understanding of the process of landscape assessment in terms of meaning creation emerged. The results of this study revealed that there are culturally independent as well as culture-bound preferences. This finding is of use to landscape managers when they seek to provide a landscape accessible to a broad range of individuals from many cultures. In addition, the process of meaning-creation, or placemaking in a more recently developed concept, is an important part of acculturation. The results of this study contribute to the understanding of the humanistic paradigm. The concept of placemaking, while developed in urban settings, has great relevance to understanding the processes of meaning creation in landscapes. This new concept incorporates the idea of an egalitarian dialogue in that all participants in the meaning creation process must be included in the assessment and planning for landscape management to be successful. This participatory approach is consistent with the humanistic paradigm of Zube (1984) in which the re-presentation of the landscape is necessary for developing meaning. Thus, one outcome of this research is an explanation of why the Humanistic paradigm is essential to landscape assessment, landscape planning, and landscape management. While the project "Theories and patterns of landscape perception: landscape from the perspective of migrants" moved from examination of the historical examples of migration to theory, the interest in migrants arose from a dissatisfaction that the objective elements used by landscape theorists adequately captured the essential processes of understanding landscapes as defined by the European Union. If a 'landscape' as a concept includes the meaning of the people living within it, then this process of 'giving meaning' needed to be better understood. This research has contributed to that improved understanding.
Die Dissertation beschäftigt sich mit der Frage nach der Rolle des Bürgers im Prozess der Risikobewertung. In der sozialwissenschaftlichen Risikokommunikationsforschung wird diese Rolle unter dem Begriff der Risikomündigkeit diskutiert. Das Leitbild der Risikomündigkeit zielt auf ein reflektiertes Urteil unter Einbezug von Fakten, Unsicherheiten und Werten der Bürgerinnen und Bürger ab. Im Fokus steht die Frage, welche empirische Relevanz Risikomündigkeit (spezieller: kognitive Kompetenz als Vorbedingung von Risikomündigkeit, kurz: KKR) im Hinblick auf die Risikokommunikation zwischen den Gruppen von Laien und Experten bei unterschiedlichen, technischen Risiken (Atomkraft und Mobilfunk) hat: Wie weit trägt das Konzept der Risikomündigkeit bei verschiedenen Risiken? Diese Forschungsfrage wird sowohl mit quantitativen als auch mit qualitativen Methoden untersucht. Es werden folgende Hypothesen getestet. Die Kognitionshypothese besagt, dass mit steigendem Grad der kognitiven Faktoren der Risikobewertung als Vorbedingung von Risikomündigkeit bei Laien sich die Risikobewertungen von Laien und Experten tendenziell annähern. Aus der Kognitionshypothese lassen sich zwei weitere Hypothesen ableiten: Laien mit hoher kognitiver Kompetenz (hoher Wissensstand, großes Interesse am Thema etc.) kommen zu ähnlichen Risikobewertungen wie Experten (Konsenshypothese) bzw. Laien mit niedriger kognitiver Kompetenz (niedriger Wissensstand, geringes Interesse am Thema etc.) kommen zu unterschiedlichen Risikobewertungen wie Experten (Dissenshypothese). Dies impliziert wiederum eine weitere Hypothese: Laien mit hoher kognitiver Kompetenz kommen zu unterschiedlichen Risikobewertungen wie Laien mit niedriger kognitiver Kompetenz (Laienkompetenzhypothese). Die Hypothesen werden anhand eines repräsentativen Datensatzes getestet. Der Risikomündigkeitssurvey 2006 ist eine quantitative, deutschlandweite Repräsentativbefragung mit einer Fallzahl von n = 868 (gewichteter Datensatz). Die Befragten werden anhand ihrer Antworten zu mehreren Items auf einem Index der KKR verortet. Theoretische Grundlage für die Messung von KKR ist das Elaboration Likelihood Modell (ELM) von John Petty und Richard Cacioppo. Der Hypothesentest bestätigt für die Atomkraft die Kognitionshypothese, Konsenshypothese und Dissenshypothese. Im Falle des Mobilfunks (Sender und Handys) müssen die Hypothesen jedoch zurück gewiesen werden. Die Laienkompetenzhypothese kann für beide Technologien als bestätigt angesehen werden. Des Weiteren wurde die Güte der Operationalisierung der KKR anhand von knapp 60 qualitativen Leitfadeninterviews zu Mobilfunk und Atomkraft überprüft. Eine Einordnung der Befragten nach zentralen Kategorien des ELM müsste ungefähr dasselbe Muster produzieren wie es sich in der quantitativen Studie gezeigt hat. Das qualitativ gewonnene Muster gleicht in der Tat der quantitativen Verteilung im Risikomündigkeitssurvey 2006. Der KKR-Index scheint damit tauglich zu sein, um eine Teilkomponente der Risikomündigkeit zu erfassen. Wie sind diese Ergebnisse zu interpretieren? Zunächst einmal scheint KKR nur bei Atomkraft die vermutete Wirkung zu haben, da beim Mobilfunk die Kognitionshypothese, Konsenshypothese und Dissenshypothese nicht bestätigt werden konnten. Eine mögliche Erklärung hierfür könnte die Tatsache sein, dass im Fall der Kernenergie bedingt durch einen längeren Erfahrungszeitraum mehr belastbares Wissen vorhanden ist, welches Eingang in die Köpfte der Menschen finden konnte. Erst wenn sich der Grad an KKR beim Mobilfunk erhöht, können Wissen und Motivation ihre vermutete Wirkung (Konsens zwischen Experten und Laien oder zumindest Konsens über Dissens) entfalten. Jedoch besteht zur Absicherung dieser Interpretation noch weiterer Forschungsbedarf. Die geschilderten Ergebnisse haben eventuell weit reichende politische Implikationen: Wenn bei Atomkraft Risikomündigkeit "funktioniert", können Bürger in die Entscheidungsfindung mit einbezogen werden, ohne das es gleich zu Missverständnissen mit Akteuren aus Politik, Wirtschaft und Wissenschaft kommen muss. Konflikte auf Grund von Wertedifferenzen kann es natürlich nach wie vor geben. Laien und Experten aus Politik, Wirtschaft und Wissenschaft können entweder zu einem klaren Konsens oder zumindest einem rational begründeten Konsens über bestehende Differenzen (Konsens über Dissens) gelangen. Beim Mobilfunk ist dies (noch) nicht der Fall. Für die Risikowahrnehmungsforschung bedeutet die Risikomündigkeit eine Erweiterung der bekannten Perspektiven (Psychometrie, normative Kulturtheorie, Vertrauensforschung). In Bezug auf die Rolle der KKR für die Risikokommunikation hat sich gezeigt, dass eine Differenzierung nach Technologien auch eine entsprechende Differenzierung in den Kommunikationsstrategien sinnvoll erscheinen lässt. ; The dissertation focuses on the citizen's role in the risk evaluation process. This role is being discussed in the current social science risk research under the concept of "risk maturity". Risk maturity means that citizens evaluate risks under consideration of the facts, uncertainties and their own values. The main research question refers to the empirical relevance of risk maturity for risk communication between laypeople and experts in the case of two different, technological risks (nuclear energy, mobile telephony): What constitutes risk maturity, in particular its cognitive component (Cognitive Competence as a precondition for risk maturity, in short: CCR) in case of two different yet physically related risks? Quantitative as well as qualitative methods are used in the research design. Several empirical hypotheses were tested using quantitative methods. The cognition hypothesis states that risk evaluations of laypersons and experts will become more congruent with the increasing level of layperson's cognitive competence. Two other hypotheses can be derived from the first one: Laypersons with high cognitive competence (high knowledge level, great interest in the topic etc.) will arrive at similar risk evaluations to the expert judgments in this case (consensus hypothesis) and laypersons with low cognitive competence (low knowledge level, little interest in the topic etc.) will arrive at different risk evaluations compared with the expert judgments (dissent hypothesis), respectively. This in turn implies another hypothesis: Laypersons with high cognitive competence and laypersons with low cognitive competence will significantly differ in their risk evaluations (layperson competence hypothesis). The hypotheses were tested using a quantitative, empirical survey. The Risk Maturity Survey 2006 was conducted as a representative telephone survey in Germany (n = 868, weighted data). Respondents were classified by using an index for characterising different degrees of CCR. The theoretical basis for measuring CCR is the Elaboration Likelihood Model (in short: ELM) from John Petty and Richard Cacioppo. The test confirms the cognitive hypothesis, the consensus hypothesis and the dissent hypothesis for nuclear energy. However, all three hypotheses could not be confirmed for mobile telephony (both base stations and mobiles). The layperson competence hypothesis was confirmed for both technologies. Further more, the validity of the measurement of CCR was checked by 60 qualitative, open-ended interviews focussing on nuclear energy and mobile telephony. It was assumed that a classification of the respondents using the main categories of the ELM would produce a similar pattern of peripheral and central groups compared to the quantitative distribution in the survey. Indeed, the qualitative pattern is similar to the quantitative distribution found in the Risk Maturity Survey 2006. This can be interpreted as an indication that the operationalisation of the ELM is indeed valid. How can these findings be interpreted? CCR seems to work only for nuclear energy, not for mobile telephony. One aspect could be time. On the one hand, nuclear energy has been investigated and deployed for a very long time span, at least compared to mobile telephony. There has been more scientific evidence communicated via the mass media which may found its way into the memory of the public. Only with an increasing degree of CCR will knowledge and motivation produce the expected effect which is more consensus between experts and laypersons or at least consensus about dissent. This interpretation however needs more research to confirm it. The research findings may have some important political implications. Risk maturity seems to work for nuclear energy, so participation of laypersons in processes of risk management are less likely to experience conflicts that are based on misunderstanding rather than differences in values. Laypersons and experts from science, politics and industry can reach either a substantive consensus or a consensus on why they dissent on conclusions based on a rational discourse. However, this is (still) not the case for mobile telephony. Risk maturity expands the perspectives of risk perception research (psychometric approach, cultural theory of risk, organisational studies on confidence and trust in risk perception). The study about CCR also showed that the distinction between technologies is relevant for risk communication: Differentiation between technologies or risks may assist risk communicators to design the most appropriate risk communication strategies.