In terms of an integrative and comprehensive risk analysis, the issue of an appropriate data collection is widely recognized. In this context, remote sensing is generally perceived as a promising tool for an economical, up-to-date and independent data collection and has been employed in various investigations in the geo-risk context. A review of past applications reveals the versatility of remote sensing data and techniques with regard to the analysis of earthquake and landslide risks. The study of earthquake hazard components reach from geologic site characterisations and fault mapping, detection of pre-event surface temperature anomalies for early warning, kinematics and dynamics of active fault systems, to the detection of earthquake-induced changes to the land surface. For landslides, remote sensing techniques and applications contribute to basic terrain analysis including monitoring of slope stability and land cover, the detection and mapping of pre-event landslide-related activities such as slow mass movements as well as the volumetric quantification of landslide related changes to land cover and form. Remote sensing for vulnerability-centred investigations is a less long established field of research. Nevertheless, a vast amount of research aims at the derivation of pre-event vulnerability indicators – related to physical, demographic and socioeconomic aspects of vulnerability–. Also work on post-event emergency response and damage assessment employing especially very high resolution data has been carried out. In the context of geo-risk analysis, both for pre- and post-event as well as hazard- and vulnerability-centred investigations, past- and present-day remote sensing missions have proven useful. Data with a coarser geometric resolution and larger spatial coverage per scene are able to contribute to overall evaluation of pre- and post-event situations. In contrast, it is yet both difficult and expensive to obtain high geometric resolution data such as airborne LIDAR or VHR optical data over larger areas affected, specifically in case of an earthquake event. In addition to that, the geometric resolution of the sensors and the associated scene size and thus, the spatial scale of analysis, need always be selected in consideration of the context of the objects to be analysed. Future earth observation missions have the potential to play a key role in earthquake- and landslide-related investigations and to continue or even improve geoinformation products. For example, the ESA Sentinel missions will feature enhanced geometric and thematic capabilities and increased revisit capabilities at low cost. Other future missions such as ALOS-2, the RADARSAT constellation, DESDynI, CARTOSAT-3, ALOS-3, TerraSAR-X 2, TanDEM-L, WorldView-3, or the hyperspectral sensors EnMAP and HyspIRI still need to be assessed in terms of cost and applicability with respect to the particular research questions addressed. For example, TanDEM-L will open up opportunities to better understand the earth's dynamic surface processes enabling continuous monitoring of earth surface deformation e.g. due to seismic movements, volcanic eruptions, landslides, subsidence or uplift in the range of centimetres. In this context, the enhanced capabilities of the described missions are believed to enable a leap forward in earthquake and landslide risk research both for hazard- as well as vulnerability-related investigations. Apart from the future perspective, international research groups from both government and academia have produced remote sensing based geo-products in past years that will provide valuable input to vulnerability-related research in the context of this project. These include on the one hand large area global or regional land cover datasets that can be used as a first approximation of human and physical exposure as well as for the disaggregation of population census data. However, with regard to these products, a better understanding of each data set's strength and weakness is still on demand. On the other hand, space-based pre-operational emergency response services have produced a large product portfolio and significant experiences in post-event mapping applications in recent years. Overall, from a technical perspective, the constantly increasing availability and accessibil-ity of modern-day remote sensing technologies and the enhanced technical capabilities of future missions will provide new opportunities and data continuity for a wide range of geo-risk investigations. However, still today and in the future, data cost will be the main limiting factor.
"Im vorliegenden Beitrag diskutiert die Autorin empirische Befunde aus einer Forschung in den Palästinensischen Autonomiegebieten (Westjordanland). Sie verdeutlicht an zwei Beispielen aus ihrer Feldforschung, inwiefern in dieser Region sowohl alltagsweltliche Gespräche als auch lebensgeschichtliche Interviews erheblich durch den Nahostkonflikt und die damit zusammenhängenden mehrfach verschränkten Figurationen zwischen Palästinensern, jüdischen Israelis und Vertretern der so genannten westlichen Welt bestimmt sind. Dies führt dazu, dass sich die Gesprächspartner als Vertreter einer konfliktfreien Wir-Gruppe von Palästinensern präsentieren und sich die familien- und lebensgeschichtlichen Selbstpräsentationen auf das thematische Feld 'Unser Leiden unter der israelischen Besatzung' konzentrieren. In diesem Beitrag wird vor allem die Strukturierung der Gespräche durch die religiösen, nationalen und durch (beruflichen oder sozioökonomischen) Status bedingten Zugehörigkeiten der InterviewerInnen und die damit verknüpften methodischen Herausforderungen dieser Forschung aufgezeigt." (Autorenreferat)
Einleitung: Weltweit wurde 2007 die gesamte Finanzdienstleistungsbranche durch die Nachricht der Insolvenz des US-Hypothekenfinanzierers New Century Financial Corporation geschockt. Ein Jahr später gelang es nur noch mit massiver finanzieller Hilfe der Regierung der Vereinigten Staaten von Amerika, die beiden größten Hypothekenbanken der USA, Fannie Mae und Freddie Mac, vor der Insolvenz zu bewahren. 'Unzureichende Transparenz und Kontrolle sowie mangelndes Verantwortungsbewusstsein' sind nur einige der Vorwürfe, mit denen sich global agierende Finanzdienstleister, die Regierungen der Industrieländer sowie hochrangige Manager konfrontiert sahen. Das Vertrauen in Finanzdienstleistungsbranche wurde nachhaltig erschüttert, eine globale Finanzmarktkrise war nicht mehr aufzuhalten. Durch die Finanzmarktkrise 2008 entstand schnell eine Interbankenvertrauenskrise, welche nicht nur Folgen für die Finanzdienstleistungsbranche hatte, sondern sich schnell zu einer globalen Krise für die Realwirtschaft ausbreitete. Vor allem der in Deutschland stark vertretene Mittelstand wurde von der Realwirtschaftskrise schwer getroffen. Doch getreu dem Motto 'wir wollen die Krise als Chance nutzen' versuchte sowohl die Finanzdienstleistungsbranche, als auch die Realwirtschaft in Verbindung mit dem deutschen Mittelstand die Krise nicht nur zu überwinden, sondern Strategien zu entwickeln und umzusetzen, sodass eine Krise gleichen Ausmaßes nicht wieder eintreten kann. Doch ist dies überhaupt möglich? Kann man eine Krise mit solch globalen Folgen tatsächlich als Chance nutzen? Ist der Satz, 'wir werden gestärkt aus der Finanzmarktkrise hervorgehen' , in Wahrheit nur ein nicht realisierbarer Wunsch oder besteht wirklich die Möglichkeit aus solch einer Krise einen Gewinn für Unternehmen und sogar für eine gesamte Bevölkerungsgruppe erzielen zu können?Inhaltsverzeichnis:Inhaltsverzeichnis: Abkürzungsverzeichnis4 Abbildungsverzeichnis5 1.Einleitung6 2.Die Entstehung und der Verlauf der Finanzmarktkrise 20087 2.1Definition 'Finanzmarktkrise'7 2.2Die US-Immobilienkrise8 2.2.1Die Dot.Com-Blase8 2.2.2Die Entstehung der US-Immobilienblase10 2.3Der Ausbruch der Finanzmarktkrise13 2.4Die Finanzmarktkrise 2008 in Deutschland17 3.Der Mittelstand in Deutschland22 3.1Definition 'Mittelstand'22 3.1.1Qualitative Abgrenzung des Mittelstands in Deutschland22 3.1.2Quantitative Abgrenzung des Mittelstands in Deutschland24 3.2Die Bedeutung des Mittelstands für die deutsche Volkswirtschaft27 4.Auswirkungen der Finanzmarktkrise 2008 auf den deutschen Mittelstand31 4.1Auswirkungen der Krise auf die deutsche Konjunkturentwicklung31 4.2Die Entwicklung der Geschäfts-, Umsatz- und Personallage im deutschen Mittelstand seit der Finanzmarktkrise 200833 4.3Die Entwicklung der Finanzmarktkrise 2008 zu einer Krise für den deutschen Mittelstand37 4.3.1Sinkende Exporte37 4.3.2Kreditklemme im deutschen Mittelstand39 4.3.3Wechselkursschwankungen41 4.4Die Firma Märklin - ein mittelständisches Unternehmen in der Krise45 5.Erfolgreiche Strategien zur Bewältigung der Krise47 5.1Staatliche Strategien zur Bewältigung der Krise im Mittelstand47 5.1.1'Beschäftigungssicherung durch Wachstumsstärke (Konjunkturpaket I)'47 5.1.2'Entschlossen in der Krise, stark für den nächsten Aufschwung (Konjunkturpaket II)'49 5.1.3Das Finanzmarktstabilisierungsgesetz53 5.1.4Das Wachstumsbeschleunigungsgesetz (Konjunkturpaket III)54 5.1.5Staatliche Maßnahmen zur Bewältigung der Krise - eine kurze Bilanz56 6.Die Lehren aus der Finanzmarktkrise 2008 für die Zukunft59 6.1Änderungen der ordnungspolitischen Rahmenbedingungen59 6.1.1Revitalisierung der Finanzmärkte - ein 'come back' der Sozialen Marktwirtschaft59 6.1.2Basel III - erhöhte Liquidität als Lehre aus der Krise?62 6.2Neuausrichtung des menschlichen Handelns64 6.2.1Sozialethische Lehren aus der Finanzmarktkrise 200864 6.2.2Auswirkungen und Konsequenzen aus Sicht des Mittelstandes67 7.Fazit70 Literaturverzeichnis72 Internetquellenverzeichnis76 Glossar87Textprobe:Textprobe: Kapitel 4.3.2, Kreditklemme im deutschen Mittelstand: 'Eine Kreditklemme ist eine Geldmarktkrise. Sie tritt ein, wenn eine schlechte Finanzsituation Banken dazu zwingt, die Kreditvergabe zu drosseln oder ganz einzustellen und ist wesentlich schwerwiegender als eine Liquiditätskrise'. Die Kreditklemme im deutschen Mittelstand zur Zeit der Finanzmarktkrise 2008 hat zwei Ursachen. Banken agierten bei der Kreditvergabe aufgrund einer Vertrauenskrise, welche durch negative Erfahrungen mit leichtfertig vergebenen Krediten auf dem US-Hypothekenmarkt sowie der ungewissen Folgen der Krise für die Finanz- und Realwirtschaft verursacht wurde, restriktiv und gewährten sich untereinander keine Kredite mehr. Verstärkt wurde die Vertrauenskrise auf dem Interbankenmarkt durch die Eigenkapitalvorschriften des Baseler Ausschusses für Bankenaufsicht (kurz: Basel II). Diese beinhalten, dass das jeweils vorzuhaltende Eigenkapital der Banken der Bonität des Kreditnehmers angepasst sein muss. Das heißt, Banken müssen für Kreditnehmer mit geringer Bonität mehr Eigenkapital vorhalten, als für Kreditnehmer guter Bonität. Die dadurch entstehenden Kosten werden durch eine Anpassung der Kreditzinsen in Form von Risikoaufschlägen an die Kunden weitergegeben. Die teilweise hohen Verluste der Banken aufgrund getätigter Investitionen in 'faule' US-Immobilienpapiere kombiniert mit den strikten Regelungen von Basel II führten dazu, dass weniger Bankengelder für Kredite der Realwirtschaft zur Verfügung standen. Aufgrund der Krise verschlechterte sich bei vielen mittelständischen Unternehmen deren Rating. Durch die Regelungen von Basel II stiegen dadurch die Kreditnebenkosten für kreditnehmende mittelständische Betriebe stark an. Resultierend aus der schlechten Auftragslage sowie aus den für viele KMU nicht weiter tragbaren Kreditnebenkosten konnte der Mittelstand generell weniger Kredite in Anspruch nehmen. Die rückläufige Vergabe von Krediten hatte direkte Auswirkungen auf die Realwirtschaft, denn je weniger Kredite vergeben werden, desto weniger Investitionen werden getätigt, und desto eher werden Expansionspläne oder Mitarbeiteraufstockungen verworfen und desto negativer werden häufig auch die Gewinn- und Beschäftigungsquoten. Dadurch ergibt sich eine steigende Zahl von Insolvenzen im Mittelstand und die Bonitäten der KMU verschlechterten sich weiter. Ein Kreislauf war geschaffen, bei dem zunehmend Banken und mittelständische Betriebe massiv in Zahlungsschwierigkeiten gerieten, was so auch die Kreditklemme weiter verschärfte. Da der Mittelstand besonders abhängig von der klassischen Finanzierung durch Bankkredite ist, wurde er von diesem 'Teufelskreis' überwiegend getroffen. Kapital, welches in der Finanzmarktkrise 2008 notwendig gewesen wäre, konnte den kleinen und mittleren Unternehmen im Verlaufe der Krise nicht weiter zur Verfügung gestellt werden. Zwar haben viele mittelständische Unternehmen aus der Dot.Com-Krise gelernt und ihre Eigenkapitalrücklagen stetig gesteigert, doch durch die enormen Absatzrückgänge als Folge der Finanzmarktkrise 2008 waren auch diese Risikopuffer schnell aufgebraucht. So ergab eine im April 2009 durchgeführte Studie der WGZ-Bank, dass die Zahl der Unternehmen, die über eine Eigenkapitaldeckung von über 20 Prozent verfügen, stark rückläufig ist. Des Weiteren ging aus einer Studie der Wirtschaftsprüfungsgesellschaft Grant Thorten hervor, dass bereits Anfang 2009 circa zwei Drittel aller deutschen mittelständischen Unternehmen darüber klagten, sie hätten selbst bei der Aufnahme gewöhnlicher Kredite nachhaltig Schwierigkeiten. 4.3.3, Wechselkursschwankungen: Bei dem Begriff 'Wechselkurs' ist zwischen nominalem und realem Wechselkurs zu unterscheiden. 'Während der nominale Wechselkurs das Austauschverhältnis von zwei Währungen beschreibt, definiert der reale Wechselkurs das Austauschverhältnis von Gütern'. Der nominale Wechselkurs ist somit der Preis einer Währung, der in einer anderen Währung bezahlt werden muss. Im folgenden Abschnitt ist der Begriff 'Wechselkurs' immer als nominaler Wechselkurs zu verstehen. Die Basis von flexiblen Wechselkursen ist das sogenannte 'Floating'. Dies bedeutet, dass 'der Wechselkurs einer Währung zu anderen Währungen nicht durch staatliche Preisfestsetzungen fixiert ist. Der Preis wird durch die Angebots- und Nachfragebedingungen am Devisenmarkt gebildet und unterliegt den entsprechenden Schwankungen (auch flexible Wechselkurse genannt)'. Hierbei muss zwischen dem sogenannten 'sauberen' und dem 'schmutzigen Floating' unterschieden werden. 'Sauberes Floating' bedeutet, dass die Nationalbanken nicht auf den Devisenmärkten eingreifen und somit den Mechanismus von Angebot und Nachfrage nicht beeinflussen. Beim 'schmutzigen Floating' hingegen wirken die Notenbanken aktiv auf die Devisenmärkte ein, indem fremde Währungen ge- oder verkauft werden. Die Europäische Zentralbank zeigte bereits mehrfach Anzeichen für 'schmutziges Floating'. So intervenierte sie in mehreren Fällen am Devisenmarkt, um den Euro vor dem US-Dollar zu schützen. Es wurde somit auf den Verlauf der Schwankungen zwischen zwei Währungen Einfluss genommen. Schwankungen innerhalb der Währungen können sowohl zu Wechselkursgewinnen als auch Wechselkursverlusten führen. Beträgt beispielsweise zu einem beliebigen Zeit¬punkt X1 der Wechselkurs zwischen Euro und US-Dollar 1,600 und die Kreditsumme 160 US-$, so hätte es positive Auswirkungen für den Kreditnehmer, wenn im Zeitpunkt X2 der Wechselkurs 1,700 beträgt. Die Rückführung des in Höhe von 160 US-$ aufgenommen Kredites würde nur noch 94,12 € kosten. Würde der Wechselkurs im Zeitpunkt X2 jedoch nur noch 1,500 betragen, so hätte dies negative Auswirkungen auf den aufgenommenen Kredit, da für die gesamte Rückführung des Kredites 106,67 € notwendig wären. Steigende Wechselkurse sind somit von Vorteil für Unternehmen. Entgegen der Wirkung der Kreditklemme, die hauptsächlich national agierende Unternehmen beeinflusste, betrifft der Effekt der Wechselkurse hauptsächlich international agierende mittelständische Unternehmen, die in den 'Nicht-Euro-Raum' exportieren. Insgesamt betrug die Zahl der Exporte zwischen deutschen Unternehmen mit Unternehmen, die nicht der europäischen Währungsunion angehören, im Jahr 2009 38 Prozent. Eine Tatsache, die verdeutlicht, dass Wechselkursverluste große Verluste für KMU nach sich ziehen können.
Die quantitativ-vergleichende Konfliktforschung hat in der zurückliegenden Dekade bedeutende Fortschritte gemacht. Zum einen hat die technische Innovation zu einer enormen Ausweitung und Vertiefung des Wissens über politische Konflikte geführt. Zum anderen wurden von Seiten der mit der quantitativen Datenerfassung beschäftigten Forschungseinrichtungen große konzeptionelle Anstrengungen unternommen, dieser empirischen Informationsfülle gerecht zu werden und eine realistische Erfassung des zeitgenössischen Konfliktgeschehens zu ermöglichen. (...) Der Beitrag vergleicht vor diesem Hintergrund den Stand der Grundlagenforschung führender Konfliktdatenbanken miteinander und geht dabei insbesondere auf den neuen, zum Untersuchungsjahr 2011 reformierten Ansatz der Heidelberger Konfliktforschung ein. (ZeFKo/Pll)
Inhaltsangabe: Einleitung: Seit der politischen Wende im ehemaligen Einflussbereich der Sowjetunion und der Auflösung des Rates für gegenseitige Hilfe (RGW) in den 80er Jahre sind die Staaten des östlichen Mitteleuropas sowie des östlichen und südöstlichen Europas, aber auch viele Staaten in Südostasien mit unterschiedlich ausgeprägtem Reformwillen bestrebt, die sozialistische Planwirtschaft zu überwinden und marktwirtschaftliche Strukturen aufzubauen. Dies gilt ebenfalls für Vietnam. Nach der Wiedervereinigung Süd- und Nordvietnams im Jahr 1975 wurde im ganzen Land die zentrale Planwirtschaft nach sowjetischem Vorbild eingeführt. Dieser Planwirtschaft hatte zusammen mit den Folgen des Krieges und mit den Auswirkungen der Außenpolitik Vietnams zur Wirtschaftskrise des Landes Anfang der 80er Jahre geführt: Geringe Produktivität, galoppierende Inflation, Armut, massive Arbeitslosigkeit, Hungersnot und Nullwachstum kennzeichneten die damalige Situation. So sah sich die vietnamesische Regierung gezwungen, einige Lockerungen in der Wirtschaft vorzunehmen (z.B. das Vertragssystem in der Landwirtschaft, die Erhöhung der Betriebsautonomie in der Industrie und Veränderungen in der Währungs-, Lohn-, und Preispolitik), um die Wirtschaftslage und damit die Lebensbedingungen der Bevölkerung zu verbessern. Obwohl es dadurch zu Produktions-, insbesondere zu Reisproduktionssteigerungen kam und die Wirtschaft sich etwas erholen konnte, verbesserte sich die gesamte wirtschaftliche und soziale Situation jedoch im Wesentlichen nicht. Vielmehr führten die Währungs- und Preispolitik mit den Verzerrungen der zentralen Planwirtschaft im Rahmen der Wirtschaftlockerungen zu einer noch tieferen Krise, so dass die vietnamesische Regierung zu einem Umsteuern keine Alternative sah. 1986 wurde die wirtschaftspolitische Reformpolitik (Erneuerungspolitik, auf Vietnamesisch 'Doi Moi') eingeleitet, mit der Vietnam den Transformationsprozess von einer sozialistischen Planwirtschaft zu einer freien Marktwirtschaft begonnen hat, der bis heute andauert. Ziel der Arbeit ist es, die Transformation in Vietnam darzustellen. Dabei werden die wichtigsten Reformschritte bzw. -maßnahmen und deren Ergebnisse dargestellt sowie gegenwärtige Probleme aufgezeigt. Darüber hinaus werden für die zukünftige Entwicklung Vietnams – insbesondere unter dem Aspekt der internationalen Integration – wichtige Herausforderungen, erzielte wirtschaftliche Erfolge sowie bestehende Defizite aufgezeigt und analysiert. In diesem Zusammenhang werden auch Entwicklungsmöglichkeiten für Vietnam aufgezeigt. Dabei wird auf die Transformationswege näher eingegangen. Somit ist der Transformationsprozess ebenfalls Gegenstand der Untersuchung. Bei dieser Untersuchung geht es auch darum aufzuzeigen, ob die seit der Reformpolitik 1986 eingeleitete Transformation von Vietnam auch wirklich eine Transformation darstellt, oder ob es sich nur um eine unvollständige Transformation handelt. Gang der Untersuchung: Diese Arbeit ist in vier Teile (Kapitel 2, 3, 4 und 5) unterteilt. In dem ersten theoretischen Teil werden neben der Begriffsdefinition die Notwendigkeit der Transformation und wichtige Reformschritte dargestellt. In dem zweiten Teil wird auf die Wirtschaft Vietnams vor der Reform näher eingegangen. Hierbei werden die Ursachen der tiefgreifenden Wirtschaftskrise Vietnams und einige Lockerungsmaßnahmen für die Wirtschaft im Zeitraum von 1981 bis 1986 aufgeführt. Der dritte Teil befasst sich mit der Transformation in Vietnam. Dabei werden die wichtigsten Reformschritte bzw. -maßnahmen und deren Ergebnisse sowie gegenwärtige Probleme in der Landwirtschaft, im Preissystem, in der Geld- und Finanzpolitik, in den Staatsunternehmen und in der Privatisierung sowie in der Außenwirtschaft dargestellt. Im letzten Teil der Arbeit werden wichtige Herausforderungen mit globalem Bezug, erzielte wirtschaftliche Erfolge sowie bestehende Defizite im Hinblick auf die zukünftige Entwicklung Vietnams aufgezeigt und analysiert und damit im Zusammenhang stehende Entwicklungsmöglichkeiten dargestellt. Dabei wird auf die Transformationswege näher eingegangen. Abgerundet wird die Arbeit mit einer Zusammenfassung und einer Schlussbemerkung.Inhaltsverzeichnis:Inhaltsverzeichnis: ABKÜRZUNGSVERZEICHNISIII ABBILDUNGSVERZEICHNISIV TABELLENVERZEICHNISV 1.EINLEITUNG1 1.1PROBLEMSTELLUNG1 1.2GANG DER UNTERSUCHUNG2 2.THEORETISCHE GRUNDLAGEN3 2.1BEGRIFFSDEFINITION3 2.2NOTWENDIGKEIT DER TRANSFORMATION3 2.3WICHTIGE REFORMSCHRITTE5 2.3.1Reform im Preissystem6 2.3.2Stabilisierung des Geldwertes7 2.3.3Reform im Finanzwesen8 2.3.4Unternehmensreform und Privatisierung9 2.3.5Reform der Außenwirtschaft10 3.WIRTSCHAFT VIETNAMS VOR DER REFORM12 3.1DIE WIRTSCHAFTSKRISE VIETNAMS UND IHRE URSACHEN12 3.1.1Folgen des Krieges14 3.1.2Folgen der zentralen Planwirtschaft15 3.1.3Auswirkungen der Außenpolitik18 3.2WIRTSCHAFTSLOCKERUNGEN VON 1981 BIS 198619 4.TRANSFORMATION IN VIETNAM24 4.1REFORM DER LANDWIRTSCHAFT25 4.2LIBERALISIERUNG DES PREISSYSTEMS31 4.3SCHAFFUNG DER GELDWERTSTABILITÄT35 4.3.1Bekämpfung der Inflation35 4.3.2Reform des Finanzsystems38 4.4UNTERNEHMENSREFORM UND PRIVATISIERUNG43 4.4.1Reform der staatlichen Unternehmen43 4.4.2Förderung der Privatwirtschaft50 4.5REFORM DER AUSSENWIRTSCHAFT54 4.5.1Liberalisierung des Außenhandels und Exportförderung54 4.5.2Aufbau der Wirtschaftsbeziehungen mit 'nichtsozialistischen' Ländern und weltwirtschaftliche Integration56 4.5.3Förderung ausländischer Investitionen61 5.ZUKUNFTSPERSPEKTIVEN64 5.1HERAUSFORDERUNGEN65 5.1.1Landwirtschaft65 5.1.2Armut und Einkommensunterschiede69 5.1.3Bildung, Gesundheitswesen und soziale Sicherung72 5.1.4Infrastruktur76 5.1.5Industriepolitik78 5.2ERFOLGE, DEFIZITE UND TRANSFORMATIONSWEGE81 6.ZUSAMMENFASSUNG UND SCHLUSSBEMERKUNG90 ANHANGVII LITERATURVERZEICHNISXXIII INTERNETQUELLENXXIXTextprobe:Textprobe: Kapitel 4, Transformation in Vietnam: Auf dem VI. Parteitag der KPV im Dezember 1986, dem sogenannten 'Reformparteitag', ergriff die neue Parteiführung die Initiative zu einer ideologischen und wirtschaftspolitischen Richtungsänderung. Neues Leitbild der Entwicklung sollte eine multisektorale Wirtschaft sein, in welcher der staatliche, der genossenschaftliche und der private Sektor gleichberechtigt nebeneinander existieren. Dies bedeutet, dass verschiedene Eigentumsformen an Produktionsmitteln in der gesamten Wirtschaft erlaubt sind. Die bis dahin vorgegebene zentrale Planung wurde in Frage gestellt, Subventionen an die Staatsbetriebe und das staatlich festgesetzte Preisgefüge sollten abgeschafft sowie die industrielle Entwicklung gegenüber der landwirtschaftlichen nicht mehr bevorzugt werden. Die Familienwirtschaft sollte gefördert und eine außenwirtschaftliche Öffnung angestrebt werden. Diese 1986 begonnene Reform konnte zu einem konsistenten Paket geschnürt werden, nachdem die vietnamesische Regierung Anfang 1989 ein binnen- und außenwirtschaftliches Liberalisierungs- sowie ein geld-, fiskal und strukturpolitisches Stabilisierungsprogramm auflegte. Die damit verbundenen Maßnahmen sollten einen effektiven Beitrag zur Lösung der akuten makroökonomischen Probleme leisten. Aus Sicht der Sozialpolitik sollte die Einführung der Reformen in erster Linie die Sicherung der Nahrungsmittelversorgung für die eigene Bevölkerung gewährleisten und den Lebensstandard der gesamten Bevölkerung verbessern. In den folgenden Abschnitten werden die Reformschritte bzw. –maßnahmen und deren Ergebnisse dargestellt sowie gegenwärtige Probleme aufgezeigt. Reform der Landwirtschaft: Vietnam hat eine Bevölkerungsanzahl von rund 86 Mio. Menschen und eine Fläche von ca. 331.000 km2. Es ist vorrangig ein Agrarland. Bis 1986 war die Agrarproduktion naturabhängig und kaum diversifiziert. Die traditionelle Struktur der Produktion war bis dahin unverändert geblieben. Die Bauern hatten mit winzigen Parzellen, bescheidenster technologischer Ausrüstung und einer schmalen Palette von Produktionstätigkeiten (Feldbau, Viehzucht im Nebengewerbe und etwas Forstwirtschaft) zurecht zu kommen. Zudem produzierten sie überwiegend für den Eigenbedarf oder für den Austausch gegen andere für den eigenen Konsum benötigte Waren (Selbstversorgung der Subsistenzwirtschaft). Nach der Wiedervereinigung Vietnams 1975 war die Landwirtschaft im ganzen Land der Bodenumverteilung und der Kollektivierung ausgesetzt. Die Kollektivierung führte später zu Zwangsgenossenschaften bzw. zur Umwandlung der vietnamesischen Dörfer in landwirtschaftliche Produktionsgenossenschaften (Kooperativen). Die Preise und Umsatzmengen der Bauern waren von nun an vom Staat festgelegt. Die Arbeit der Bauern wurde weniger nach Leistung, sondern mehr nach Sozial- und Klassengesichtspunkten bewertet und durch Zuteilung von so genannten 'Arbeitspunkten' belohnt. Die Zwangskollektivierung im Süden war allerdings, trotz des staatlichen Drucks, nicht weit fortgeschritten. Während im Norden 97% der landwirtschaftlichen Produktion kollektiviert waren, waren im Süden nur 20% der Bauernhaushalte in die Genossenschaften eingetreten. So wurden einige Agrarprodukte wie z.B. Reis vor allem von Kooperativen bewirtschaftet, während andere wie z.B. Eier, Fleisch, Fische, Obst und Gemüse überwiegend von privaten Bauern geliefert wurden. Das Ziel der Wirtschaftspolitik in den Jahren nach 1975, nämlich die Kleinproduktion in der gesamten Wirtschaft zu einer sozialistischen Großproduktion zu entwickeln, wurde bis dahin nicht erreicht (vgl. Kapitel 3.1.2). Auch Investitions- und Modernisierungsplanungen für den Agrarsektor waren wenig erfolgreich, obwohl einige Bewässerungsprojekte bessere Energie- und Wasserversorgungsmöglichkeiten auf den Feldern im Norden gebracht haben. Die Bevorzugung der industriellen Entwicklung gegenüber der Landwirtschaft führte dazu, dass der Staat hohe Investitionen für den Aufbau der Schwerindustrie, besonders für den Bau industrieller Großprojekte, getätigt hat. Dabei wurden die Erhöhung der Produktion von Konsumgütern und Exportwaren und insbesondere die Lösung der Ernährungsprobleme mit Hilfe der Landwirtschaft vernachlässigt. Daher wurde seit dem VI. Parteitag, vor allem seit den konkreten landwirtschaftlichen Reformbeschlüssen vom April 1988, die Entwicklung der Landwirtschaft bzw. der Agrarproduktion als erste Priorität angesetzt. Im Zentrum der Zielsetzungen standen dabei die Sicherstellung der Nahrungsmittelproduktion und die Beschleunigung des Produktionszuwachses. Demnach wurde die Landwirtschaft mit Produktionsmitteln und Arbeitskräften sowie mit besserer Infrastruktur versorgt (Dies reichte vom Ausbau von Straßenverbindungen über Elektrizitäts- und Telekommunikationseinrichtungen bis hin zur Modernisierung des Bewässerungswesens und zur Verbesserung der Gesundheitsvorsorge und der ländlichen Schulbildung). Hierbei ging es in erster Linie – neben quantitativen Zuwächsen – um mehr qualitative Effizienz. Dafür wurde ein Finanzierungsprogramm konkret festgelegt, so dass die staatlichen Ausgaben für landwirtschaftliche Investitionen im Jahr 1987 gegenüber dem Vorjahr (24,5%) auf 29% stiegen. Da es nun um die Produktivkräfte geht und nicht mehr um die Produktionsverhältnisse, wurde auf die Eigentumsverhältnisse mit dem Ziel der Schaffung von Kollektiv- und Staatseigentum nicht mehr Wert gelegt. Privateigentum an Produktionsmitteln erhielt jetzt den gleichen Rang wie genossenschaftliches und staatliches Eigentum.
Aus der Einleitung: Die Informationstechnologie (IT) hat in den Finanzdienstleistungshäusern schon lange einen übergreifenden Einzug erhalten und unterstützt Kunden sowie Mitarbeiter bei täglichen Routinen. Der Einsatz von mobilen und stark vernetzten IT-Systemen ist dabei in nahezu sämtlichen Geschäftsprozessen wiederzufinden und leistet als Rückgrat vieler Geschäftsmodelle einen wesentlichen Beitrag zur Erreichung der Unternehmensziele. Immer deutlicher zählt die dabei eingesetzte IT-Infrastruktur zum wertvollen, besonders zu schützenden Gut eines Unternehmens und ist zugleich zunehmend dem Einwirken komplexer Ereignisse - resultierend aus Missbräuchen oder auch Fehlbedienungen - auf sicherheitskritische Eigenschaften der Geschäftsprozesse ausgesetzt. Für die Finanzbranche entstehen auf diese Weise Schäden, die sehr vielfältig ausfallen können und dessen vorläufiger Höhepunkt sich - verursacht durch einen einzelnen Fall von Computermissbrauch - auf eine bedrohliche Schadenssumme von 4,9 Milliarden Euro beläuft. Der IT-Sicherheit wird damit eine enorme Bedeutung zuteil, dessen Erfolg, gemessen an der Minimierung der Gefährdung des reibungslosen Geschäftsablaufs bzw. der Vermeidung wirtschaftlicher Schäden, wesentlich von der effizienten Ermittlung und Bewertung von Bedrohungen und Risiken und anschließender Maßnahmen abhängt. Dem wird die Sicherheitsanalyse - deren Ergebnisse sich in den Sicherheitsanforde-rungen widerspiegeln - gerecht, die allerdings aufgrund der Dynamik bei IT-Systemen bereits einen stetig wiederkehrenden Aufwand für das Unternehmen bedeutet. Zusätzlich und weitaus aufwendiger ergibt sich die Durchführung und Überwachung der aus den Anforderungen hervorgehenden Sicherheitsmaßnahmen im Tagesge-schäft. Um diesen Aufgaben Herr zu werden bedienen sich Finanzdienstleister (FDL) technischer Hilfsmittel, dessen Leistungsfähigkeit einen gewichtigen Einflussfaktor auf ein optimales Verhältnis zwischen höchstmöglichem Schutz bei geringstmöglichem Arbeitsaufwand ausmacht. Zu den von den FDL genutzten technischen Hilfsmitteln zählen unter anderem Fire-walls, Vierenscanner, Intrusion Detection bzw. Intrusion Protection Systeme (IDS/IPS), die im Wesentlichen sicherheitskritische Aktivitäten innerhalb eines Rechnernetzes oder -systems erkennen bzw. anzeigen und ggf. unterbinden sowie zunehmend Security Information and Event Management (SIEM) Lösungen. Letztere nehmen eine übergeordnete Rolle ein, da diese auf erstgenannte aufsetzen und deren Funktionen bündeln, anreichern oder sogar übernehmen können. Diese Eigenschaft macht SIEM Systeme zum zentralen Ansatzpunkt zur Verbesserung sicherheitstechnischer und betriebswirtschaftlicher Aspekte.Inhaltsverzeichnis:Inhaltsverzeichnis: I.Danksagung II.Inhaltsverzeichnis III.Tabellenverzeichnis IV.Abkürzungsverzeichnis V.Abbildungsverzeichnis 1Einleitung1 1.1Motivation2 1.2Ziel und Vorgehensweise der Arbeit3 1.3Aufbau der Arbeit3 2IT-Sicherheit, Bedrohungen und Methoden4 2.1Problembereich IT-Sicherheit4 2.1.1Grundwerte der IT-Sicherheit6 2.1.2Bedrohungen und Gefährdungen7 2.1.3Angriffe und Angreifer8 2.1.4Risiken und Schwachstellen13 2.2Informationstechnologie bei FDL15 2.2.1Betriebliche Anwendungen16 2.2.2Vernetzung und verteilte Systeme17 2.2.3Sicherheitskritische Geschäftsprozesse und Ereignisse19 2.2.4Datenschutz, Datensicherheit und Compliance20 2.3Security Information and Event Management (SIEM)22 2.3.1Einsatzumfeld von SIEM Lösungen22 2.3.2Funktionsweise von SIEMs23 2.3.3Collection24 2.3.4Normalization25 2.3.5Aggregation25 2.3.6Correlation26 2.3.7Reporting29 2.4Modellierungsmethode UML30 2.4.1Misuse Case Diagramm30 2.4.2Mal-Activity Diagramm31 2.5Attack-Trees Methode32 3Anwendungsfall aus der Finanzbranche33 3.1Umfeld und Zugangssysteme der Bank33 3.2Internetbanking Anwendung36 3.2.1Internetbanking Überweisung38 3.2.2Prozessablauf der Überweisung40 3.3Bedrohungsanalyse44 3.3.1Zugangsdaten des Kunden missbrauchen44 3.3.2Kunden austricksen und manipulieren47 3.3.3Banksystem kompromittieren50 3.3.4Kundenrechner infizieren51 3.4Risikoanalyse und Sicherheitsanforderungen52 3.4.1Analyse zu Zugangsdaten des Kunden missbrauchen52 3.4.2Analyse zu Kunden austricksen und manipulieren54 3.4.3Analyse zu Banksystem kompromittieren55 3.5Modellierung der Einwirkung auf Prozesse57 3.5.1Misuse Case Internetbanking Überweisung57 3.5.2Mal-Activity Internetbanking Überweisung58 3.5.3Objekte bei der Internetbanking Überweisung62 4Erkenntnisse und Implikationen63 4.1Geschäftsprozessereignisbasierte Sicherheitsanalyse63 4.1.1Ableitung von Angriffsindikatoren64 4.1.2Indikatoraussagen64 4.1.3Sicherheitsanalysemodell66 4.2Sicherheitsanforderungen und Implikationen für die Praxis67 4.3Implikationen für die Forschung68 4.4Zusammenfassung68 VI.Anlagen VII.LiteraturverzeichnisTextprobe:Textprobe: Kapitel2.1.3, Angriffe und Angreifer: Angreifer unterscheiden sich in ihrer Qualifikation, Motivation und den eingesetzten Mitteln erheblich. Die Angreiferklasse mit den wohl meisten Anhängern stellen hierbei die sog. Skriptkiddies (abgeleitet von Skript und Kid) dar, die ein Gruppe bestehend aus jugendlichen Angreifern bezeichnet. Diese greifen auf vorgefertigte, automatisierte Angriffswerkzeuge (sog. Exploits oder Rootkits) zurück und können so ohne tiefreichendes Grundwissen Angriffe durchführen. Bezeichnend für die Angreiferklasse der Hacker sind sehr versierte Angreifer, denen es durch individuell entwickelte Angriffsmethoden gelingt, auch in gesicherte Rechnernetze einzudringen. Der Begriff Cracker wird von den Medien kaum verwendet und stattdessen mit dem Hacker unter einen Hut gesteckt. Zur ausreichenden Differenzierung ist daher zusätzlich zu erwähnen, dass sich Hacker und Cracker zwar insbesondere hinsichtlich ihrer Qualifikation ähneln bzw. ebenwürdig sind, aber Cracker meist beide Seiten kennen bzw. alle Schattierungen durchlaufen haben. Zwischen diesen beiden Gruppen ist demnach ein wichtiger Unterschied herauszustellen. Der Hacker gilt gemeinhin als ethisch handelnde Person, die sich selbst auch mit gemeinnützigen Beiträgen wie z.B. dem Aufdecken von Sicherheitslücken und anschließender Veröffentlichung identifiziert, mit dem Ziel, die Verantwortlichen dazu zu bewegen, diese zu schließen. Der Cracker hingegen gilt als unmoralisch, handelt eigennützig, profitorientiert und bietet hierzu seine Dienste auch (kriminellen) Dritten an. Ein nicht unbeträchtliches Schadensrisiko geht ebenso von der Gruppe der Mitarbeiter aus. Laut einer Umfrage finden zwar mit 58% die meisten Angriffe von extern (d.h. unautorisiert von außerhalb des Firmennetzwerks bzw. vor der demilitarisierten Zone aus statt, jedoch sind die internen Angriffe (d.h. mit autorisiertem Zugang oder Zugriff auf das Firmennetzwerk bzw. die Unternehmens-IT) mit 21% die kostspieligeren für das Unternehmen. Die restlichen 21% sind Angriffe, deren Ursprung unbekannt ist. Dabei setzen Mitarbeiter zunehmend (22% in 2011 im Verhältnis zu 9% in 2010) Angriffswerkzeuge wie z.B. Rootkits ein, die immer einfacher zu beschaffen sind, was die Angriffe von innen heraus gefährlicher macht. Angriffe von Mitarbeitern sind zudem schwieriger zu erkennen, da für gewöhnlich die eingesetzten Sicherheitsmaßnahmen/ -mechanismen, wie z.B. Firewalls oder IDS, erstrangig auf den Angriff von extern ausgelegt werden. Darüber hinaus haben Mitarbeiter - im Gegensatz zu externen Angreifern - den Vorteil über Insiderwissen zu verfügen, was einen zielgerichteten Angriff mit weniger hinterlassenen Spuren erlaubt. Ein sehr ernstes Problem aus Mitarbeiter-Angriffen ergibt sich für die Unternehmen (insbesondere FDL) durch die unberechtigte Weitergabe von (geheimen) Informationen bzw. dem Datendiebstahl sowie dem Betrug in Verbindung mit Computermissbrauch. Auf die Weise von Letzterem werden Gelder veruntreut, elektronisch verarbeitete Urkunden oder Abrechnungen gefälscht und Richtlinien und deren computergestützte Geschäftsprozesse ausgetrickst, um sich selbst oder (bekannten) Dritten Vorteile zu verschaffen. Aus Sicht der FDL stellt die Gruppe der Kriminellen ein besonders hohes Schadensrisiko dar, denn es sind insbesondere die Banken und ihre Kunden, die im Fokus dieser Angreiferklasse liegen. Hauptsächlich sind es sog. Skimming-Angriffe - der Betrug mittels rechtswidrig erlangter Kredit- oder Bankkartendaten mit PIN - und sog. Phishing-Angriffe - der Betrug mittels ausgespähten Zugangsberechtigungsdaten (engl. credentials) für Kommunikationsdienste wie z.B. dem Online Banking der Bank - die von dieser Gruppe praktiziert werden. Angreifer dieser Art sind international aktiv und gleichen mit ihrem Organisationsgrad und -aufbau multinational agierenden Unternehmen. Sie haben eine Spitze, die alles koordiniert, Bereiche, die Entwicklungs-, Design- und Abwicklungsaufgaben, wie z.B. die Geldwäsche und das damit verbundene Anwerben von sog. Finanzagenten (engl. money mules) nachgehen und hiervon entsprechende Pendants in unterschiedlichen Ländern. Die Beteiligten solcher Cybercrime-Ringe, von denen die wenigsten einen Überblick über die gesamte Organisation haben, kommunizieren untereinander mit Pseudonymen und größtenteils über gesicherte Verbindungen, was ein entsprechendes Aufdecken bzw. Bekämpfen dieser Gruppe und deren Aktivitäten erschwert. Dabei stehlen einzelne Ringe bis zu 72 Mio. US-Dollar von Bankkonten in über 10 Ländern durch den Einsatz von Malware (engl. für Schadprogramm). Neben der Vielfalt der Angreifer sind es diverse Angriffs-Arten mit denen sich Unternehmen auseinandersetzen müssen. Wie dem folgenden Ausschnitt einer Studie jedoch zu entnehmen ist, ist die Unternehmens-IT in den meisten Fällen Angriffen in Verbindung mit eingesetzter Malware ausgesetzt. Selbstverständlich ist - aufgrund befürchteter Reputationsschäden des IT-Sicherheits-Verantwortlichen sowie unter Umständen ohne Kenntnis des Unternehmens stattgefundener Angriffe - dem Ergebnis solcher Befragungen zu unterstellen, dass nicht alle Angriffe benannt wurden. Dennoch zeichnet sich bei Angriffen deutlich die Erfahrung mit Malware ab. Die FDL sehen sich bzw. ihre Kunden ebenfalls in Form von Phishing-Angriffen mit Malware konfrontiert, wobei Skimming-Angriffe für Institute die weitaus größere Bedrohung darstellen. Besonders erwähnenswert bei beiden Angriffsarten ist, dass lediglich jeder 4. Fall durch die Bank erkannt wird und beim Rest vom betroffenen Kunden darauf aufmerksam gemacht wird. Was im Umkehrschluss bedeutet, dass in den meisten Fällen erst spät, nämlich wenn der Schaden bereits eingetreten und der Angriff vollzogen ist, Kenntnis erlangt wird und so keine Möglichkeit mehr zur Eingrenzung oder zum Vereiteln besteht. Dieser Missstand lässt sich bei derartiger Angriffs-Konstellation hauptsächlich auf die Schwierigkeit die Schwachstellen bei den eingesetzten Endgeräten ausreichend abzusichern (engl. Endpoint-Security) zurückführen. So ist es aus Bankperspektive bspw. nahezu unmöglich, weder den vom Kunden für das Online Banking eingesetzten PC noch den Kunden selbst – dem sog. Social Engineering – vor Manipulationen zu schützen. Das Ergreifen entsprechender Schutzmaßnahmen, wie z.B. der Einsatz von Firewalls oder Antivirusprogrammen auf dem heimischen PC, obliegt (bisher) allein dem Kunden.
Inhaltsangabe: Einleitung: Familienunternehmen spielen eine bedeutende Rolle in der Wirtschaftslandschaft der Bundesrepublik Deutschland. Manche bezeichnen sie gar als das 'Rückgrat der deutschen Wirtschaft'. Zahlreiche Zeitungen haben ihren Ausgaben familienunternehmerspezifische Rubriken beigefügt. Hierbei werden Familienunternehmen immer wieder als Unternehmensform dargestellt, die langfristigen Erfolg hat, unabhängig vom Finanzmarkt ist und sich durch Loyalität, Nachhaltigkeit sowie Standortverbundenheit auszeichnet. Jedoch wird dieses Bild vorrangig von einem Kreis aus Experten oder Interessenverbänden gezeichnet. Ob dieses Bild auch von der Öffentlichkeit so akzeptiert und wahrgenommen wird, war Anlass einer ersten Studie innerhalb der Bevölkerung. Im Rahmen des X. Kongresses für Familienunternehmen an der Universität Witten/Herdecke wurde zum ersten Mal die Außenwirkung von Familienunternehmen empirisch erhoben. Hierzu wurde mit dem Methodeninstitut nextpractice GmbH kooperiert, mit deren Softwaretool nextexpertizer die Befragung durchgeführt wurde. Diese Studie beschäftigte sich mit der Fragestellung, ob in der Wahrnehmung der Öffentlichkeit eine 'Marke Familienunternehmen' entstanden sei und welche Erwartungen an diese Marke geknüpft werden. Die Studie kam zu den Ergebnissen, das Familienunternehmen von der Gesellschaft als hochgradig sozial und nachhaltig angesehen werden, diese Werte in Zukunft jedoch eine weniger bedeutende Rolle spielen würden. Die Finanz- und Wirtschaftskrise hat die internationale wie nationale Wirtschaftslage seitdem drastisch verschärft. Die Stimmung in der Bevölkerung ist zunehmend angstvoller geworden, da viele Menschen ihre Arbeitsplätze und Existenzen bedroht sehen. Diese Entwicklung ist als Prüfstein für die Marke Familienunternehmen zu sehen. Familienunternehmen werden insbesondere daran gemessen, ob ihre Kerneigenschaften wie Nachhaltigkeit oder Langfristigkeit grade dann ihre Wirkung entfalten, wenn sie gebraucht werden. In Zeiten der Krise bekommt die Erwartungshaltung gegenüber Familienunternehmen deshalb eine besondere Bedeutung. Beweisen sich Familienunternehmen auch in der Krise als Rückgrat der deutschen Wirtschaft? Hat sich die Erwartungshaltung der Öffentlichkeit verändert? Nimmt die Öffentlichkeit Familienunternehmen auch in der Krise noch als sozialen Sicherungsanker wahr? Diese Fragen sollen im Rahmen dieser Arbeit durch die Analyse einer Anschlussstudie zur Marke Familienunternehmen geklärt werden, die in den Monaten Januar bis März 2009 - zur 'Hochzeit' der Wirtschaftskrise - durchgeführt wurde. Die erste Studie aus dem Jahr 2008 soll als Referenz genutzt werden, um die Veränderungen in der Wahrnehmung deutlich zu machen. Zudem soll eine weitere Frage geklärt werden. Im Rahmen des Kongresses von 2008 wurde die Wahrnehmung von Familienunternehmen in der Öffentlichkeit schnell zu einer 'Marke Familienunternehmen' gemacht. Ob es jedoch, nach verschiedenen theoretischen Ansätzen, legitim ist, von einer Marke zu sprechen, wurde seinerzeit nicht weiter betrachtet. Deshalb soll diese Arbeit eine detaillierte Einführung in das Phänomen Marke geben, ihre Funktionsweisen herausarbeiten und Voraussetzungen untersuchen, unter denen Marken überhaupt erst entstehen können. Vor dem Hintergrund der Finanzkrise sollen die daraus gewonnenen Erkenntnisse auf die vermeintliche Marke Familienunternehmen übertragen werden. Die Implikationen der Finanzkrise werden dadurch in Beziehung gesetzt zu etwaigen Veränderungen in der Wahrnehmung der Bevölkerung und zu ihrer Bedeutung für die Marke Familienunternehmen. Die Arbeit teilt sich in einen Grundlagen-, einen Theorie- und einen Empirieteil auf. Die Grundlagen in Kapitel 1 schaffen ein allgemeines Verständnis von Familienunternehmen und beleuchten die Hintergründe der Finanzkrise, die möglicherweise zu anderen Bewertungsgrundlagen bei den Befragten geführt haben. Kapitel 2 behandelt das Phänomen Marke. Einer chronologischen Betrachtung der Entwicklung des Markenbegriffs folgen detaillierte Erklärungen zu zwei Modellen, die im weiteren Verlauf der Arbeit zur theoretischen Reflektionsgrundlage der Marke Familienunternehmen dienen. Hierbei handelt es sich um den Ansatz zur identitätsorientierten Markenführung sowie ein soziologisch orientiertes Markenverständnis. Kapitel 3 beschäftigt sich eingehend mit der Methodik der empirischen Erhebung. Die theoretische Fundierung des nextexpertizer sowie seine Funktionsweisen werden beschrieben und in Beziehung zu gängigen qualitativen und quantitativen Verfahren gesetzt. In den Kapiteln 4 und 5 werden die Studien aus 2008 und 2009 getrennt voneinander im Detail analysiert. Der Fokus liegt dabei auf der Einschätzung des gesellschaftlichen und wirtschaftlichen Umfeldes sowie der Betrachtung unterschiedlicher Unternehmensklassen. In Kapitel 6 werden die beiden Studien zusammengeführt und auf die wesentlichen Veränderungen eingegangen. Diese Erkenntnisse werden in Bezug zur Finanzkrise und zu dem in Kapitel 2 gewonnenen Verständnis von Marken gesetzt. Kapitel 7 fasst die Ergebnisse dieser Arbeit zusammen und gibt einen kurzen Ausblick auf mögliche künftige Forschungsfelder. Zuerst sollen jedoch die Erklärungen zu Familienunternehmen und zu der Finanzkrise die Grundlagen für theoretische Reflektionen und empirische Erhebungen bieten.Inhaltsverzeichnis:Inhaltsverzeichnis: ABBILDUNGSVERZEICHNIS6 TABELLENVERZEICHNIS7 ABKÜRZUNGSVERZEICHNIS8 1.EINLEITUNG UND GRUNDLAGEN9 1.1AUSGANGSSITUATION UND ZIEL DER ARBEIT10 1.2GANG DER ARBEIT11 1.3EINFÜHRUNG IN DIE GRUNDLAGEN DER ARBEIT13 1.3.1DEFINITION UND EINORDNUNG VON FAMILIENUNTERNEHMEN13 1.3.2DIE FINANZ- UND WIRTSCHAFTSKRISE UND IHRE AUSWIRKUNGEN15 1.4ZUSAMMENFASSUNG KAPITEL 126 2.DAS PHÄNOMEN MARKE27 2.1EINLEITUNG28 2.1.1HISTORISCHE ENTWICKLUNG DER MARKE29 2.1.2DIE FUNKTIONEN EINER MARKE35 2.2IDENTITÄTSORIENTIERTE MARKENFÜHRUNG36 2.2.1EINLEITUNG UND KONZEPT36 2.2.2DAS AUSSAGENKONZEPT39 2.2.3DAS AKZEPTANZKONZEPT41 2.2.4IDENTITÄTSORIENTIERTER ANSATZ UND DIE MARKE FAMILIENUNTERNEHMEN41 2.3FAMILIE ALS MARKE UND ALS MYTHOS44 2.3.1DIE BEDEUTUNG VON MYTHEN44 2.3.2MYTHEN ALS GRUNDLAGE STARKER MARKEN45 2.3.3FAMILIE ALS MYTHOS DES FAMILIENUNTERNEHMENS47 2.3.4DIE FAMILIE ALS ARCHAISCHER HELD52 2.4ZUSAMMENFASSUNG KAPITEL 254 3.METHODIK DER EMPIRISCHEN ERHEBUNG55 3.1EINLEITUNG56 3.1.1GEORGE A. KELLYS PSYCHOLOGIE DER PERSÖNLICHEN KONSTRUKTE56 3.1.2REPERTORY-GRID ALS ANWENDUNG DER THEORIE DER PERSÖNLICHEN KONSTRUKTE59 3.1.3EINORDNUNG DES REPERTORY-GRID IN DIE METHODEN DER MARKTFORSCHUNG60 3.1.4DAS REPERTORY-GRID-VERFAHREN UND TESTGÜTEKRITERIEN61 3.2DER NEXTEXPERTIZER - EINFÜHRUNG64 3.2.1DER NEXTEXPERTIZER - ENTWICKLUNG DES ELEMENTE-SETS65 3.2.2DER NEXTEXPERTIZER - DURCHFÜHRUNGSPHASE65 3.2.3DER NEXTEXPERTIZER – KONSENSUELLE VALIDIERUNG68 3.2.4DER NEXTEXPERTIZER- INTERVIEWAUSWERTUNG69 3.3ZUSAMMENFASSUNG KAPITEL 371 4.DIE MARKE FAMILIENUNTERNEHMEN IM JAHR 200873 4.1EINLEITUNG74 4.2STUDIENDESIGN74 4.2.1STICHPROBENAUSWAHL74 4.2.2DIE ENTWICKLUNG DES ELEMENTESETS76 4.2.3ANALYSELOGIK FÜR ELEMENTE79 4.3DIE ERGEBNISSE DER STUDIE 200881 4.3.1THEMENCLUSTERUNG81 4.3.2SPOTLIGHT - WAS MIR PERSÖNLICH WICHTIG IST85 4.3.3SPOTLIGHT - UNTERNEHMENSTYPEN88 4.3.4SPOTLIGHT - GLOBALISIERUNG ALS HERAUSFORDERUNG99 4.3.5SPOTLIGHT - IMAGE FAMILIENUNTERNEHMEN IM ZEITVERLAUF101 4.4ZUSAMMENFASSUNG KAPITEL 4106 5.DIE MARKE FAMILIENUNTERNEHMEN IM JAHR 2009107 5.1EINLEITUNG108 5.2STUDIENDESIGN109 5.2.1STICHPROBENAUSWAHL109 5.2.2DIE ENTWICKLUNG DES ELEMENTE-SETS110 5.2.3ANALYSELOGIK FÜR ELEMENTE110 5.3DIE ERGEBNISSE DER STUDIE 2009111 5.3.1THEMENCLUSTERUNG111 5.3.2SPOTLIGHT - WAS MIR PERSÖNLICH WICHTIG IST114 5.3.3SPOTLIGHT - UNTERNEHMENSTYPEN117 5.3.4SPOTLIGHT - GLOBALISIERUNG ALS HERAUSFORDERUNG126 5.3.5SPOTLIGHT - IMAGE FAMILIENUNTERNEHMEN IM ZEITVERLAUF129 5.4ZUSAMMENFASSUNG KAPITEL 5133 6.DIEMARKE FAMILIENUNTERNEHMEN IN DER FINANZKRISE134 6.1EINLEITUNG135 6.2VERGLEICH DER STUDIEN 2008 UND 2009135 6.2.1VERÄNDERUNGEN DES BEDEUTUNGSRAUMES135 6.2.2VERÄNDERUNGEN DER GLOBALISIERUNG140 6.2.3VERÄNDERUNGEN DER BEWERTUNG VON FAMILIENUNTERNEHMEN141 6.3EINFLUSS DER FINANZKRISE AUF DIE MARKE FAMILIENUNTERNEHMEN145 6.3.1IDENTITÄTSORIENTIERTER ANSATZ145 6.3.2FAMILIENUNTERNEHMEN ALS MARKE UND ALS MYTHOS146 7.ZUSAMMENFASSUNG UND AUSBLICK149 7.1ZUSAMMENFASSUNG150 7.2AUSBLICK151 LITERATURVERZEICHNIS153 MONOGRAPHIEN UND ZEITSCHRIFTENARTIKEL153 INTERNETQUELLEN157 SONSTIGE QUELLEN160 ANHANG161Textprobe:Textprobe: Kapitel 4.3.3, Spotlight – Unternehmenstypen: Positionierung im dreidimensionalen Raum (Abbildung im Original): Durch räumliche Nähe bzw. Distanz wird die Ähnlichkeit bzw. Unterschiedlichkeit von Zentroiden ausgedrückt. Zentroide, die nah am Idealzentroid liegen haben mit diesem viele Gemeinsamkeiten und einen hohen Idealzentroid-Erfüllungsgrad, weit entfernte Zentroide sind durch eine hohe Unterschiedlichkeit gekennzeichnet. Nach der grafischen Validierung scheinen 'Kleinunternehmen', 'mittelständische Familienunternehmen' und 'mittelständische Unternehmen' am nächsten an dem Idealzentroid zu liegen und sind damit die am positivsten bewerteten Unternehmenstypen. Je größer Unternehmen werden, desto weiter entfernen sie sich vom Ideal. 'Großkonzerne in Familienbesitz' liegen mittig im Raum und sind beeinflusst von sowohl positiv als auch negativ konnotierten Resonanzfeldern. Dies kann zwei Ursachen haben: Zum einen sind innerhalb der Stichprobe zwei opponierende Gruppen möglich, die 'Großkonzerne in Familienbesitz' gegensätzlich bewerten. Eine dieser Gruppen hat eine durchweg positive Meinung, die andere eine durchweg negative Meinung. Beide zusammen neutralisieren sich und ergeben ein in der Mitte des Raumes liegendes Zentroid. Zum anderen können 'Großkonzerne in Familienbesitz' von der gesamten Befragungsgruppe als in sich gegensätzlich beurteilt worden sein und es können ihnen sowohl positive als auch negative Eigenschaften zugeschrieben werden. Das 'börsennotierte Unternehmen' liegt von allen Unternehmenstypen am deutlichsten im negativen Bereich des Bedeutungsraumes. Es ist am weitesten vom Ideal entfernt und derjenige Unternehmenstypus, der den persönlichen Präferenzvorstellungen am wenigsten entspricht. Eine Betrachtung des Rankings zeigt die genauen Übereinstimmungen der einzelnen Unternehmenstypen mit dem Ideal (Abbildung im Original). 'Mittelständische Familienunternehmen' haben die größten Übereinstimmungen mit den Präferenzvorstellungen der Befragten. Nach der Beurteilung der räumlichen Positionierung im dreidimensionalen Raum waren grafisch keine Unterschiede zwischen den 'Kleinunternehmen' und den 'mittelständischen Unternehmen' auszumachen. Das Ranking zeigt jedoch, dass 'Kleinunternehmen' weniger Übereinstimmungen mit dem Ideal haben, als Mittelständler. Die Betrachtung der großen Unternehmenstypen bestätigt oben genannte erste Eindrücke – 'Großkonzerne in Familienbesitz' distanzieren die andere großen Unternehmensklassen deutlich und weisen ähnlich hohe Präferenzkongruenzen mit dem Ideal auf, wie 'Kleinunternehmen'. 'Deutsche Großkonzerne' und 'börsennotierte Unternehmen', werden deutlich schlechter bewertet und sind, gemessen an der Idealvorstellung von Unternehmen, am weitesten hiervon entfernt. In den folgenden Abschnitten wird mittels einer Analyse der Erfüllungsgrade eine qualitative Betrachtung durchgeführt, welche die Bewertungen der unterschiedlichen Unternehmensformen präzisiert.
Este artículo se enfoca en la dimensión biográfica de los procesos de desarrollo de conciencia política y su relevancia para la consistencia en la acción política. Está basado en un solo caso de estudio, que fue desarrollado dentro de un proyecto de historia oral en 1980. Una nueva reconstrucción de la narrativa del trabajador acerca de su rechazo para servir en el ejército y la subsecuente huida durante el periodo Nacional-Socialista muestra como se entrelazan los deseos personales para el cambio y los patrones políticos institucionalizados de interpretación y acción. El protagonista puede lidiar con tiempos de actitud extremadamente restringida para la acción, como fue el caso en la era Nazi, adquiriendo aprendizaje personal o destrezas para el manejo de crisis, mientras había esperanza de emancipación e integración social en el futuro. En el periodo de la posguerra, la disipación de esta perspectiva llevó a la reducción en su habilidad individual para tomar acciones políticas.
Inhaltsangabe:Einleitung: Aus statistischer Sicht enden, je nach angesetzten Messkriterien, zwischen 40% und 85% der Fusionen und Übernahmen mit einem Misserfolg. Erklärungsversuche sind zum einen in einer Reihe komplexer Planungsschritte und schwer kalkulierbarer Risiken sowie Entscheidungen mit hoher Tragweite, die bereits vor den eigentlichen Mergers Acquisitions notwendig sind, zu finden. Zum anderen sind die Interessen und das Einflussnahmepotential zahlreicher interner wie externer Stakeholder vollständig zu eruieren und zu bewerten, um alle Beteiligten von dem Vorhaben zu überzeugen und Widerstände zu minimieren. Im Verlauf von Mergers Acquisitions ist zudem ein großer Teil der organisatorischen Bereiche und Funktionen der Unternehmen einem massiven Veränderungsprozess unterworfen. Externe Spezialisten wie Rechtsanwälte, Steuerberater, Unternehmensberater und weitere transaktionsspezifische Sachverständige tragen ihren Teil zum Gelingen der Mergers Acquisitions Transaktion bei, erhöhen aber auch die Kosten und, bei nicht ausreichender Qualifikation und Erfahrung, die Risiken eines Misserfolgs. Doch weder die Vielzahl möglicher Risiko- und Fehlerquellen noch die technische und fachliche Komplexität der als Königsdisziplin der BWL geltenden Mergers Acquisitions scheinen einen derart hohen Anteil an Misserfolgen zu rechtfertigen. Neben den 'Hard Facts' wie der Nutzung entstehender Skaleneffekte im Massengeschäft und Verbundeffekten in der Auslastung von Anlagen gelten daher zunehmend auch die sogenannten 'Soft Facts' als bedeutende Kriterien für den Erfolg von Mergers Acquisitions. Ein weicher Faktor ist das Managen des Aufeinandertreffens heterogener Unternehmenstraditionen und Subkulturen, vor allem im Rahmen internationaler Mergers Acquisitions. Des Weiteren ist die erhöhte Fluktuation von Schlüsselressourcen und Führungskräften, ausgelöst durch persönliche und finanzielle Unsicherheit, Demotivation oder Unzufriedenheit zu den weichen Faktoren zu zählen. Die interne und externe Unternehmenskommunikation und der Umgang mit Schlüsselkunden und Schlüssellieferanten seien an dieser Stelle als abschließende Beispiele weicher Erfolgsfaktoren genannt. Empirische Studien und Umfragen unter Top-Managern geben das Unterschätzen unternehmenskultureller Einflüsse als Hauptursache für das Scheitern von Mergers Acquisitions an. Ziel der vorliegenden Arbeit ist es, zunächst einen umfassenden Überblick in das wirtschaftswissenschaftliche Gebiet der Mergers Acquisitions sowie in den Bereich der Unternehmenskultur zu erhalten und dabei insbesondere deren Interdependenzen und Schnittstellen aufzuzeigen. Darauf aufbauend soll die Bedeutung der Unternehmenskultur für den Erfolg von Mergers Acquisitions bewertet werden. Um zu einer fundierten Bewertung zu gelangen und um einen einseitigen Analyseansatz zu vermeiden, erfolgt die Untersuchung aus unterschiedlichen wissenschaftlichen Perspektiven. Die in dieser Arbeit 'Bottom Up' genannte Perspektive umschreibt dabei einen Blickwinkel, der ausgehend von den einzelnen Phasen und Arbeitsschritten einer Mergers Acquisitions Transaktion, auf mögliche kulturverändernde oder -beeinflussende Tätigkeiten gerichtet ist. Die 'Top-Down'-Perspektive lenkt den Blickwinkel auf die Unternehmenskultur als eigenen Forschungsgegenstand. Dabei sollen Rückschlüsse hergestellt werden, ob und wie die drei Forschungsgegenstände Subkulturen, Landeskulturen und Firmentraditionen eine Situation des kulturellen Wandels innerhalb einer Organisation beeinflussen können. Resultat dieser Arbeit ist eine fundierte Bewertung der Bedeutung der Unternehmenskultur für den Erfolg von Mergers Acquisitions, sowie Handlungsempfehlungen zum Umgang mit der Unternehmenskultur im Rahmen von Mergers Acquisitions.Inhaltsverzeichnis:Inhaltsverzeichnis: 1.Problemstellung1 2.Zielsetzung2 3.Aufbau der Arbeit2 4.Unternehmenskultur - Begriffsdefinition und Probleme bei der Messung4 4.1Definitionsansätze zur Unternehmenskultur4 4.2Die Messbarkeit der Unternehmenskultur6 5.Mergers Acquisitions - Begriffsdefinition und Abgrenzung8 5.1Definition und Teilbereiche von Mergers Acquisitions8 5.2Mergers10 5.3Acquisitions10 5.4Kooperationen11 6.Globale Fusionswellen11 7.Merger Endgames12 8.Exemplarischer Ablauf einer Mergers Acquisitions Transaktion14 8.1Planungsphase14 8.1.1Vorarbeiten und Ablaufplanung15 8.1.2Planung rechtlicher und steuerlicher Parameter16 8.1.3Corporate Governance16 8.1.4Die Bedeutung der Konsolidierungsstrategie17 8.2Durchführungsphase17 8.2.1Vorvertragliche Aspekte18 8.2.2Vertragsgestaltung19 8.2.3Due Diligence19 8.2.3.1Cultural Due Diligence20 8.2.3.2Human Resources Due Diligence23 8.2.4Integrationsarten24 8.2.5Kulturbezogenes Integrationsdesign25 8.2.5.1Entwicklung eines Kulturkonzepts26 8.2.5.2Entwicklung einer Toolbox27 8.2.5.3Bestimmung der Change Community27 8.2.5.4Abstimmung des Kommunikationsplans27 8.3Implementierungsphase29 8.3.1Integrationsmanagement29 8.3.2Umsetzung von Synergien30 8.3.3Integrationsgeschwindigkeit30 8.3.4Merger Syndrom31 8.3.5Personelle Integration32 8.3.5.1Betriebsänderungen32 8.3.5.2Veränderung der Arbeitsumgebung33 8.3.5.3Personalmaßnahmen33 8.3.6Kulturelle Integration34 8.3.6.1Ausarbeitung des Leitbilds35 8.3.6.2Engagement der Führungskräfte36 8.3.6.3Einbindung von Kernmitarbeitern37 8.3.6.4Umsetzung des Kommunikationsplans38 8.3.6.5Aussteuern der Mitarbeiter40 8.3.6.6Schaffung einer nachhaltigen Veränderungskultur42 8.3.6.7Diversity Management43 9.Unternehmenskulturelle Einflüsse auf Mergers Acquisitions44 9.1Einflüsse durch Subkulturen44 9.2Einflüsse durch Landeskulturen46 9.3Einflüsse durch Unternehmenskulturen und Firmentraditionen50 10.Ergebnis und Zusammenfassung54 11.Ausblick und weitere Forschungsfelder56 12.Quellen58Textprobe:Textprobe: Kapitel 8.2.5, Kulturbezogenes Integrationsdesign: Vorbereitend auf die kulturelle Integration und abgestimmt auf die Integrationsart findet ein kulturbezogenes Integrationsdesign statt. Dieses setzt auf den Erkenntnissen der Cultural Due Diligence auf und umfasst gemeinsame Aufgaben der Transaktionspartner zur Koordination des Integrationsverlaufs und zur Sicherstellung des Integrationserfolgs. Es werden wesentliche Entscheidungen für das neue Unternehmen getroffen, ein herausforderndes Anspruchsniveau bildet sich heraus und im günstigsten Fall entsteht ein loyales, homogen ausgerichtetes und motiviertes Führungsteam. Das Integrationsdesign hat in den erfolgskritischen ersten 100 Tagen der Implementierung große Bedeutung für das Gelingen von MAs. In der Praxis stellen Manager jedoch oft erst im Nachhinein fest, dass dem Integrationsdesign eine größere Bedeutung hätte zugeschrieben werden müssen. Zu den kulturbezogenen Aufgaben der Designphase zählen die Entwicklung eines Kulturkonzepts, die Erstellung einer Toolbox, das Festlegen der Change Community sowie die Erstellung und Abstimmung des Kommunikationsplans. 8.2.5.1, Entwicklung eines Kulturkonzepts: Umfang und Intensität der Maßnahmen im Kulturkonzept sind abhängig von der Transaktionsart und von der Varianz der bestehenden Kulturen. Das Kulturkonzept legt daher den Grad der kulturellen Veränderung fest. Für die Konsolidierung von ausgeprägt heterogenen Unternehmenskulturen enthält das Kulturkonzept besonders umfangreiche und weitreichende Maßnahmen. Das Top-Management legt Vision, Werte- und Verhaltenskodizes, Leitlinien, Grad der Mitarbeiterpartizipation und Kommunikationsrichtlinien fest. Ziel ist ein möglichst großer Konsens aller Beteiligten. Das Kulturkonzept kann dennoch an einigen Stellen bewusst provozieren, um dadurch zum Umdenken anzuregen. Harmonisieren beide Unternehmenskulturen weitgehend miteinander, werden im Kulturkonzept dagegen lediglich klare Verhaltensanforderungen definiert und Prozessabläufe modifiziert. In diesen Fällen ist es zunächst primär auf die Beobachtung der gemeinsamen Entwicklung ausgelegt. Die Vorgesetzten sind dazu angehalten, mit Nachdruck für die Einhaltung der Vorgaben zu sorgen. Das Kulturkonzept dient zudem der Ermittlung und Bewertung möglicher Risiken. Es werden proaktive Maßnahmen festgelegt um die Eintrittswahrscheinlichkeit der Risiken zu reduzieren und reaktive Maßnahmen um das Schadensausmaß zu verringern. Zur Vermeidung unerwarteter Komplikationen kann zusätzlich ein Eskalationsmanagementprozess enthalten sein. Die Prinzipien und Verhaltenserwartungen des Kulturkonzepts sollten in die Leistungsbewertung des Managements und der Mitarbeiter einfließen, um den Prozess dauerhaft im Bewusstsein der Organisation zu verankern und die Kulturveränderung nachhaltig und effizient zu gestalten. 8.2.5.2, Entwicklung einer Toolbox: Die Toolbox enthält die wichtigsten Instruktionen, Botschaften, Informationsmaterialien, Sprachregeln und Kernstrategien für das Management und für ausgewählte Multiplikatoren der Change Community. Für einen reibungslosen Rollout des Kulturkonzepts stellt die Toolbox eine abgestimmte Vorgehensweise und einheitliche Methoden sicher. Somit wird einerseits für einen identischen Informationsstand und größtmögliche Akzeptanz im Management gesorgt. Andererseits werden Risiken eines missglückten Starts reduziert und möglichen Missverständnissen bezüglich Zuständigkeiten, Abläufen und Inhalten vorgebeugt. 8.2.5.3, Bestimmung der Change Community: Zur Unterstützung des kulturellen Wandels wird frühzeitig eine breite Basis an besonders fähigen Kernmitarbeitern und Managern - die sogenannte Change Community - benannt, die vorab Informationen erhält und in Workshops darauf vorbereitet wird, den kulturellen Wandel zu unterstützen. Durch anerkennende Gestaltung des Selektionsprozesses und finanzielle Honorierung wird die Change Community motiviert, die neue Kultur zu prägen, Unsicherheiten abzubauen und eine Stimmung des Aufbruchs zu verbreiten. Begleitend zu den Tätigkeiten der Change Community werden Großveranstaltungen geplant, um den Botschaften Nachdruck zu verleihen und die Effizienz der Implementierungsmaßnahmen zu erhöhen. Basis für die Aufgaben der Community und Inhalte der Veranstaltungen ist ein einheitlicher Kommunikationsplan. 8.2.5.4, Abstimmung des Kommunikationsplans: Der Kommunikationsplan verfolgt eine Kommunikationsstrategie. Er dient der Koordination des Einsatzes von Kommunikationsinstrumenten, Kommunikationsmedien und Kommunikationskanälen sowie der Bestimmung der internen und externen Zielgruppen. Kommunikationsinhalte und Kommunikationszeitpunkte werden zielgruppenspezifisch festgelegt. Der Kommunikationsplan enthält zudem Meilensteine für strategisch wichtige Botschaften und für das Einholen und Auswerten von Feedback. Die Eignung bereits existierender Medien und Informationskanäle wird geprüft und Zusatzbedarf ermittelt. Überlegungen zu möglichen Kommunikationsstörungen werden getätigt und geeignete Gegenmaßnahmen in die Kommunikationsstrategie integriert. Der Kommunikationsplan vermittelt die Vision und das Leitbild sowie die Ziele und die Gründe des Kulturwandels. Die Botschaften sind daher glaubwürdig zu gestalten. Der Kommunikationsplan bietet Perspektiven, schafft Transparenz und stellt die Motivation nach anfänglicher Unsicherheit wieder her. Eine einheitliche Sprachregelung und klare Kernbotschaften sorgen für eine synchronisierte Vorgehensweise. Spezifische Instrumente für die Kommunikation sind unter anderem Change Stories, Blogs, Chats, Roadshows, Kaminrunden oder Videobotschaften. Onlineplattformen mit FAQs, Newsletter und Pressemitteilungen können mit vorgenannten Instrumenten kombiniert werden. Der Kommunikationsplan ist langfristig ausgelegt und bietet Feedbackmöglichkeiten. Für aktives Feedback eignen sich Review Workshops und Diskussionsrunden. Passives Feedback wird durch aufmerksames Verfolgen von Presse- und Medieninformationen ermittelt. Eine Überarbeitung des Kommunikationsplans ist erforderlich, sobald sich einzelne Maßnahmen oder Instrumente als ineffektiv erweisen oder unerwartete Reaktionen von einzelnen Zielgruppen ein Handeln notwendig machen. Aufgabe des Managements ist es, für Nachhaltigkeit zu sorgen, indem konsequent steuernde und korrigierende Maßnahmen implementiert werden. Ein weiteres Arbeitspaket zur Erstellung des Kommunikationsplans ist die rechtzeitige Durchführung einer umfassenden Stakeholderanalyse. Die Integration externer Stakeholder in die Kommunikationsplanung minimiert Risiken wie Kundenabwanderungen oder Preiserhöhung durch Lieferanten. Die Kommunikation an die Kunden erfordert dabei eine besonders sensible Planung, da sie MAs häufig als Risiko für die bestehende Geschäftsverbindung ansehen. Die sorgfältige Ausarbeitung eines Kommunikationsplans wirkt Risiken wie dem Zurückhalten von Investitionen, Kundenabwanderungen, Vertragskündigungen sowie damit verbundenen Absatzeinbrüchen entgegen. Herausforderung des Kommunikationsplans ist es, jede einzelne Zielgruppe von den positiven Aspekten der MA-Transaktion zu überzeugen. Dazu erfolgt eine zielgruppenspezifische Differenzierung der Kommunikationsbotschaften. Gleichzeitig ist jedoch auf die Wahrung der inhaltlichen Kohärenz dieser Botschaften zu achten.
Inhaltsangabe: Einleitung: In den vergangenen Jahren hat die Problematik der Produktplatzierung im Einzelhandel kontinuierlich an Bedeutung gewonnen. Drei Gründe lassen sich dafür benennen: 1. Die Konsumenten haben die Möglichkeit, aus einer Vielzahl von Einkaufsstätten frei zu wählen. Da die Geschäfte im Allgemeinen von den Kunden als austauschbar empfunden werden, müssen sich Händler durch ein individuelles Konzept, besonders in den Bereichen Ladengestaltung und Warenplatzierung, von der Konkurrenz abheben. Auf diese Weise können Wettbewerbsvorteile entstehen. 2. Ein Großteil der Kaufentscheidungen erfolgt erst direkt im Geschäft. Daraus ergibt sich für den stationären Einzelhandel, dass verkaufsfördernde Maßnahmen auf die in Punkt eins genannten Bereiche ausgerichtet werden sollten. 3. Jedes Jahr versuchen unzählige Produktneuheiten, sich auf dem Markt zu etablieren. Sowohl Händlern als auch Kunden müssen diese Artikel interessant erscheinen, damit sie ihren Weg ins Regal bzw. in den Einkaufskorb finden. Für die Hersteller von Konsumgütern lässt sich nun folgendes Problem ableiten: Wie muss die Zusammenarbeit zwischen Industrie und Handel gestaltet werden, um Effizienzsteigerungen in der Wertschöpfung zu erreichen? Mit dieser Thematik beschäftigt sich der erste Teil der vorliegenden Bachelorarbeit. Es wird auf die Grundlagen des ECR-Konzeptes und deren Basisstrategien im Überblick eingegangen. Die detaillierte Darstellung des Efficient Store Assortment steht danach im Vordergrund, da es wichtiger Bestandteil der weiteren Betrachtungen ist. Für die Händler ergeben sich folgende Problembereiche: Wie sollen sie die knappe und teure Ressource Laden- bzw. Regalfläche nutzen, um Kundenbedürfnisse bestmöglich zu befriedigen? Diese Fragestellung ist Gegenstand des zweiten Abschnittes. Zuerst erfolgt eine Differenzierung der Begriffe Category und Space Management. Danach werden Platzierungsarten und Regalwertigkeiten vorgestellt. Dabei wird auch auf die unterschiedlichen Blickfelder des Konsumenten eingegangen. Die horizontale bzw. vertikale Platzierung und die sich daraus ergebenden Doppelsysteme spielen im Anschluss eine Rolle. Diese Themen werden betrachtet, weil Kenntnisse über das Kundenverhalten bzw. deren Wahrnehmung von Produkten essentiell wichtig sind, um den Konsumenten zielgerichtet am Verkaufsregal anzusprechen. Im Anschluss geht es um die fünf Phasen der Regaloptimierung. Hierbei erfolgt eine detaillierte Darstellung der verschiedenen Teilschritte. In den meisten Handelsunternehmen kommen heutzutage Regaloptimierungssysteme zum Einsatz. Die drei bekanntesten Anbieter solcher Programme sind: • ACNielsen (Spaceman). • Information Res. Inc. (Apollo). • JDA Intactix International (InterCept pro/space). Im dritten Abschnitt dieser Bachelorarbeit wird ausführlich auf die Optimierungssoftware Spaceman Suite eingegangen. Zuerst erfolgt eine Vorstellung des Unternehmens Nielsen. Danach werden die einzelnen Module des Programms mit ihren verschiedenen Funktionen vorgestellt. Im vierten Abschnitt geht es um praktische Anwendungen der Software Spaceman. Zunächst werden drei Phasen der Regaloptimierung anhand eines Fallbeispiels nochmals erklärt. Es geht dabei um die Verbesserung der Produktplatzierung eines mit Batterien bzw. Akkumulatoren und Taschenlampen bestückten Warenträgers. Eine Bewertung des Optimierungsergebnisses ist mit Hilfe von Vorher-Nachher-Abbildungen möglich. Danach wird die Verwendung von Spaceman anhand eines Praxisbeispiels erläutert. Die Wahl fiel hierbei auf die Metro Group. Es wird gezeigt, wie die Unternehmensgruppe die Software insbesondere unter Einbindung von Datenbanken nutzt. Die von Spaceman gebotenen Möglichkeiten zur Erstellung der verschiedensten Regaldarstellungen stehen zum Schluss im Vordergrund. Entsprechende Abbildungen dienen dabei zur Illustration. Im letzten Teil dieser Bachelorarbeit wird ein Fazit gezogen. Hierbei geht es um eine kritische Betrachtung der gewonnenen Kenntnisse. Es ist die zentrale Fragestellung zu klären, inwieweit die Neugestaltung eines Warenträgers einer Regaloptimierung entspricht. Dabei werden sowohl die gezeigten Vor- als auch Nachteile der Software Spaceman Suite einbezogen.Inhaltsverzeichnis:Inhaltsverzeichnis: ÜbersichtsverzeichnisII AbkürzungsverzeichnisIII AnhangsverzeichnisIV 1.Einleitung1 2.Theoretische Grundlagen des ECR-Konzeptes3 2.1Begriffsklärung und Zielsetzung3 2.2Die Basisstrategien4 2.3Das Efficient Store Assortment5 3.Die ideale Warenplatzierung durch Regaloptimierung7 3.1Category und Space Management7 3.2Die Platzierungsarten8 3.3Die Regalwertigkeiten9 3.4Die horizontale und vertikale Platzierung10 3.5Die Phasen der Regaloptimierung12 4.Die Optimierungssoftware Spaceman Suite16 4.1Das Unternehmen Nielsen16 4.2Die Softwaremodule16 5.Die praktische Umsetzung der Regaloptimierung19 5.1Fallbeispiel Spaceman19 5.2Praxisbeispiel Metro Group20 5.3Beispiel-Planogramme23 6.Fazit24 AnhangV LiteraturverzeichnisXXIXTextprobe:Textprobe: Kapitel 5, Die praktische Umsetzung der Regaloptimierung: 5.1, Fallbeispiel Spaceman: Im Folgenden geht es um die Optimierung eines mit Batterien bzw. Akkumulatoren und Taschenlampen bestückten Warenträgers. Die dazugehörigen Abbildungen sind Anhang 7 zu entnehmen. Im ersten Schritt entsteht mit Hilfe von Spaceman Professional eine virtuelle Abbildung der Regal-Ist-Situation. Dafür werden notwendige Daten wie die Platzierungen der Produkte und die Anzahl der Frontstücke erfasst. Das Einfügen von Artikelbildern ermöglicht dann die Erstellung einer wirklichkeitsgetreuen Darstellung. Das größte Problem der Warenplatzierung ist die stetig steigende Anzahl an Produkten, da die Regalfläche als limitierte Ressource anzusehen ist. Sowohl Handel als auch Industrie werden mit schneller wachsenden Warenangeboten, den bereits erwähnten Raumrestriktionen und spontanen Entscheidungen der Verbraucher beim Einkauf konfrontiert. Der zweite Schritt beschäftigt sich mit der Analyse der Ist-Situation. Zuerst wird die aktuelle Bestandssituation auf der Grundlage eines definierten Modells analysiert. Ziel ist es, sowohl Über- als auch Unterbestände zu erkennen und zu vermeiden. Danach wird die Verwendung von Hersteller- bzw. Markenblöcken diskutiert. Produktgruppen helfen dem Konsumenten entscheidend bei der Orientierung am Warenträger. Außerdem wirkt das Regalbild ruhiger und übersichtlicher. Zuletzt wird die Umsatz- bzw. Ertragslage untersucht. Das Einbinden von Marktinformationen (durchschnittliche Absatzmenge, Verkaufspreis, Marktanteil usw.) ermöglicht eine entsprechende Analyse. Durch Testen unterschiedlicher Platzierungsvarianten kann die bestmögliche Regalperformance entwickelt werden. Die Regaloptimierung erfolgt im dritten Schritt. Als Grundlage dienen sowohl die Ergebnisse der Ist-Analyse als auch die zuvor festgelegten Verbesserungskriterien. Das Optimierungsergebnis zeigt, dass Hersteller- bzw. Markenblöcke Berücksichtigung gefunden haben. Außerdem sind ein optimiertes Sortiment und eine kundenfreundlichere Produktplatzierung erkennbar. 5.2, Praxisbeispiel Metro Group: Die Metro Group bietet sowohl privaten als auch gewerblichen Kunden ein vielseitiges Leistungsspektrum im Einzel- und Selbstbedienungsgroßhandel. Durch das speziell an die Kundenbedürfnisse angepasste Warenangebot entwickelten sich die Vertriebsmarken weitgehend als unabhängige Retail Brands. Zur Unternehmensgruppe zählen: Metro / Makro Cash Carry, Galeria Kaufhof, Media Markt, Saturn und Real. Die Metro Group nutzt zur optimalen Präsentation ihrer Produkte ein RMS, welches die Category Management-Prozesskette unterstützt. Das System wird sowohl für die Sortiments- als auch Platzierungsoptimierung verwendet. Das Basisstück des RMS bildet die Software Spaceman. Im ersten Schritt werden Warengruppen nach festgelegten Ordnungskriterien gebildet. Grundsätzlich kann zwischen marken- und anwendungsorientierter Platzierung unterschieden werden. Die Perspektive des Konsumenten steht dabei im Vordergrund. Sucht er nach Artikeln einer bestimmten Marke (z. B. Maggi) oder interessiert er sich für spezielle Anwendungen (z. B. Gesichtspflege für junge Haut)? Im nächsten Schritt simulieren Category Manager mit Hilfe der Software Spaceman die unterschiedlichsten Möglichkeiten der Warenverteilung im Regal. Die fertigen Planogramme werden dann elektronisch an die verschiedenen Märkte übermittelt. Nun können die Mitarbeiter vor Ort die Regalpläne als Vorlage zum Einräumen der Waren nutzen. Auf diese Weise wird eine korrekte Produktplatzierung gewährleistet. Somit erhalten alle Märkte derselben Vertriebslinie ein einheitliches Erscheinungsbild, welches den Kunden eine bessere Orientierung ermöglicht. Dadurch können Umsatzsteigerungen und Lagerhaltungsverbesserungen realisiert werden. Für eine ansprechende und verkaufsfördernde Produktplatzierung erfolgt eine Einordnung der Planogramme in drei verschiedene Stufen: Die Sortimentsgruppen- bzw. Category-Ebene, die Pflegegruppen-Ebene und die Markt-Ebene. Die Category-Ebene umfasst ganze Warengruppen. Diese können wiederum in Pflegegruppen unterteilt werden. In dieser Ebene sind die Kriterien Region und Sortimentsbaustein zu beachten. Ersteres gibt an, in welchen Märkten eine bestimmte Pflegegruppe angeboten wird. Letzteres spiegelt deren Größe (Anzahl der Produkte) wider. Die Markt-Ebene beinhaltet speziell für einen einzelnen Markt erstellte Planogramme. Die übertragenen Planungsunterlagen umfassen: eine Gesamtansicht der Warenplatzierung, eine Produktliste mit Einzeldaten und eine Detailansicht für jede Positionierungseinheit. Die Gesamtansicht zeigt das komplette Regal. Anhand der Darstellung wird die für jeden Artikel vorgesehene Platzierungsbreite ersichtlich. Außerdem ist sowohl die Sortiments- als auch die Pflegegruppe auf dem Dokument angegeben. Die Artikelliste enthält Informationen über Artikelnummern, Produktbezeichnungen, Bestände und den Hersteller. Sie gibt an, auf welchem Regalboden die Waren platziert und wie die Produkte neben-, über- oder hintereinander positioniert werden sollen. Weiterhin ist die Mindestanzahl an Frontstücken festgelegt. Die Mitarbeiter dürfen die Zahl der Facings aber auch ihren individuellen Anforderungen anpassen, solange sie das Minimum nicht unterschreiten. Die Artikelchronologie (Reihenfolge der Produkte auf einem bestimmten Fachboden) muss hingegen eingehalten werden. Die Platzierungseinheit zeigt einen Ausschnitt eines Regales. In Kombination mit der detaillierten Artikelinformation ist es den Mitarbeitern möglich, die Produkte schneller zu platzieren. Außerdem enthält das Dokument Informationen über die Tiefe der Fachböden. Die Vertriebsmarken Real und Metro / Makro Cash Carry verwenden die Software Spaceman datenbankunterstützt. Dagegen nutzt die Galeria Kaufhof das Programm als Stand-alone-Version. Die Nutzung einer automatischen Datenbankunterstützung ist von Vorteil, da Planogramme selbstständig mit Listungsänderungen bzw. Bewegungsdaten aus dem Metro Merchandising System versorgt werden. Sowohl Qualität als auch Aktualität der Regalpläne sind somit durch den Informationszufluss aus dem Warenwirtschaftssystem sichergestellt. Das Category Management überprüft im Schnitt zwei oder drei Mal pro Jahr die Planogramme. Die Aktualisierungshäufigkeit hängt davon ab, ob ein Sortiment schnelllebig ist oder nicht. Als Grundlage für eine Beurteilung dienen Statistiken, die zeigen, wie oft Ein- bzw. Auslistungen von Produkten erfolgten. Die Verwendung von Datenbanken bringt auch hier Vorteile, da Regalpläne nun wesentlich schneller und häufiger auf den neuesten Stand gebracht werden können. Die Metro Group hat sich als Ziel gesetzt, die Funktionalitäten des RMS weiter auszubauen. Seit 2005 existiert eine Verknüpfung des Systems mit dem Programm CMplus. Die Verwaltung von Warengruppen ist seitdem effizienter möglich. Durch CMplus erstellte Sortimentsvorschläge werden von Spaceman umgehend auf ihre Platzierbarkeit überprüft. Grundsätzlich ist hierbei zu beachten, dass die Anzahl der neuen Artikel ungefähr der Zahl der ausgelisteten Produkte entsprechen sollte.