Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
Alternativ können Sie versuchen, selbst über Ihren lokalen Bibliothekskatalog auf das gewünschte Dokument zuzugreifen.
Bei Zugriffsproblemen kontaktieren Sie uns gern.
69698 Ergebnisse
Sortierung:
World Affairs Online
In: Aktuelle Analysen / Bundesinstitut für Ostwissenschaftliche und Internationale Studien, 1995,58
World Affairs Online
In: Aktuelle Analysen / Bundesinstitut für Ostwissenschaftliche und Internationale Studien, 1994,11
World Affairs Online
In: Springer eBook Collection
1. The development of modem psychology, Dilthey's decisive critique and his proposals for a reform (explanatory and descriptive psychology) -- 2. The reasons for the limited influence of Dilthey upon his contemporaries: the inadequacy of their understanding and the limits of his beginning -- 3. Task and significance of the Logical Investigations -- a) Critique of psychologism; the essence of irreal (ideal) objects and of irreal (ideal) truths -- b) Researching the correlation: ideal object — psychic lived experiencing (forming of sense) by means of essential description in the reflective attitude -- c) More precise characterization of the reflection decisive for phenomenology (step by step accomplishment of the reflection) -- d) Brentano as pioneer for research in internal experience — discovery of intentionality as the fundamental character of the psychic -- e) The further development of the thought of intentionality in the Logical Investigations. The productive character of consciousness. Transition from a purely descriptive psychology to an a priori (eidetic-intuitive) psychology and its significance for the theory of knowledge -- f) The consistent expansion and deepening of the question raised by the Logical Investigations. Showing the necessity of an epistemological grounding of a priori sciences by transcendental phenomenology — the science of transcendental subjectivity -- 4. Summarizing characterization of the new psychology -- Systematic Part -- 5. Delimiting phenomenological psychology: distinguishing it from the other socio-cultural sciences and from the natural sciences. Questioning the concepts, nature and mind -- 6. Necessity of the return to the pre-scientific experiential world and to the experience in which it is given (harmony of experience) -- 7. Classifying the sciences by a return to the experiental world. The systematic connection of the sciences, based upon the structural connection of the experiential world; idea of an all-inclusive science as science of the all-inclusive world-structure and of the concrete sciences which have as their theme the individual forms of experiential objects. Significance of the empty horizons -- 8. The science of the all-inclusive world-structure as a priori science -- 9. Seeing essences as genuine method for grasping the a priori -- a) Variation as the decisive step in the dissociation from the factual by fantasy — the eidos as the invariable -- b) Variation and alteration -- c) The moments of ideation: starting with an example (model); disclosure brought about by an open infinity of variants (optional-ness of the process of forming variants); overlapping coincidence of the formation of variants in a synthetic unity; grasping what agrees as the eidos -- d) Distinguishing between empirical generalization and ideation -- e) Bringing out the sequence of levels of genera and gaining the highest genera by variation of ideas — seeing of ideas without starting from experience -- f) Summarizing characterization of the seeing of essences -- 10. The method of intuitive universalization and of ideation as instruments toward gaining the universal structural concepts of a world taken without restriction by starting from the experiential world ("natural concept of the world"). Possibility of an articulation of the sciences of the world and establishment of the signification of the science of the mind -- 11. Characterizing the science of the natural concept of the world. Differentiating this concept of experience from the Kantian concept of experience. Space and time as the most universal structures of the world -- 12. Necessity of beginning with the experience of something singular, in which passive synthesis brings about unity -- 13. Distinguishing between self-sufficient and non-self-sufficient realities. Determination of real unity by means of causality -- 14. Order of realities in the world -- 15. Characterizing the psychophysical realities of the experiential world. Greater self-sufficiency of the corporeal vis-à-vis the psyche -- 16. The forms in which the mental makes its appearance in the experiential world. The specific character of the cultural object, which is determined in its being by a relation to a subject -- 17. Reduction to pure realities as substrates of exclusively real properties. Exclusion of irreal cultural senses -- 18. Opposition of the subjective and the objective in the attitude of the natural scientist -- 19. The true world in itself a necessary presumption -- 20. Objectivity demonstrable in intersubjective agreement. Normalcy and abnormalcy -- 21. Hierarchical structure of the psychic -- 22. Concept of physical reality as enduring substance of causal determinations -- 23. Physical causality as inductive. Uniqueness of psychic interweaving -- 24. The unity of the psychic -- 25. The idea of an all-inclusive science of nature. Dangers of the naturalistic prejudice -- 26. The subjective in the world as objective theme -- 27. The difficulty that the objective world is constituted by excluding the subjective, but that everything subjective itself belongs to the world -- 28. Carrying out the reflective turn of regard toward the subjective. The perception of physical things in the reflective attitude -- 29. Perceptual field — perceptual space -- 30. Spatial primal presence -- 31. Hyle — hyletic data as matter for intentional functions -- 32. Noticing givenness as I-related mode of givenness of the object -- 33. Objective temporality and temporality of the stream -- 34. Distinction between immanent and transcendent, real and irreal in perception. The object as irreal pole -- 35. Substrate-pole and property-pole. The positive significance of the empty horizon -- 36. The intentional object of perception -- 37. The phenomenological reduction as a method of disclosing the immanent -- 38. The access to pure subjectivity from external perception -- 39. Analysis of perception with regard to the perceiver himself -- 40. The problem of temporality: presenting — retention and protention (positional and quasi-positional modifications of perception and their significance for practical life) -- 41. Reflection upon the object-pole in the noematic attitude and reflection upon the I-pole as underlying it. All-inclusive synthesis of the I-pole. The I as pole of activities and habitualities -- 42. The I of primal institutions and of institutions which follow others. Identity of the I maintaining its convictions. The individuality of the I makes itself known in its decisions which are based upon convictions -- 43. The unity of the subject as monad — static and genetic investigation of the monad. Transition from the isolated monad to the totality of monads -- 44. Phenomenological psychology foundational both for the natural and for the personal exploration of the psyche and for the corresponding sciences -- 45. Retrospective sense-investigation -- Selected Bibliography.
Einleitung: 'Die Mehrkosten für erneuerbare Energien von heute sind gesicherte Energie, vermiedene Umweltschäden und niedrige Energiekosten von morgen.' Nicht nur seitens der Wissenschaft, sondern auch der Politik werden die derzeit bestehenden Strukturen, gründend auf einer zentralistischen Energieversorgung mit fossilen Brennstoffen, angezweifelt. Deshalb erscheint es offensichtlich, dass in naher Zukunft fundamentale Veränderungen vorgenommen werden im Hinblick auf eine umweltbewusstere Handlungsweise. Aus diesem Grund ist es unbedingt notwendig, die Energiepolitik so zu gestalten, dass im Rahmen des energiepolitischen Dreiecks neben der Gewährleistung der Umweltverträglichkeit auch noch die Versorgungssicherheit und Wettbewerbsfähigkeit aufrechterhalten bleiben. Es ist allerdings ungewiss, ob die Versorgungssicherheit langfristig garantiert werden kann, da manche fossile Energieträger (Erdöl, Erdgas, Kohle) in nur wenigen und zum Teil politisch unsicheren Regionen vorkommen. Darüber hinaus ist die Gewährleistung eines gemeinsamen Zugangs zu Rohstoffquellen für alle Wettbewerber eine politische Herausforderung. Um diesem und anderen Risiken entgegenzuwirken, versucht man den Anteil der erneuerbaren Energieträger am gesamten Primär-Energieverbrauch auszubauen. Die künftige Entwicklung der einzelnen erneuerbaren Energieträger hängt davon ab, ob ordnungspolitische und andere Maßnahmen es möglich machen, eine wettbewerbskonforme Marktdurchdringung zu erreichen. Aus Gründen des Klimaschutzes ist eine wirtschaftliche Förderung von erneuerbaren Energien zu empfehlen. Fraglich ist jedoch, inwieweit alle erneuerbaren Ressourcen eine ökonomisch tragfähige Energieversorgung künftig sicherstellen können. Im Mittelpunkt der Analyse stehen folgende Forschungsfragen: Wie wird die bevorstehende Entwicklung ausgewählter fossiler Brennstoffe und erneuerbarer Energieträger aussehen? Mithilfe welcher energiepolitischen Rahmenbedingungen, Instrumente und Maßnahmen ist diese Entwicklung zu steuern, um die vorgegebenen Ziele zu erreichen? Bevor die aufgeworfenen Fragen beantwortet werden können, sind die einzelnen Energieträger erst einmal ihrer Art nach zu differenzieren. In den Blickpunkt rücken die fossilen Energieträger, wobei der Hinweis von Aufschluss ist, dass Uran zwar nicht dazu gehört, aber ebenso wenig ein regenerativer Energieträger ist, womit Uran unter den Energieträgern eine Sonderstellung einnimmt. Danach sind die erneuerbaren Energieträger zu beleuchten. Um einen theoretischen Einblick in die Energiepolitik zu gewinnen, wird diese zu definieren sein, was eine Beschäftigung mit deren Zielen, Rahmenbedingungen, Instrumenten und Maßnahmen mit einschließt. Die Bewertung der ausgewählten Instrumente wird ebenfalls Gegenstand der Debatte sein. Daraufhin ist die dominierende Rolle der fossilen Brennstoffe im Allgemeinen und des Erdöls im Besonderen zu erörtern. Abgesehen von der Darstellung der Kosten und Preise als auch der Nutzung des Erdöls in Deutschland, ist ein erstes Fazit in Hinblick auf Problematik und künftige Entwicklung zu ziehen. Es folgt die Windenergie, die wie das Erdöl nach ähnlichen Gesichtspunkten unter die Lupe zu nehmen sein wird. Anzumerken bleibt, dass aufgrund der mangelnden Detailrecherche in Bezug auf jede einzelne Energiequelle der Anspruch auf eine allumfassende Betrachtung entfallen muss. Dann ist die europäische Energiepolitik samt ihren Strategien, Zielen und Maßnahmen zu skizzieren und zwar nicht alleine im Rahmen der globalen Klimapolitik, sondern ebenso im Fokus des Kyoto-Protokolls. Den Abschluss bildet eine kritische Betrachtung der Energieversorgung im Spannungsfeld von politischen Vorgaben und unternehmerischen Zielen.Inhaltsverzeichnis:Inhaltsverzeichnis: Abbildungsverzeichnis4 Tabellenverzeichnis5 Abkürzungsverzeichnis6 1.Einleitung7 1.1Zielsetzung und Fragestellung der Arbeit7 1.2Aufbau der Arbeit8 2.Begriffsabgrenzung9 2.1Fossile / nicht regenerative Energien und Atomkraft9 2.1.1Erdöl9 2.1.2Erdgas10 2.1.3Kohle11 2.1.4Atomkraft12 2.2Erneuerbare / regenerative Energien13 2.2.1Windenergie14 2.2.2Sonnenenergie15 2.2.3Wasserenergie16 2.2.4Meeresenergie18 2.2.5Geothermie18 2.2.6Bioenergie19 3.Allgemeine Grundlagen der Energiepolitik20 3.1Ziele der Energiepolitik20 3.2Rahmenbedingungen für den Einsatz von energiepolitischen Instrumenten23 3.3Instrumente der Energiepolitik25 3.3.1Monetäre Instrumente27 3.3.1.1Ausschreibungsmodelle28 3.3.1.2Einspeisevergütungen29 3.3.1.3Quotenmodelle ohne und mit Zertifikationshandel30 3.3.1.4Ökologische Finanzreformen32 3.3.1.5Förderung fossiler Energien mit verringerten Emissionen34 3.3.1.6Investitionskostenzuschüsse für Privathaushalte34 3.3.1.7Vergünstigte Darlehen für gewerbliche Investoren35 3.3.1.8Das Erneuerbare-Energie-Gesetz (EEG) als Modell36 3.3.2Ordnungsrechtliche Instrumente36 3.3.3Flankierende Maßnahmen37 3.3.4Bewertung ausgewählter Förderinstrumente38 4.Dominanz fossiler Energieträger am Beispiel von Erdöl43 4.1Globale Erdölreserven / Ressourcen und deren Verteilung43 4.2Gewinnungskosten sowie Preisbildung und -entwicklung des Erdöls45 4.3Abhängigkeit des Industriestaates Deutschland vom Erdöl49 4.4Zukünftige Entwicklung und Probleme der weltweiten Erdölförderung51 5.Chance für erneuerbare Energien am Beispiel von Windenergie52 5.1Nutzung der Windenergie in Deutschland52 5.2Stromgestehungs-Kosten und Preisentwicklung für Windenergie54 5.3Zukünftige Entwicklung und Probleme der Windenergie-Nutzung56 6.Europäische Energiepolitik im Rahmen der internationalen Klimapolitik59 6.1Internationale Klimapolitik59 6.2Europäische Energie-(Außen)politik61 6.3Anforderungen an die künftige Energiepolitik64 7.Ökonomische Realität im Konflikt zu energiepolitischen Ambitionen66 8.Fazit69 Anhang71 Literaturverzeichnis75Textprobe:Textprobe: Kapitel 3.3.1.4, Ökologische Finanzreformen: Unter der ökologischen Finanzreform ist eine umweltorientierte Umstrukturierung des Finanzsystems zu verstehen. Im Fokus der ökologischen Finanzreformen stehen die Finanzbeziehungen zwischen Bürger und Staat, die unter Beachtung von Nachhaltigkeitskriterien realisiert werden. Die Einnahmen des Staates resultieren hauptsächlich aus der Besteuerung von nicht regenerativen Energien. Zusätzlich gilt es, ökologisch kontraproduktive Subventionen zu reduzieren bzw. umzuschichten und parallel dazu die Abgaben und Beiträge gemäß der ökologischen Ziele und Vorgaben zu gestalten. Zu den Ausgaben des Staates gehören die Unterstützung von Wirtschaftssektoren oder bestimmter Unternehmen, Subventionierung der Forschung, Transfers an private Haushalte, die unter Umständen geprüft werden und neu auszurichten sind. Umwelt-bezogene Ausrichtung staatlicher Programme und Ausgaben stellen eine wichtige Komponente der ökologischen Ausgabereform dar. Im Folgenden wird näher auf die genannten Aspekte einzugehen sein. 1. Internalisierung externer Kosten bei fossiler Energie: Um ein nachhaltiges, globales Energiesystem zu schaffen, bedarf es einer Internalisierung externer Effekte der fossilen und nuklearen Energiekette von der Förderung bis zur Nutzung. In der Praxis jedoch erweist sich das Herbeiführen der geforderten Internalisierung als schwierig. Denn die fossilen und nuklearen Energieträger sind bezogen auf deren Brutto-Abnahmepreis günstiger als regenerative Energiequellen, deren externe Effekte wesentlich geringer ausfallen. Dies schafft Nachteile für den Wettbewerb erneuerbarer Energiequellen. Um für alle Energiearten weltweit gleiche Wettbewerbsbedingungen zu gewährleisten, muss eine absolute Internalisierung externer Kosten stattfinden. Erst dann sind erneuerbare Energiequellen rentabler als ihre bisherigen konventionellen Konkurrenten. Die ökologische Steuerreform trägt einen wichtigen Beitrag zur Klimaschutz-Politik bei. Losgelöst von den gesellschaftlichen Klassen schafft sie Anreize für einen effizienten Umgang mit Energie. Die Kernaussage lautet: Wer Umweltkosten verursacht, soll für diese aufkommen. Betroffen von der Steuerreform sind sowohl Privathaushalte als auch Wirtschaft durch höhere Energie-, Strom- und Kraftstoffkosten. 2. Ökologische Auswirkung durch die Besteuerung nicht regenerativer Energie: Die Besteuerung fossiler Brennstoffe bewirkt deren Verteuerung, was bei unveränderten Marktbedingungen die Nachfrage zurückgehen lässt. Folge ist das Ausweichen auf andere Energieträger. Darüber hinaus werden Anreize geschaffen, was die Effizienz erneuerbarer Energie im Allgemeinen sowie ihre daran gekoppelte technologische Entwicklung im Besonderen steigert. 3. Subventionsabbau für fossile Energie: Mit dem Abbau von umweltschädigenden Subventionen lassen sich die drei Faktoren der Nachhaltigkeit optimal verbinden: • 'Die Ökologie, weil ein ökologisch kontraproduktives Verhalten nicht mehr weiter finanziell unterstützt wird. • Die Ökonomie, weil durch den Staat herbeigeführte Verzerrungen der Marktaktivitäten vermieden werden. • Das Soziale, weil durch die Einsparung von öffentlichen Haushaltsmitteln ein sozial sinnvoller Einsatz gewährleistet werden kann.' Trotz der zahlreichen volkswirtschaftlichen Vorteile, die der Abbau von Subventionen mit sich bringt, stößt man auf große Widerstände, da Subventionen in der Regel verteilungspolitische Auswirkungen haben. Deshalb werden die betroffenen Branchen versuchen, die aus ihrer Sicht betrachtet 'bremsende Reform' der Subventionspolitik zu umgehen. Um diese Blockaden zu minimieren, empfiehlt sich eine zeitlich gestaffelte Einführung der Reform, um den Beteiligten genügend Zeit zu geben, sich an die neue Situation anzupassen. 3.3.1.5, Förderung fossiler Energien mit verringerten Emissionen: Aktuell ist die Wirtschaft noch immer auf fossile Energien angewiesen. Nur die Deckung des entstehenden Versorgungsbedarfs durch erneuerbare Energien wird daran etwas ändern können. Damit einerseits die Versorgung gesichert ist und andererseits die Abhängigkeit von fossiler Energie zurückgeht, sind zwei Gesichtspunkte zu beachten: Erstens müssen Neuinvestitionen in fossile Energien gegen Null gefahren werden und zweitens müssen die im fossilen Bereich, unter sozioökonomischen Gesichtspunkten gesehen, unverzichtbaren Investitionen geringere Emissionswerte verursachen als bisher und sich darüber hinaus in eine flexible Infrastruktur einfügen. Der Ausbau von Anlagen, die noch vorübergehend mit fossilen Energieträgern betrieben werden, sollte eine spätere Umstellung auf erneuerbare Energien möglich machen. Beispielsweise kann eine Anlage zunächst mit Erdgas und danach mit Biogas gefüttert werden. 3.3.1.6, Investitionskostenzuschüsse für Privathaushalte: Investitionskostenzuschüsse sind Anreize für den Ausbau von Anlagen, dabei verpflichten sie nicht zur Rückzahlung, weshalb sie als 'verlorene Zuschüsse' bezeichnet werden. Die Höhe der Zuschüsse hängt vom Investitionsvolumen oder von der technischen Größe wie der installierten Leistung ab, beispielsweise bei solarthermischen Anlagen von der Fläche der Kollektoren. Bisweilen ergehen sie auch in Form von Festbeträgen. An die Zuschüsse ist ferner die etwaige Erlassung von Schulden geknüpft, die im Rahmen einer Darlehensfinanzierung von Anlagen über das Marktanreiz-Programm des Bundes angeboten wird. Private Haushalte haben mit Investitionszuschüssen bereits positive Erfahrungen gemacht. Ein besonders wichtiger Aspekt bei dieser Art von Förderung ist die staatliche Befürwortung und Unterstützung der Eigeninitiative der Haushalte. Dadurch entsteht ein zusätzlicher Anreiz für die Teilnahme auch von privater Seite. 3.3.1.7, Vergünstigte Darlehen für gewerbliche Investoren: Diese Maßnahme richtet sich primär an gewerbliche Investoren mit hohem Bedarf an Fremdkapital beispielsweise zur Errichtung von Windparks. Die Vergünstigung des Darlehens ist ein Instrument, um das aufgenommene Kapital billiger zu machen, was niedrigere Zinsen, längere Laufzeit der Kredite oder eine bessere Tilgungsart bedeutet. Private Kreditinstitute vergeben die Darlehen, wobei sie ihrerseits auf günstige Refinanzierungsmöglichkeiten von öffentlichen Banken wie beispielsweise der Kreditanstalt für Wiederaufbau (KFW) zurückgreifen. In der Regel wird erst durch Bürgschaften der Zugang zur Fremdfinanzierung ermöglicht, womit die Banken parallel Maßnahmen zur Kapitalverbilligung fördern. Je nach Programm ist die Finanzierungsquote recht unterschiedlich. Bei den Marktanreiz-Programmen des Bundes oder dem '100.000 Dächer-Solarstromprogramm' können die durch die Investitionen entstandenen Kosten bis zu 100% finanziert werden. Im Gegensatz dazu liegt die Finanzierungsquote beim Darlehensprogramm der KFW niedriger. Ein Investor sollte seinerseits über einen soliden Eigenkapitalanteil von 30-50 % verfügen. 3.3.1.8, Das Erneuerbare-Energie-Gesetz (EEG) als Modell: Ein weiteres in Deutschland entwickeltes und taugliches Instrument zur Förderung von Strom aus regenerativer Energie ist das Erneuerbare-Energie-Gesetz (EEG). Das Gesetz ermöglicht die Übertragung des wirtschaftlichen Risikos und dient als eine Vorfinanzierung von Ökostrom. Damit wird eine Investition in die Gewinnung regenerativer Energie etwa in Form von kleinen photovoltaischen Anlagen auf dem Hausdach für Privathaushalte bis hin zum großen Windpark für Gewerbetreibende finanziell attraktiv. Darüber hinaus beabsichtigt das Gesetz die Förderung von Strom aus erneuerbaren Energien im Hinblick auf Klima und Umweltschutz. Das EEG ist am 29. März 2000 in Kraft getreten. Dieser ökonomische Anreiz hat sich im EU-Vergleich als ein besonders effizientes Instrument zum Ausbau der erneuerbaren Energien erwiesen. Die Funktionsweise des Instruments lautet: 'Mindestpreisregelung mit Pflicht der nächstgelegenen Netzbetreiber zur Aufnahme und Vergütung des Stroms aus erneuerbaren Energien; Weiterleitung der Vergütungen an Übertragungsnetzbetreiber (Hochspannungsnetze) mit Pflicht zum bundesweiten Ausgleich der unterschiedlichen Belastungen.' Auf diese Weise wird eine Verteilung von bundesweit regional unterschiedlichen Belastungen bewirkt. Hierdurch erhöhen sich die Strom-Bezugskosten für Endverbraucher derzeit um durchschnittlich rund 0,05 Cent pro kWh. Bei den Mindestvergütungen an die Einspeiser wird die Höhe der Vergütung unterschieden nach den Sparten der grünen Energien, nach Größe der Anlagen und bei Windenergie nach dem Windstandort.
Aus der Einleitung: Einleitung: 1.1 Anstoß und Problemstellung: 'Weder haben wir die Ursachen der Krise beseitigt, noch können wir heute sagen: Gefahr erkannt, Gefahr gebannt.' Bundespräsident Christian Wulff nutzte seine Ansprache auf dem Deutschen Bankentag 2011 um an die unverändert hohen Gefahrenpotenziale im Finanzintermediationssystem zu erinnern. In der Geschichte kam es immer wieder zu schweren Finanzmarktkrisen. Doch keine ist mit dem jüngsten Zusammenbruch hinsichtlich der Gefährlichkeit und Dynamik vergleichbar. Schnell weitete sich die Krise auf andere Märkte aus und führte zum schwersten Wirtschaftseinbruch seit 1929. Heute sind direkte und indirekte Folgen bedrohlicher denn je. Extreme Kursschwankungen an den Börsen spiegeln die Unsicherheit über die gegenwärtige Situation wieder. Drohende Staatspleiten lassen das Vertrauen in funktionierende Märkte weiter sinken. Das gesellschaftliche Interesse an einer strengeren Finanzmarktregulierung zur Vermeidung zukünftiger Krisen ist auffällig gestiegen. Kein anderer Wirtschaftszweig ist traditionell so stark reguliert wie der Finanzsektor. Dennoch ist es den Behörden nicht gelungen, die Fehlausbildungen des Systems frühzeitig zu erkennen und zu verhindern. Obwohl Finanzmarktakteure ihren Tätigkeitsbereich fortlaufend über Ländergrenzen hinweg ausdehnen, ist die Finanzmarktregulierung weitestgehend auf nationaler Ebene verblieben. In der Folge sind mehrere Behörden an der Regulierung beteiligt, so dass mangelnde Zusammenarbeit und Informationslücken die Sicherstellung der Systemstabilität gefährden könnten. Die geschilderte Situation verlangt nach einer genaueren Betrachtung um die resultierenden Implikationen verstehen zu können. Multinationale Banken sind heute bedeutende Akteure auf dem globalen Finanzmarkt und besitzen großen ökonomischen Einfluss. Sie eignen sich daher als repräsentatives Untersuchungsobjekt hinsichtlich der Effizienz von Regulierungsmaßnahmen. 1.2 Zielsetzung und Organisation der Arbeit: Ziel dieser Arbeit ist es, die Regulierung von Multinationalen Banken zu analysieren und Verbesserungspotenziale zu erkennen. Aus den Wechselwirkungen der Regulierung in den Niederlassungsländern der Bank sollen Schlüsse über das Verhalten der zuständigen Instanzen gezogen und mögliche Ineffizienzen aufgedeckt werden. Das in dieser Arbeit verfolgte Ziel wird demnach unter folgende Forschungsfrage gestellt: Ist es möglich durch die Zusammenarbeit der verantwortlichen Regulatoren einer Multinationalen Bank ein wohlfahrtsoptimales Ergebnis zu erreichen? Um diese Frage zu beantworten wird wie folgt vorgegangen. Die vorliegende Arbeit gliedert sich in vier wesentliche Abschnitte. Im ersten Teil werden die Grundlagen der Regulierungstheorie erläutert und das Untersuchungsobjekt, die Multinationale Bank, vorgestellt. Zudem wird auf die Begründung von Staatseingriffen in den Bankenmarkt näher eingegangen und mögliche Maßnahmen kategorisiert. Im zweiten Teil der Arbeit wird ein Modell zur Analyse der Ausgangssituation vorgestellt. Dabei werden zwei Gesichtspunkte betrachtet. Zum einen die Situation aus Sicht der Regulierer. Zum anderen die Entscheidung der Bank über die Art der Niederlassung im Ausland. Durch die Beobachtung des Verhaltens der beteiligten Parteien werden Rückschlüsse auf die jeweiligen Verhaltensweisen und Anreize gezogen. Im dritten Abschnitt wird die internationale Kooperation der Regulierung von Multinationalen Banken untersucht. Eine Darstellung der Bemühungen hinsichtlich der international abgestimmten Aufsicht multinationaler Bankaktivitäten dient einem aktuellen Überblick über die Sachlage. Darauf folgt die Betrachtung der Kooperation in der Regulierung von Multinationalen Banken. Hierbei werden drei Situationen geschildert. Die Differenzierung erfolgt nach der Art der Niederlassung und dem Kooperationsverhalten. Es werden dabei unter anderem auch die Verhalten der Regulierer zwischen den ausländischen Niederlassungen betrachtet. Anschließend wird die Möglichkeit eine Zentralisierung der Regulierung diskutiert. Im letzten Abschnitt werden die Ergebnisse der Arbeit zusammengefasst und mögliche Lösungsvorschläge erörtert. Dabei wird zu jeder Zeit auf die Konvergenz zu international anerkannten Meinungen geachtet.Inhaltsverzeichnis:Inhaltsverzeichnis: AbstractI AbbildungsverzeichnisIV TabellenverzeichnisV Box-VerzeichnisVI SymbolverzeichnisVII AbkürzungsverzeichnisVIII Kapitel 1Einleitung1 1.1Anstoß und Problemstellung1 1.2Zielsetzung und Organisation der Arbeit7 2.Grundlagen8 2.1Finanzintermediation und Banken als Finanzintermediäre8 2.2Multinationale Banken11 2.3Gegenstand der Regulierungstheorie15 2.4Die Zwecke der Regulierung von Banken17 2.5Eine Systematisierung der Bankenregulierung24 3.Modellbetrachtung27 3.1Das Grundproblem und die Vorgehensweise27 3.2Modellrahmen und Ablauf30 3.3Die Regulierung von Subsidiary und Branch34 3.4Die Wahl der Repräsentationsform im Ausland41 3.5Modell-Zusammenfassung43 4.Harmonisierung der Regulierung44 4.1Prinzipien für die internationale Aufsicht44 4.2Kooperation in der Regulierung von multinationalen Banken47 4.3Pro und contra einer zentralen Finanzmarktregulierung56 5.Auswertung und Empfehlungen63 5.1Ergebnisse63 5.2Handlungsempfehlungen65 Literaturverzeichnis67 Anhang A: Grundlagen74 A.1 Verbriefungen74 A.2 Basel II75 A.3 Implementierung Basel II76 A.4 Kreditinstitute aus rechtlicher Sicht77 A.5 Ausländische Besitzanteile78 A.6 Ausländische Banken in Osteuropa und Lateinamerika79 Anhang B: Regulierung von Branch und Subsidiary80 B.1 Regulierungsentscheidung über Subsidiary-MNB80 B.2 Regulierungsentscheidung über Branch-MNB82 B.3 Determinanten für Branch-Repräsentation83 Anhang C: Kooperative Regulierung84 C.1 Empfehlungen der 'Cross-border Bank Resolution Group' (März 2010)84 C.2 Internationale Regelung in der Bankenaufsicht87Textprobe:Textprobe: Kapitel 2., Grundlagen: 2.1, Finanzintermediation und Banken als Finanzintermediäre: Das Funktionieren einer Volkswirtschaft ist maßgeblich von der Sicherstellung des effizienten Kapitaltransfers sowie der effizienten Allokation von Überschuss- und Defiziteinheiten abhängig. 'Mit dem Begriff Finanzintermediation werden die zahlreichen Prozesse umschrieben, die es zum Ziel haben, Nachfrage und Angebot nach Kapital zusammenzuführen und abzustimmen.' Effiziente Finanzintermediation erhöht das Wachstum und die Stabilität eines ökonomischen Systems. Im Sinne des funktionellen Erklärungsansatzes stehen folgende fünf Kernfunktionen im Mittelpunkt: Transfer-, Transformations-, Risikotransformations-, Logistik- und Informationsfunktion. Innerhalb variabler Rahmenbedingungen (zum Beispiel nationale Finanzmarktgesetzgebung) sind diese Funktionen gleichbleibend und es gilt, sie zu erfüllen. Die Grundaussagen der Kernfunktionen lauten: Transferfunktion: Der Transfer von Kapital zwischen verschiedenen Akteuren im Wirtschaftssystem verursacht Kosten und Risiken, welche durch effiziente Intermediation reduziert werden können. Transformationsfunktion: Das Volumen von Kapitalangebot und Nachfrage kann differieren. Mittels Losgrößentransformation wird ein großer Kredit durch viele kleine zusammengefasste Einlagen finanziert bzw. wird eine große Einlage in Form von vielen kleineren Krediten verliehen. Unterschiede in der Fristigkeit werden durch Fristentransformation ausgeglichen. Langfristige Kredite können durch den Finanzintermediär aus Einlagen kürzerer Laufzeiten finanziert, und umgekehrt längerfristige Einlagen in Kredite mit kürzerer Laufzeit investiert werden. Eine dritte Form der Transformationsfunktion von Finanzintermediären ist der intertemporale Ausgleich zwischen Konsum und Sparen bzw. Finanzieren und Investieren. Diese zeitliche Verschiebung der Prioritäten im Lebenszyklus wird als Life Cycle-Transformation bezeichnet. Risikotransformationsfunktion: Wirtschaftsteilnehmer besitzen eine unterschiedliche Risikoneigung und Risikotragfähigkeit. Finanzintermediation ermöglicht den direkten oder indirekten Transfer von Risiken entsprechend der Präferenzen. Ein direkter Transfer kann mittels Diversifikation, Hedging oder das Abschließen von Versicherungen erreicht werden. Der Finanzintermediär ist aber auch in der Lage, Risiken indirekt zu senken. Eine entscheidende Rolle spielen dabei Informationsvorteile, welche dem einzelnen Nicht-Intermediär gänzlich unzugänglich bzw. nur mit hohem Kostenaufwand zugänglich sind. Gegen Zahlung einer Entschädigung kann sich der Kapitalgeber Informationen über die Risiken des Investitionsobjektes beschaffen. Aber auch Eigenkapitalhaftung und Diversifikationsmöglichkeiten (welche dem Einzelnen nicht zur Verfügung stehen) sind Möglichkeiten zur Reduktion von Risiken durch Finanzintermediation. Logistik- und Servicefunktion: Für die effiziente Erfüllung der Intermediationsfunktion bedarf es bestimmter logistischer Voraussetzungen. Aufgabe ist es, diese Basis zu schaffen und sie den Marktteilnehmern zugänglich zu machen. Informationsfunktion: Die Beschaffung von notwendigen Informationen für die Investitions- oder Finanzierungsentscheidung der Wirtschaftssubjekte ist mit hohem Ressourceneinsatz verbunden. Informationsungleichgewichte zwischen Kapitalanbieter und Nachfrager erhöhen das Risiko in vielfältiger Weise. 'Im Rahmen der Informationsfunktion gewährleistet die Finanzintermediation eine permanente und effiziente Verbesserung der Informationsbasis, auf deren Grundlage die Marktteilnehmer Finanzentscheidungen treffen.' Aus diesen fünf Kernfunktionen können die drei Ziele Kapitalallokation, Transaktionskostenreduktion und Risikoreduktion abgeleitet werden. Dabei stehen diese Zielelemente nicht nur ergänzend zueinander. Unter Einbeziehung der Kosten wird das Konfliktpotenzial ersichtlich. So hat sich in der jüngsten Krise des Finanzintermediationssystems deutlich gezeigt, wie hoch Systemrisikokosten und damit die Kosten für die Volkswirtschaft sein können. Der Finanzintermediär kann als Anbieter von Finanzintermediationsleistungen bezeichnet werden. Dabei werden neun Anbieterkategorien unterschieden: Banken und bankähnliche Organisationen, Finanzgesellschaften und Gesellschaften mit Nähe zu Banken, Zentralbanken, Versicherungsgesellschaften, Beratungs- und vermittlungsorientierte Organisationen, Non-Banks, Anbieter von Marktplattformen, Informationsdienstleister und Technologieprovider. Es kann weiter zwischen Finanzintermediären im engeren und im weiteren Sinn differenziert werden. In der engeren Definition werden Finanzintermediäre als Institutionen verstanden, die Kapital von Anlegern annehmen und an Kapitalnehmer weitergeben. Eine Bank, in deren Geschäftstätigkeit dieser Vorgang berücksichtigt wird, kann als Finanzintermediär im engeren Sinn bezeichnet werden. Allerdings fallen auch andere Unternehmen, wie zum Beispiel Venture Capital Gesellschaften oder Versicherungen, in den Bereich dieser Definition. Weiterhin werden Institutionen, welche den Handel zwischen Kapitalgebern und Kapitalnehmern ermöglichen oder erleichtern, als Finanzintermediäre im weiteren Sinn bezeichnet. In diese Gruppe sind Finanzmakler, Börsendienste oder Rating Agenturen einzuordnen. 'Banken bieten heutzutage eine Fülle unterschiedlicher Produkte an und konkurrieren mit anderen Instituten, die gleiche Funktionen erfüllen.' Definitionsansätze des Begriffs 'Bank' sind daher sehr heterogen. Sie können aus einzelwirtschaftlicher, gesamtwirtschaftlicher oder rechtlicher Sicht erfolgen. Der Tätigkeitsbereich von Banken gliedert sich in Commercial Banking und Investment Banking. Im Commercial Banking nehmen Kreditinstitute Kapital entgegen und geben dieses als Kredite an Dritte weiter. Damit übernehmen diese Institute die Transformationsleistungen der Finanzintermediation in Bezug auf Risiko, Fristigkeit und Losgrößen. Im Zuge des delegated monitoring wird stellvertretend für den Kapitalgeber die Überwachung der Kreditnehmer übernommen, und dadurch Kosten eingespart. Zudem erfüllen sie Umtausch und Zahlungsleistungen und sind damit klar den Finanzintermediären im engeren Sinn zuzuordnen. Im Gegensatz dazu unterstützen Investmentbanken den Handel an den Kapitalmärkten und sind damit als Finanzintermediäre im weiteren Sinne tätig. Klar wird an dieser Stelle, dass Banken einen großen Teil des Spektrums der Finanzintermediation abdecken. Sie zählen zu den wichtigsten Finanzintermediären und nehmen eine bedeutende Position in einer Volkswirtschaft ein. 2.2, Multinationale Banken: In der vorangegangen Betrachtung wurden Banken in die Finanzintermediationstheorie eingeordnet, ohne dabei näher auf den 'geographischen' Tätigkeitsbereich der Intermediäre einzugehen. Es konnte aus der Finanzintermediation heraus auf den Finanzintermediär selbst Bezug genommen werden. Diese Vorgehensweise wird nun auf globaler Ebene fortgesetzt. Die internationale Finanzintermediation besitzt eine Reihe von Spezifika. Das Risiko internationaler Transaktionen ist höher als auf nationaler Ebene. Insbesondere tragen Fremdwährungs- und Länderrisiken zu diesem hohen Risikofaktor bei. Die Intermediationskette sowie die Intensität der Interbankenbeziehungen, sind im globalen Umfeld ausgedehnter als in inländischen Märkten. Das Argument der größeren Informationslücke, aufgrund der größeren Entfernung von Kapitalnehmer und Kapitalgeber, hat im Zeitalter des Internets und der internationalen Vernetzung kaum noch Gültigkeit. Kritisch zu betrachten sind in diesem Zusammenhang auch Aussagen über die erhöhte Wettbewerbsintensität auf dem internationalen Bankenmarkt. Die fehlende internationale Regulierung soll für diesen Zustand verantwortlich sein. In Hinsicht auf die in der jüngsten Vergangenheit abgeschlossenen internationalen Abkommen ist dieses Argument als heikel anzusehen. Ebenfalls spricht die Tatsache, dass auf internationalen Kapitalmärkten unvollkommene Marktbedingungen vorherrschen, welche Intermediären Monopolrenten verschaffen können, dagegen. Die Wettbewerbsintensität wäre somit sogar geringer. Ein internationaler Finanzintermediär ist ein Intermediär, welcher die Funktionen der Finanzintermediation in (über) mehreren Ländern erfüllt. Im Folgenden wird die Multinationale Bank (MNB) als ein Vertreter näher betrachtet. Eine MNB ist eine Bank, welche in mehr als einem Land physische Niederlassungen unterhält. Sie besitzt Elemente ausländischer Direktinvestitionen (FDI) und eines multinationalen Unternehmens (MNE). Die meisten Aktivitäten der MNB sind grundsätzlich als eine Art Verlängerung von Aktivitäten der inländischen Ebene zu verstehen. Im Gegensatz dazu, werden Internationale Banken abgegrenzt, welche zwar international operieren, aber keine physischen Niederlassungen im Ausland besitzen. Unter die Tätigkeiten Internationaler Banken fallen traditionelle grenzüberschreitende Geschäfte sowie das sogenannte Euroccurrency Banking, bei dem Transaktionen in einer Fremdwährung durchgeführt werden.
In: Bachelorarbeit
Inhaltsangabe: Einleitung: Die aktuellen Nachrichten aus der Banken- und Finanzwelt sprechen für sich. Die US-Immobilienkrise zieht Ihre Kreise. In unserer globalisierten Welt machen solche Krisen vor keiner Staatengrenze halt. Die globalisierten Finanzmärkte sind mittlerweile so verschlungen und miteinander verbunden, dass Ursache und Wirkung kaum noch zu erkennen sind, so wie der berühmte Flügelschlag eines Schmetterlings in Afrika der in Europa einen Tornado auslöst. Kaum eine Bank, die nicht von dieser Krise betroffen ist. Es stellt sich dabei die Frage: Kam diese Krise denn wirklich so plötzlich und unvorhersehbar? Ist das Risiko das sich aufgrund der schon lange völlig überschuldeten privaten amerikanischen Haushalte ergab nicht schon längst bekannt gewesen? Gab es denn keine Frühwarnindikatoren und kein Frühwarnsystem bei den Banken und Unternehmen die in diese Bereiche investiert haben? Sind nicht besonders die stark betroffenen staatlichen Banken am ehesten durch Basel II dazu verpflichtet gewesen Ihr Eigenkapital dem Risikopotenzial anzupassen? Ist nicht unlängst der großen Unternehmensschieflagen in den 90èr Jahren verstärkt auch von staatlicher Seite die Einführung eines umfassenden Risikomanagementsystems für Unternehmen und Banken gefordert worden? Die Finanzwelt ist in Aufruhr. Panik breitet sich aus und es wird nach Schuldigen gesucht. Die Leidtragenden sind die Anleger und die Steuerzahler. Der Aufschwung und damit viele Arbeitsplätze sind gefährdet. Es werden Zahlen genannt die schon erschreckend sind (600 Milliarden Euro)aber nicht einmal im Entferntesten den wirklichen wirtschaftlichen Schaden darstellen, den eine solche Krise mit all seinen Ausläufern nach sich zieht. Es stellt sich jetzt die Frage nach den Ursachen dieser Katastrophe. Politiker und Experten diskutieren schon über mögliche Gründe und Gegensteuerungsmaßnahmen. Plötzlich wird auch bei den staatlichen Banken über das Thema Risiko bzw. Risikomanagement nachgedacht. Ist es denn wirklich nötig, dass Landesbanken in hochbrisante Anleihen und Immobilienfonds investieren? Die globale Wirtschaft und Finanzwelt wird immer komplexer und unüberschaubarer. Für Unternehmen und Banken bedeutet dies ein immens steigendes Risikopotenzial. Dieses Risikopotenzial ist schon lange nicht mehr mit den üblichen betriebswirtschaftlichen Mitteln, wie zum Beispiel dem Controlling, abzudecken. Das Thema Risikomanagement gewinnt in der Wirtschaftswelt immer mehr an Bedeutung. In der Wirtschaftswissenschaft wird dieses Thema schon länger behandelt und seit einigen Jahren ist es auch aktuell in die Politik bzw. die Gesetzgebung eingeflossen. Es stellt sich die Frage wie es zu einer Krise mit derartiger Größenordnung kommen konnte, wo doch auch in den USA das Thema Risikomanagement, siehe COSO II, in Form von Gesetzen und Richtlinien behandelt worden ist. In Europa ist durch Basel II ein Programm verabschiedet worden, dass bei konsequenter Umsetzung aller Regularien von Basel II die Vergabe von riskanten und eventuell 'notleidenden Krediten' im größeren Umfang faktisch verhindert und damit eine Bankenkrise im größeren Stil weitgehend ausschließt. Dies sollte unter anderem durch die stärkere Ausrichtung der Eigenkapitalanforderungen am tatsächlichen Risiko passieren. Die Einführung von Gesetzen und Richtlinien zur Einführung eines Risikomanagements sowie eines Frühwarn- und Früherkennungssystems sollte eigentlich dazu geführt haben, dass sich Banken und Unternehmen stärker mit dem Thema auseinandersetzen. Die Voraussetzungen für ein umfassendes dem gesamten Unternehmensprozess angepassten Risikomanagement sind durch die aktuellen betriebswirtschaftlichen Erkenntnisse, dem Fortschritt in der Softwareentwicklung auf diesem Gebiet, den durch Expertenkreise ausgearbeiteten Richtlinien, sowie den gesetzlichen Vorgaben eigentlich mehr als ausreichend vorhanden. Das eigentliche Problem, weswegen trotz der neuen Erkenntnisse immer wieder Unternehmenskrisen entstehen, ist zum einen die richtige Umsetzung der Richtlinien und zum anderen die Priorität mit der die Einführung eines solchen Risikomanagements von den Managern vorangetrieben wird. Die Global Risk Management Studie des Unternehmens Deliotte beschäftigt sich mit Entwicklungsstand und Umsetzung des Risikomanagement im Sektor der Finanzdienstleistungen. Es kann aber davon ausgegangen werden, dass der Entwicklungsstand bei Finanzinstituten im Allgemeinen durch engere Reglementierungen und erhöhte öffentliche Verantwortung noch weiter ist als bei anderen Unternehmen. Daraus lassen sich Schlüsse auf die Gesamtentwicklung ziehen. Im Allgemeinen lässt sich sagen, dass laut der Studie Fortschritte in der Implementierung eines Risikomanagements gemacht werden, um den Anforderungen von Basel II gerecht zu werden. Wie die folgende Graphik zeigt ist es aber noch ein langer Weg bis dieser Prozess abgeschlossen ist. Basel II ist aber, wie schon erwähnt, nur eine von vielen gesetzlichen Anforderungen welche die Einführung eines ganzheitlichen Risikomanagementprozesses zwingend notwendig machen. Die Gefahr besteht darin, dass Unternehmen sich bei der Implementierung eines Risikomanagementsystems nur den gesetzlichen Vorschriften unterordnen und ohne wirkliche Einsicht ein System einführen, was den Mindestanforderungen entspricht, ohne die Notwendigkeit und Vorteile eines ganzheitlichen Risikomanagementsystems zu erkennen. Genau hier möchte ich ansetzen und aufzeigen wie wichtig und notwendig es ist, sich mit diesem Thema genau auseinanderzusetzen. Das Beispiel mit der Immobilienkrise sollte nur darstellen wie sensibel unsere globale Wirtschaft aufgrund der Komplexität reagiert. Risiken kann niemand und kein System ausschließen. Aber das frühzeitige Erkennen und der richtige Umgang mit Ihnen kann von entscheidender Bedeutung sein.Inhaltsverzeichnis:Inhaltsverzeichnis: Inhaltsverzeichnis2 Abbildungsverzeichnis4 1.Einführung5 1.1Problemstellung und Motivation5 1.2Abgrenzung der Thematik8 2.Definition 'Risiko/Chancen' und deren Arten11 3.Risikomanagement als ganzheitliches Konzept zur erfolgreichen strategischen und operationellen Unternehmenssteuerung17 3.1Was ist Risikomanagement?17 3.1.1Entstehung und aktuelle Relevanz19 3.1.2Ziele des Risikomanagements24 3.1.3Strategisches Risikomanagement25 3.1.3.1Von der Vision zur Risikostrategie26 3.1.3.2Zielsetzung und Einbindung des strategischen Risikomanagement in den Unternehmensprozess27 3.1.4Anforderungen an das Risikomanagement32 3.1.4.1Betriebswirtschaftliches Risikomanagement33 3.1.4.1.1Risikoidentifikation34 3.1.4.1.2Risikobewertung37 3.1.4.1.3Risikokommunikation41 3.1.4.1.4Risikosteuerung43 3.1.4.1.5Risikoüberwachung50 3.1.4.1.6Risikomanagementhandbuch51 3.1.4.1.7Das Früherkennung- und Überwachungssystem52 3.1.4.2Anforderungen des Gesetzgebers58 3.1.4.2.1Gesetz zur Kontrolle und Transparenz im Unternehmensbereich58 3.1.4.2.2German Code of Corporate Governance (GCCG)60 3.1.4.2.3Transparenz- und Publizitätsgesetz (TransPuG)61 3.1.4.2.4Bilanzrechtsreformgesetz (BilReG)62 3.1.4.2.5Basel II63 3.1.4.3Externe Anforderungen (IDW PS 340)64 3.1.4.4Internationale Anforderungen65 3.1.4.4.1COSO I66 3.1.4.4.2Sarbanes-Oxley Act67 3.1.4.4.3COSO II68 3.2Zusammenfassung der verschiedenen Anforderungen sowie deren Anwendungen auf eine chancenorientiertes unternehmensweiten Risikomanagement70 4.Das softwareunterstützte Risikomanagement73 4.1Notwendigkeit einer IT-Unterstützung74 4.2IT-gestütztes operatives Risikomanagement als Grundlage für ein Entscheidungsunterstützungssystem78 4.3Das IT-gestützte Entscheidungsunterstützungssystem als Cockpitlösung für das strategische Management82 5.Vergleichende Analyse von Softwarepaketen89 5.1Anforderungen an ein Softwarepaket sowie an ein Risikomanagementinformationssystem89 5.1.1Betriebswirtschaftliche Anforderungen90 5.1.2Technische Anforderungen92 5.2Unterscheidung von Softwarepaketen nach Ihren Anwendungsmöglichkeiten93 5.2.1Standardprogramme (MS Excel/MSAcces)94 5.2.2Software für das Projektrisikomanagement95 5.2.3Standardisierte Programme für das Risikomanagement sowie das Ratingverfahren nach Basel II97 5.2.4Individualisierte Spezialsoftware zur Unterstützung des gesamten Risikomanagementprozesses99 5.3Vergleich und Auswahl eines geeigneten Softwarepaketes103 6.Schlussbetrachtung und Ausblick106 Anlage 1Beispiel für ein Erfassungsbogen für Einzelrisiken108 Anlage2Muster für ein Risikomanagementhandbuch109 Anlage3Funktionen von Crystal Ball112 Literaturverzeichnis114Textprobe:Textprobe: Kapitel 3.1.4.2.4, Bilanzrechtsreformgesetz (BilReG): Das BilReG ist ein weiterer Schritt des Gesetzgebers dahin, insbesondere die Anleger zu schützen und ein weiteres Kriterium zu schaffen was Transparenz und Unabhängigkeit schafft. Das BilReG wurde im Dezember 2004 als aktuellstes nationales Gesetz in diesem Zusammenhang verabschiedet und trat am 1 Januar 2005 in Kraft. Auch mit dem BilReG gingen mehrere Gesetzesänderungen und Neueinführungen insbesondere im HGB einher. Aber auch 25 weitere Gesetzesänderungen und Ergänzungen in anderen Gesetzen wurden vorgenommen. Besonders stark ist dieses Reformgesetz auf die Abschlussprüfer und die Abschlussprüfung ausgerichtet. Ein Ziel des Bilanzrechtsreformgesetzes ist der Ausschluss von Wirtschaftsprüfern bei der Abschlussprüfung, wenn Besorgnis der Befangenheit vorliegt. Hintergrund ist der Gedanke, dass ein unabhängiger Abschlussprüfer nicht gleichzeitig Interessenvertreter des zu prüfenden Unternehmens sein soll, ebenso wenig das Produkt eigener vorangegangener Dienstleistungen bewerten soll (Selbstprüfungsverbot). Desweiteren wird durch das BilReG auch noch einmal klar die Notwendigkeit der Offenlegung der Risikomanagementziele sowie die Entwicklung der Risiken und Chancen im Lagebericht festgelegt. Es soll erreicht werden, dass Anleger sicher sein können, eine nach menschlichem Ermessen vorurteilsfreie und den tatsächlichen Fakten entsprechende objektive Abschlussprüfung erfolgt ist und diese ein objektives Bild der Lage des Unternehmens darstellt. Basel II: Basel II bedeutet nichts anderes als eine europaweite Richtlinie zur Eigenkapitalhinterlegung bei Krediten. Schon Basel I hat eine solche Richtlinie geschaffen, welche eine einheitliche Eigenkapitalhinterlegung von 8% bei Krediten forderte. Das erste Konsultationspapier zu Basel II wurde bereits 1999 verabschiedet. Das zweite im Januar 2001. Verabschiedet wurde Basel zwei dann im Jahr 2003. 2007 ist nun Basel II endgültig in Kraft getreten, nachdem etliche Kommentare und Diskussionspapiere berücksichtigt und noch eingearbeitet wurden. Basel II verfolgt mit der neuen Eigenkapitalvereinbarung vor allem folgende Ziele: - weiterhin die Sicherheit und Solidität des Finanzsystems zu stärken; - eine umfassende und differenzierte Risikoeinstufung zu ermöglichen; - die Eigenkapitalanforderungen von Kreditinstituten nach Kreditrisiken zu staffeln; - die Kreditinstitute dazu auffordern, ihr internes Risikomanagement zu optimieren; - verfeinerte und verbesserte Methoden zur Risikoeinschätzung fördern und belohnen; - die Wettbewerbsgleichheit verbessern; - den Veränderungen in der Finanzwelt gerecht zu werden; - Grundsätze schaffen, die sich auf Banken unterschiedlicher Komplexität und Tätigkeit anwenden lassen. Trotz Basel II bleiben die Mindestkapitalanforderungen von Basel I, risikobehaftete Aktivposten mit acht Prozent Eigenkapital zu unterlegen bestehen. Besonders interessant und wichtig an Basel II ist, im Zusammenhang mit dieser Arbeit, die starke Ausrichtung auf ein verbessertes Risikomanagement bei Banken. Es sollen Zukünftig nicht nur Kreditrisiken und Marktpreisrisiken, sondern auch operationelle Risiken, Zinsrisiken sowie strategische Risiken in die Beurteilung der Eigenkapitalhinterlegung und das Risikomanagement mit einfließen. Hier werden die Banken aufgefordert moderne Methoden anzuwenden, um auch solche Risiken zu quantifizieren und zu berücksichtigen. Bisher haben Banken bei der Vergabe von Krediten nur nach drei Segmenten unterschieden. Kredite an staatliche Einrichtungen Banken und Nichtbanken(Unternehmen). Basel II führt hier neue Bonitätsklassen ein die viel differenziertere Möglichkeiten bei Kreditvergaben, hauptsächlich an Unternehmen, zulassen. Für die Messung der Bonität der Kreditnehmer wurden die Banken aufgefordert, spezielle Ratingverfahren zu entwickeln, die dann auf Ihre Tauglichkeit hin überprüft werden. Firmenkunden von Banken sind durch das Rating dazu aufgefordert, sich intensiv mit ihrem Unternehmen und auch mit ihrem Risikomanagement zu beschäftigen, da dieses beim Ratingverfahren mit berücksichtigt wird. Eine gute Vorbereitung auf das Rating und die Verbesserung oder Einführung eines Risikomanagementsystems verhilft somit zu einem guten Ratingergebnis und sehr guten Kreditkonditionen. Dies ist der kausale Zusammenhang zwischen dem Unternehmenswert, einem funktionierenden ganzheitlichen Risikomanagement und der Erlangung guter Kreditkonditionen und damit niedriger Kapitalkosten, was ich im Abschnitt 3.1.3.2 schon beschrieben habe. Basel II bietet insbesondere im Zusammenhang mit dem Risikomanagement große Chancen für Unternehmen. Externe Anforderungen (IDW PS 340): Das Gesetz zur Kontrolle und Transparenz im Unternehmensbereich welches die Einführung eines Risikomanagements bei großen Unternehmen gesetzlich bestimmt, fordert auch gleichzeitig die Offenlegung und Darstellung dieses Systems im Jahresabschluss, sowie dem Lagebericht. Besonders deutlich wird dies durch die Ergänzung des § 317 Absatz 4 HGB in dem es heißt: 'Bei einer Aktiengesellschaft, die Aktien mit amtlicher Notierung ausgegeben hat, ist außerdem im Rahmen der Prüfung zu beurteilen, ob der Vorstand die ihm nach § 91 Abs. 2 des Aktiengesetzes obliegenden Maßnahmen in geeigneter Form getroffen hat und ob das danach einzurichtende Überwachungssystem seine Aufgaben erfüllen kann.'. Später wurde die Formulierung durch das TranPuG allgemeiner formuliert und auf mehr Unternehmen ausgeweitet. Problem der Abschlussprüfer war nun vor allem, dass es kein einheitliches Sollobjekt bei der Erstellung eines Risikofrühwarn- und Überwachungssystem gibt. Es wurde unternehmensspezifisch ausgestaltet und die Abschlussprüfer müssen sich diese spezifischen Kenntnisse aneignen. Im Jahre 1999 wurde dann schließlich ein neuer Prüfungsstandard vom Institut deutscher Wirtschaftsprüfer ausgegeben, der zum einen die Prüfung dieses Systems standardisieren sollte und zum anderen als Grundlage für die nach § 91 Abs. 2 AktG geforderten Pflichten herangezogen werden kann, da wie schon erwähnt, der Gesetzgeber keine weiteren Ausführungen zur Ausgestaltung der geeigneten Maßnahmen zur Risikofrüherkennung gemacht hat. Der IDW PS 340 stellt nicht nur einen Prüfungsstandard dar, sondern auch eine Richtlinie zur Ausgestaltung eines Risikomanagementsystems nach § 91 Abs. 2 AktG. Die Prüfung erstreckt sich allerdings auch nur über die im § 91 Abs. 2 AktG angegebenen Komponenten eines Risikofrüherkennungs- und Überwachungssystems welches Bestandteil eines gesamten Risikomanagementsystems ist.
In: Diplomarbeit
Inhaltsangabe:Einleitung: Organics is one of the fastest growing sectors in the global food industry. Betrachtet man die Bio-Branche, so teilt sie sich in die Bereiche Lebensmittel, Naturkosmetik, Textilien und weitere Non-Food-Angebote auf. Der Bio-Lebensmittelsektor ist innerhalb der stagnierenden Lebensmittelbranche der einzige Bereich, der in den vergangenen Jahren in vielen Ländern weltweit Wachstumsraten verzeichnen konnte. Auch wenn der japanische Markt für Bio-Lebensmittel sich entgegen dieser Tendenz zu entwickeln scheint, so ist er trotzdem ein Markt mit nicht zu unterschätzendem Potential. Mit seinen als konsumfreudig und qualitätsbewusst beschriebenen Verbrauchern ist der japanische Markt der zweitgrößte Markt hinter den USA, im Hinblick auf Natur- und Bio-Produkte der drittgrößte Konsummarkt weltweit. Auf seine zukünftige Entwicklung und Positionierung wirken viele verschieden Kräfte ein, die für die kommenden Jahre eine interessante Dynamik erwarten lassen. Ob diese Charakteristika für deutsche Hersteller von Bio-Lebensmitteln eine Chance auf dem japanischen Markt bieten, wird in dieser Diplomarbeit untersucht. Hierzu werden die nachfolgend genannten zentralen Fragestellungen herangezogen und in der Anwendung des theoretischen Rahmens der Branchenstrukturanalyse bearbeitet. Welche Chancen und Risiken bestehen bei einem Markteintritt für deutsche Hersteller? Wie wirken sich die Eintrittsbarrieren staatliche Politik, Produktdifferenzierung und die Beschaffenheit der Vertriebskanäle auf diese Situation der deutschen Unternehmen aus und welche Rolle spielen die zu erwartende Vergeltung der bereits etablierten Unternehmen sowie die am Markt üblichen Preisprämien? Welche einheimischen Produzenten sind bereits auf dem Markt aktiv und aus welchen Ländern kommen die größten Konkurrenten der deutschen Hersteller? Welche Produkte werden als Substitute für Bio-Lebensmittel auf dem japanischen Markt angeboten und wie werden diese von den japanischen Konsumenten angenommen? Welches sind die Abnehmer und Lieferanten der Branche und wie stark ist ihre Position? Nach einer Begriffsbestimmung am Anfang des zweiten Kapitels folgen eine Einschätzung der globalen Entwicklungen des Bio-Marktes sowie eine kurze Beschreibung der Hauptimport- und Exportländer mit Blick auf Japan. Nach diesem Teil richtet sich die Aufmerksamkeit allein auf Japan und die für die spätere Analyse wichtigen Aspekte zur Zertifizierung und zu Lebensmittelskandalen in Japan. In Kapitel 3 wird das theoretische Konstrukt Porters erläutert, welches für die Branchenstrukturanalyse genutzt wird. Zu den einzelnen Unterkategorien der 5 Wettbewerbskräfte erfolgt eine terminologische Abgrenzung der Begriffe. In Kapitel 4 werden die im vorherigen Kapitel definierten Begriffe wieder aufgegriffen und innerhalb einer deskriptiven Analyse angewendet, sodass hier eine Verbindung der allgemeinen Fakten zur Biobranche aus Kapitel 2 und darüber hinaus gehender Charakteristika mit dem Modell von Porter aus Kapitel 3 erfolgt. Das fünfte Kapitel beschreibt und diskutiert das Vorgehen der Konsumentenumfrage: beginnend mit der Auswahl der deutschen Bio-Lebensmittelhersteller für die Unternehmensumfrage, über die Befragung dieser Unternehmen bis hin zur Erstellung der Umfrage für die japanischen Verbraucher. Die Ergebnisse werden mit denen anderer Studien verglichen, bevor das letzte Kapitel eine Zusammenfassung der Ergebnisse mit Empfehlungen für deutsche Hersteller liefert.Inhaltsverzeichnis:Inhaltsverzeichnis: AbbildungsverzeichnisV TabellenverzeichnisVI AbkürzungsverzeichnisVII 1.Einleitung1 1.1Relevanz des Themas1 1.2Aufbau der Diplomarbeit2 2.Bio-Lebensmittel3 2.1Begriffsbestimmung3 2.2Globale Entwicklungen des Biomarktes5 2.3Import- und Exportländer6 2.3.1Importländer6 2.3.2Exportländer8 2.4Entwicklung der Zertifizierung in Japan10 2.5Lebensmittelskandale in Japan15 3.Branchenstrukturanalyse nach Porter17 3.1Definition und Aufgabe18 3.2Die Bedrohung durch neue Anbieter19 3.2.1Eintrittsbarrieren20 3.2.2Erwartete Vergeltung21 3.2.3Der für den Eintritt kritische Preis21 3.3Die Rivalität unter den bestehenden Wettbewerbern21 3.4Die Bedrohung durch Ersatzprodukte23 3.5Die Verhandlungsmacht der Abnehmer23 3.6Die Verhandlungsmacht der Lieferanten24 4.Anwendung der Branchenstrukturanalyse auf den japanischen Markt für Bio Lebensmittel25 4.1Chancen und Risiken für deutsche Hersteller25 4.1.1Eintrittsbarrieren25 4.1.1.1Staatliche Politik26 4.1.1.2Produktdifferenzierung/Unternehmenseigene Produktunterschiede29 4.1.1.3Vertriebskanäle31 4.1.1.3.1teikei-Partnerschaften, Konsumentenkooperativen und spezialisierte Distributionsunternehmen32 4.1.1.3.2Naturkostfachgeschäfte36 4.1.1.3.3Der konventionelle Lebensmitteleinzelhandel37 4.1.1.3.4Internet38 4.1.1.3.5Restaurants39 4.1.1.3.6Verkaufsautomaten40 4.1.2Erwartete Vergeltung42 4.1.3Der für den Eintritt kritische Preis/Preisprämien43 4.2Die Rivalität unter den bestehenden Wettbewerbern49 4.2.1Japanische Hersteller51 4.2.2Ausländische Hersteller auf dem japanischen Markt52 4.3Die Bedrohung durch Ersatzprodukte55 4.3.1LOHAS55 4.3.2Green Foods56 4.3.3Health Food/Functional Food57 4.4Die Verhandlungsmacht der Abnehmer62 4.4.1Endkonsumenten62 4.4.2Importeure/Groß- und Einzelhandel66 4.5Die Verhandlungsmacht der Lieferanten67 4.5.1Landwirtschaftliche Betriebe68 4.5.2Die verarbeitende Lebensmittelindustrie68 4.6Fazit69 5.Unternehmens- und Konsumentenumfrage72 5.1Die Unternehmensumfrage72 5.1.1Methoden72 5.1.1.1Auswahl der Adressaten72 5.1.1.2Inhalte des Anschreibens und des Fragebogens73 5.1.2Ergebnisse und Diskussion74 5.2Die Konsumentenumfrage78 5.2.1Methoden78 5.2.1.1Auswahl des Befragungsmediums78 5.2.1.2Vor- und Nachteile der schriftlichen Befragung79 5.2.1.3Inhalt und Gliederung der Onlineumfrage80 5.2.1.4Verbreitung des Umfragelinks81 5.2.2Ergebnisse und Diskussion82 6.Fazit91 7.Literaturverzeichnis93 Anhang103 Anlagenverzeichnis103Textprobe:Textprobe: Kapitel 3.3, Die Rivalität unter den bestehenden Wettbewerbern: Die Wettbewerber innerhalb einer Branche stehen in einem Abhängigkeitsverhältnis zueinander, in dem der Versuch des einen Unternehmens, die eigene Position zu verbessern, zu einer Reaktion der Wettbewerber führt. Wettbewerbsmaßnahmen in diesem Zusammenhang können Preiswettbewerb, Werbeschlachten und die Einführung neuer Produkte sein. Im Falle von Preissenkungen kann der Kampf mit immer niedrigeren Preisen im Endeffekt zu einer schlechteren Positionierung aller Unternehmen führen, da ein Preis, der einmal gesenkt wurde, nur schwer wieder anzuheben ist. Ebenso wie im vorherigen Abschnitt über Eintrittsbarrieren werden an dieser Stelle nur die in der Analyse verwendeten Theorieteile näher erläutert. Auf eine ausführliche Darstellung der darüber hinausgehenden Aspekte wird verzichtet. Zahlreiche oder gleich ausgestattete Wettbewerber: Besteht eine Branche aus vielen ähnlichen Wettbewerbern, kommt es häufig zu Fehleinschätzungen in der Form, dass kleinere Unternehmen der Meinung sind, dass ihre Aktivitäten keinen Einfluss auf die Situation der Branche haben. Ein anschauliches Beispiel für die Konzentration bzw. Größenverteilung der Wettbewerber ist die deutsche mobile Telekommunikationsbranche, die durch vier große Anbieter - o2, T-Mobile, Vodafone und E-Plus - bestimmt wird. Ihnen gegenüber stehen mehrere zum Teil sehr kleine Serviceprovider. Auch ausländische Unternehmen zählen im Zuge der Globalisierung immer häufiger zu den wichtigsten Konkurrenten. Sie werden innerhalb der Branchenstrukturanalyse wie inländische Unternehmen behandelt und konkurrieren sowohl auf der Beschaffungs- wie auch auf der Absatzseite miteinander. (Langsames) Branchenwachstum: In langsam wachsenden, stagnierenden oder gar schrumpfenden Branchen herrscht häufig ein harter Kampf um die Höhe des Marktanteils, weil dessen Ausweitung meistens unweigerlich zu Lasten der Wettbewerber geht. In schnell wachsenden Branchen hingegen, können mehrere Unternehmen gleichzeitig ein absolutes Wachstum erzielen und betreiben daher einen weniger intensiven Wettbewerb. Fehlende Differenzierung: Bei einer fehlenden Differenzierung der Produkte - wie z. B. einfachen Gebrauchsartikeln – findet die Kaufentscheidung sehr oft aufgrund des Preises statt. Heterogene Wettbewerber: Mit der Anzahl der heterogenen Wettbewerber steigt auch die Anzahl der verschiedenen Ziele und Strategien. Ausländische Wettbewerber erhöhen oft die Heterogenität in einer Branche und schaffen dadurch eine erhöhte Vielfalt im Wettbewerb. Weitere Bestandteile der Wettbewerbskraft "Die Rivalität unter den bestehenden Wettbewerbern" sind: (hohe) Fix- und Lagerkosten, große Kapazitätserweiterungen (Phasen der Überkapazität), hohe strategische Einsätze (strategische Bedeutung der Branche für die Wettbewerber) und (hohe) Austrittsbarrieren. Sie finden in der nachfolgenden Analyse keine Anwendung, können jedoch für andere Branchen von enormer Bedeutung sein. Kapitel 3.4, Die Bedrohung durch Ersatzprodukte: Die Bedrohung durch Ersatzprodukte ist nicht mit Neueinsteigern in eine Branche zu verwechseln. Markteintritte, wie z. B. durch private Fernsehsender als nur öffentlich-rechtliche Sender auf dem Markt vertreten waren, gehören in das Kapitel 3.2. Um den Begriff des Ersatzproduktes bzw. Substitutionsproduktes deutlicher abzugrenzen sei folgendes Beispiel aus der Medienbranche genannt: Sat1 ist ein neuer Konkurrent für das ZDF, aber kein Ersatzprodukt. Dahingegen zählen IPTV (Internet Protocol Television), der DVD-Verleih oder Mobile TV zu eindeutigen Substituten auf diesem Markt. Sie befriedigen dieselben Präferenzen und/oder erfüllen dieselbe Funktion wie ein bereits vorhandenes Produkt bzw. eine Dienstleistung. Sind sie günstiger oder sogar besser als die bereits vorhandenen Produkte, ist die Gefahr, die von ihnen ausgeht, umso größer. Ersatzprodukte begrenzen das Gewinnpotential innerhalb einer Branche durch eine Preisobergrenze und schmälern auch in Boomphasen die Gewinne der Unternehmen. Kapitel 3.5, Die Verhandlungsmacht der Abnehmer: Unternehmen konkurrieren nicht nur untereinander, sondern auch mit ihren Abnehmern. Diese versuchen immerzu, die Preise zu drücken, und Leistung sowie Qualität zu erhöhen. Befinden sich die Abnehmer in einer guten Verhandlungsposition, können sie versuchen, die Anbieter gegeneinander auszuspielen und die Preise dadurch niedrig zu halten. Die Macht der Abnehmer ist unter anderem abhängig von den Determinanten "Verhandlungsmacht" und "Preisempfindlichkeit". Zur Einflussgröße "Verhandlungsmacht" zählen Abnehmervolumen, Unternehmenskonzentration, Umstellungskosten und Informationsstand der Abnehmer, Fähigkeit der Rückwärtsintegration, Ersatzprodukte bzw. Ersatzdienstleistungen sowie Durchhaltevermögen. Zur Preisempfindlichkeit tragen die Kategorien Preis/Gesamtumsätze, Produkt/Dienstleistungsunterschiede, Markenidentität, Abnehmergewinne und Anreize der Entscheidungsträger bei. Die Käufermacht kann sich mit der Zeit aufgrund von markt- oder unternehmensbezogenen Faktoren ändern, d. h. sie kann stärker oder geringer werden. Für ein Unternehmen ist die Wahl der Abnehmergruppe(n) daher eine der wichtigsten strategischen Entscheidungen. Kapitel 3.6, Die Verhandlungsmacht der Lieferanten : Analog zur Verhandlungsstärke der Abnehmer existiert eine Verhandlungsstärke der Lieferanten. Je nach Anzahl der Lieferanten, die gleichwertige Produkte anbieten, und der Wichtigkeit des Produktes für das abnehmende Unternehmen, ist die Position des Lieferanten stärker oder schwächer. "Lieferanten können ihre Verhandlungsstärke ausspielen, indem sie damit drohen, Preise zu erhöhen oder die Qualität zu senken.". Auch der Staat kann als Lieferant und Abnehmer auftreten. Wie bereits im Rahmen der Eintrittsbarrieren erwähnt, kann der Staat durch Vorschriften, Subventionen und andere Instrumente einen Einfluss auf die Situation innerhalb einer Branche ausüben. Kapitel 4, Anwendung der Branchenstrukturanalyse auf den japanischen Markt für Bio-Lebensmittel: Nachdem der theoretische Rahmen für die Analyse des japanischen Marktes für Bio-Lebensmittel mit seinen wichtigsten Ausprägungen beschrieben wurde, werden nachfolgend die für den speziellen Markt relevanten Aspekte angewendet. Einige in diesem Zusammenhang eher nebensächliche Abschnitte, wie z. B. die Verhandlungsmacht der Lieferanten, werden aus Platz- und Relevanzgründen ausgelassen oder nur kurz besprochen, andere hingegen werden ausführlich beschrieben, da sie für das Verständnis der gegenwärtigen Situation auf dem japanischen Markt für Bio-Lebensmittel unabdingbar sind. Soweit möglich, wird zu jedem Abschnitt eine Einschätzung im Hinblick auf die Chancen und Risiken für deutsche Bio-Hersteller, die ihre Produkte auf dem japanischen Markt absetzten möchten, gegeben. Die Vertriebskanäle werden dabei besonders ausführlich behandelt, da diese innerhalb der Lebensmittelkette sowie in Verbindung mit Japan eine bedeutende Rolle spielen. Kapitel 4.1, Chancen und Risiken für deutsche Hersteller: Das Kapitel Chancen und Risiken für deutsche Hersteller entspricht im theoretischen Bezugsrahmen von Porters Branchenstrukturanalyse der Bedrohung durch neue Anbieter. Diese müssen sich mit Eintrittsbarrieren, die sich auf dem japanischen Markt für Bio-Lebensmittel aus der staatlichen Politik, der Produktdifferenzierung, dem Zugang zu den Vertriebskanälen bzw. der Beschaffenheit der Vertriebskanäle und den Preisprämien zusammensetzen, auseinandersetzen. Zur Unterstützung und um neue Investoren ins Land zu holen, bietet die japanische Regierung ausländischen Unternehmen verschiedene Dienstleistungen z. B. in Form von kostenloser Beratung durch die JETRO an.
In: Diplomarbeit
Aus der Einleitung: In den letzten Jahren ist eine starke Vertikalisierungstendenz von Herstellerunternehmen im Handel zu beobachten. Nicht nur, dass die Hersteller mit eigenen Fachgeschäften (Flagshipstores) um anspruchsvollere Kundschaft werben, auch versuchen die Hersteller mit eigener Angebotspräsentation im Betrieb des Einzelhandels ihre Absatzstellung zu verbessern. Diese integrierte Angebotspräsentation wird in der Praxis als Shop-in-Shop bezeichnet. Das Shop-in-Shop System, übersetzt Laden-im-Laden, kommt vor allen oft in Kauf- und Warenhäusern in verschiedenen Ausprägungsformen zum Einsatz. Das System ist im Grunde genommen ein älteres Konzept. Dabei wird berichtet, dass schon im Jahre 1935 im Britischen Warenhaus "Selfridges" der Hersteller Jaeger Damenbekleidung im Shop-in-Shop Stil vertrieb. Die heutige Fachliteratur spricht immer öfter von Shop-in-Shop Systemen. Ihre zunehmende Präsenz zeugt davon, dass Prozesse, die traditionell vom Handel autonom durchgeführt wurden, durch eine gemeinsame Koordination verbessert werden können. Mit dem Shop-in-Shop Begriff hat man eine gewisse Vorstellung und es scheint auf dem ersten Blick klar und verständlich zu sein, was sich dahinter verbirgt. Allerdings fehlt in der Theorie eine klare Shop-in-Shop Definition: einerseits besteht für Hersteller und Händler in der Praxis viel Handlungsspielraum bei der Ausgestaltung des Konzeptes, andererseits führt es aber zum allgemeinen Unverständnis des Shop-in-Shop Konzeptes. Für Hersteller und Händler scheint das Shop-in-Shop auf der einen Seite eine gute Möglichkeit darzustellen, Erfolgspotenziale auszunutzen, die ohne Shop-in-Shop nicht oder nur teilweise erreichbar wären. Auf der anderen Seite ist das Shop-in-Shop Konzept mit Risiken verbunden, die entweder für einen der beiden Kooperationspartner oder für beide gleichzeitig ein Risiko darstellt. Neben den Erfolgspotenzialen werden die Risiken eingehender beleuchtet und Lösungen vorgeschlagen mit dem Ziel, die Risiken zu minimieren und somit zugleich die Erfolgsaussichten für die Beteiligten zu erhöhen. Das Konzept wird daher durch eine genauere Betrachtung bezüglich der Vor- und Nachteile untersucht. Gang der Untersuchung: Aus der Problemstellung ergibt sich als Zielsetzung der Arbeit, die verschiedenen Facetten des Shop-in-Shop Systems darzustellen, die anhand einer Erfolgspotenzial- und Risikobetrachtung zu einer besseren Transparenz des Konzepts führen soll. Nicht ist das Ziel der Untersuchung, das Konzept eindeutig zu definieren, sondern der Leser soll anhand der Untersuchung das Shop-in-Shop Konzept besser nachvollziehen können. Bei der Untersuchung sollen insbesondere jene Facetten angesprochen werden, die einen besonderen Einfluss auf den Erfolg des Shop-in-Shop Systems haben. Dadurch soll aufgezeigt werden, dass das Shop-in-Shop System speziell durch die Risikobetrachtung mehr als nur ein reines Marketing-Thema ist. Zunächst wird in Kapitel 2 das Shop-in-Shop System eingeordnet. Die genaue Einordnung setzt beim vertikalen Marketing an: Shop-in-Shop als ein Marketinginstrument des Herstellers als Antwort auf die bedrohlichen Tendenzen im Handel. Anschließend wird eine für die Arbeit angewandte Definition und Abgrenzung aufgeführt. Dabei wird auf die betrachteten Hauptakteure (Shopbetreiber und Dachgeschäft) etwas genauer eingegangen und verwandte Shop-in-Shop Formen präsentiert. Am Ende des zweiten Kapitels wird im Rahmen der verschiedenen Verhandlungsstufen auf die wichtigsten Kooperationsformen und Vertragsgestaltungen Bezug genommen, um zunächst einen Überblick über die Komplexität der verschiedenen Ausprägungsformen zu erhalten. Im weiteren Verlauf werden die unterschiedlichen Kooperationsformen unter dem Aspekt der Einflussnahme seitens der Hersteller und des Handels untersucht. Das dritte Kapitel der Arbeit befasst sich mit der Betrachtung der Erfolgspotenziale des Shop-in-Shop Konzeptes und lässt die möglichen Beweggründe der beteiligten Parteien zur Durchführung eines Shop-in-Shops besser nachvollziehen. Da mit dem Konzept verschiedene Ziele erreicht werden sollen, bzw. Gründe für die Durchführung eines Shop-in-Shops sprechen, erfolgt eine getrennte Betrachtung der Erfolgspotenziale, aus Sicht des Shopbetreibers (Hersteller) und aus Sicht des Dachgeschäfts (Handel). Die Ausführungen im vierten Kapitel beschäftigen sich mit ausgewählten Problemen, die für die Beteiligten mit gewissen Risiken behaftet sind. Der erste Abschnitt befasst sich mit Risiken, die vor allem mit der Entscheidungsfindung zu tun haben, um Fragestellungen des Shop-in-Shops besser zu durchleuchten. Dabei werden als Instrument ein qualitatives und ein quantitatives Entscheidungsmodell als Lösungsansatz vorgestellt, wobei sich das Letztgenannte vor allem mit den finanziellen Aspekten des Shopkonzeptes auseinandersetzt. Der darauf folgende Abschnitt konzentriert sich auf die Personalproblematiken. Hier wird zunächst auf die möglichen Zusammenarbeitskonstellationen mit dem Shoppersonal eingegangen. Danach werden die Probleme der geeigneten Vergütungs- und Anreizfindung gezeigt, sowie Probleme, die mit der Kontrollmöglichkeit des Fachpersonals zusammenhängen. Zu jeden dieser drei Punkte werden Lösungsvorschläge dargelegt. Der folgende Abschnitt in der Risikobetrachtung behandelt die Problematik der Sortimentszersplitterung, die durch Shop-in-Shops ausgelöst wird und sich negativ auf die Orientierung der Kunden im Warenhaus auswirken kann. Auch zu diesem Risiko werden adäquate Lösungsansätze aufgeführt. Abschließend wird der Fokus auf die Risiken der Preis- und Werbepolitik der Händler gesetzt, die sich oft nicht konform mit den Zielen der Hersteller verhält. Anhand von drei Beispielen wird im nächsten Kapitel ein Einblick in die Praxis gewährt. Dabei wurden Interviews mit Hersteller und Handel geführt und die Ergebnisse anschaulich dargestellt. Das letzte Kapitel beinhaltet eine Zusammenfassung der wichtigsten Erkenntnisse und schließt mit einem Ausblick ab.Inhaltsverzeichnis:Inhaltsverzeichnis: Abbildungsverzeichnis4 Tabellenverzeichnis4 Fotoverzeichnis4 Abkürzungsverzeichnis5 1.Kapitel: Einleitung6 1.1Problemstellung6 1.2Zielsetzung und Gang der Untersuchung7 2.Kapitel: Einordnung Shop-in-Shop Konzept8 2.1Distributionspolitik9 2.2Strategien des Handels11 2.3Strategien der Hersteller13 2.4Shop-in-Shop Definition16 2.4.1Die Shopbetreiber17 2.4.2Die Flächengeber18 2.5Erscheinungsformen von Shop-in-Shop Systemen und weitere Abgrenzungen19 2.5.1Gemietete Flächen/Konzessionen19 2.5.2Shopping Mall/ Shopping-Center und Basare20 2.5.3Depotsysteme21 2.6Shoparten21 2.7Verhandlungen23 2.7.1Akquisitionsverhandlungen und Kooperationsformen23 2.7.2Die Standortverhandlungen26 2.7.3Laufende Verhandlungen27 3.Kapitel: Erfolgspotenziale28 3.1Vorteile aus Sicht der Shopbetreiber29 3.1.1Erhöhung der Umsätze29 3.1.1.1Umsatzzuwächse durch Neukundengewinnung29 3.1.1.2Umsatzzuwächse durch Verdrängung der Mitbewerber30 3.1.1.3Umsatzzuwächse durch Trading-up des Gesamtangebotes30 3.1.2Imagegerechte Präsentation31 3.1.3Ausnutzung der bestehenden Kundenfrequenz und der Dachgeschäftswerbung33 3.1.4Verbesserung der Durchgriffe am POS33 3.1.5Verbesserung der Sortimentskompetenz35 3.1.6Vorbildfunktion für den Einzelhandel und eigene "stand-alone"-Lösungen36 3.1.7Vorteile durch Verbundräume37 3.1.8Kostenersparnis gegenüber "stand-alone"-Lösungen37 3.1.9Internationalisierungsmöglichkeit durch Shop-in-Shops38 3.2Vorteile aus Sicht der Dachgeschäfte39 3.2.1Umsatzzuwächse durch die Steigerung von Impuls- und geplanten Käufen39 3.2.2Erhöhung der Flächenrentabilität40 3.2.3Neukundengewinnung und Kundenloyalität42 3.2.4Ziel des Trading-up`s43 3.2.5Ziel des Erlebniskaufs45 3.2.6Die Kosteneinsparungen46 4.Kapitel: Risiken und Risikomanagement48 4.1Entscheidungsmodelle49 4.1.1Lösungsansatz: Qualitatives Entscheidungsmodell49 4.1.1.1Anwendungsbeispiel50 4.1.2Lösungsansatz: Quantitatives Entscheidungsmodell52 4.1.2.1Einzahlungen53 4.1.2.2Auszahlungen54 4.1.2.3Abzinsungsfaktor und Steuerbereinigung58 4.1.2.4Einbau der Variablen: Umsatzsteigerungsrate, Ergebnisrate der Konditionsverhandlungen, Inflationsrate58 4.1.2.5Sensitivitätsanalysen und Fälle60 4.1.2.6Bewertung und Anmerkungen zum Modell:63 4.2Konfliktbereich: Personal65 4.2.1Die Art der Zusammenarbeit mit dem Fachberater65 4.2.1.1Lösungsansätze67 4.2.2Vergütung und Anreizsysteme68 4.2.2.1Lösungsansätze69 4.2.3Kontrollmöglichkeit der Zusammenarbeit72 4.2.3.1Lösungsansätze73 4.3Kundenverunsicherung durch Sortimentszersplitterung75 4.3.1Lösungsansätze76 4.4Problembereich: Preis- und Werbepolitik81 4.4.1Lösungsansätze82 5.Kapitel: Beispiele86 5.1Das Alsterhaus86 5.1.1Etagenaufteilung87 5.1.2Trading-up Strategie87 5.1.3Shop-in-Shops88 5.1.4Flächenvergabe89 5.1.5Dauer der Shopverträge90 5.1.6Umbauturnus des Dachgeschäfts90 5.1.7Sortimentsauswahl90 5.1.8Multilabel-Flächen91 5.1.9Shopausstattung91 5.1.10Mieteinnahmen91 5.1.11Store-in-Store: HM und Lenffer92 5.1.12Werbeaktionen93 5.1.13Erfolgspotenziale des Shop-in-Shop Konzeptes aus Sicht des Alsterhaus94 5.1.14Risiken mit dem Shop-in-Shop Konzept95 5.2Real95 5.2.1Klassifizierung96 5.2.2Erfolgspotenziale des Shop-in-Shop Systems97 5.2.3Risiken mit dem Shop-in-Shop System98 5.3Tom Tailor98 5.3.1Shop-in-Shop Verträge99 5.3.2Shopakquisition99 5.3.3Andere Vertragsformen100 5.3.4Systemlieferant100 5.3.5Personal101 5.3.6Preisdisziplin und Werbepolitik des Handelspartners102 5.3.7Kalkulation103 5.3.8Zusammenfassung der Erfolgspotenziale und Risiken103 6.Kapitel: Schlussteil104 6.1Zusammenfassung104 6.2Erkenntnisse und Aussichten108 Quellenverzeichnis110 Anhang118Textprobe:Textprobe: Kapitel 3.2.6, Die Kosteneinsparungen: Ein wirtschaftliches Ziel der Dachgeschäfte mittels Shop-in-Shop ist es neben der Umsatzmaximierung, Kosteneinsparungen zu erreichen. Beispielsweise ist die Übernahme der Shopinvestitions-, Personal- und Shopplanungskosten durch die Shopbetreiber ein häufiges Entscheidungskriterium für die Dachgeschäfte, Shops aufzunehmen. Besonders das vom Hersteller gestellte Fachpersonal wird als eine gute Möglichkeit gesehen, Kosten einzusparen, es entfallen z.B. die Kosten der Rekrutierung, Entlohnungs- sowie sämtliche Lohnneben- und Schulungskosten usw. Die Einsparungspotenziale hängen von der vereinbarten Kostenaufteilung ab, die bei den Verhandlungen ausdiskutiert und spätestens im Vertrag niedergeschrieben werden. Bei einer allgemeinen 50/50 Aufteilung aller entstehenden Kosten, könnten dem Dachgeschäft höhere Kosten entstehen, als ohne Durchführung eines Shop-in-Shop Systems. Das ist dann z.B. der Fall, wenn das Shop-System sehr hohe Investitionskosten in eine aufwendige Architektur oder in teures Mobiliar beansprucht. Trotz allem sehen die Dachgeschäfte über solche kostspielige Konsequenzen hinweg, ist ihnen die Magnetwirkung, die von bestimmten Shops ausgehen, wichtiger als deren Forderung, der handelsseitigen Kostenübernahme der gesamten Shopausstattung. Auch können durch eine Erhöhung des Lagerumschlags Kosten gespart werden. Dabei können mit höheren Lagerumschlägen die durchschnittlichen Kosten pro Artikel wie z.B. Kosten der Lagerhaltung (Lagermiete, Lagerversicherung, Kapitalzinsen, Lagerabschreibungen, usw.) oder Manipulationskosten (z.B. Umsortierung, Kontrolle, Stapeln, Umlagern, etc.) gesenkt werden. Die Lagerumschlagshäufigkeit lässt sich mittels Shop-in-Shop System dann erhöhen, wenn aufgrund der verbesserten Warenpräsentation und der besseren Fachberatung mehr und schneller abverkauft wird als zuvor. Bei Shop-in-Shop Systemen, wo das Dachgeschäft nur als Vermieter auftritt und die Sortimentsautonomie und das Warenrisiko in den Händen des Shopbetreibers liegen, spart das Dachgeschäft mehrere Kosten, da der Warenbestand nicht unter dem Dachgeschäft läuft, wie bspw. Warenkosten (z.B. die Einstandspreise der bezogenen Ware), Handlungskosten (z.B. Bestell-, Beförderungs- und Umschlagskosten), Lagerungskosten (z.B. Zinskosten) und Absatzkosten (z.B. Vergütungen, Provisionen, Verpackungen, Werbung, etc.). Zusätzlich überwälzt das Dachgeschäft dem Shopbetreiber das Abschriftenrisiko für geklaute, reduzierte und zurückgehende Ware. Solche Shopbetreiber bestimmen i.d.R. die Endverkaufpreise selbst. Allerdings muss ein Teil der Einnahmen in Form von Fest- oder Umsatzmieten an das Dachgeschäft abgeführt und dieses in die Verkaufspreise miteinkalkuliert werden. Das Dachgeschäft wird die Fläche also nur dann einem Externen vermieten, wenn die Mieteinnahmen größer sind, als die vorherigen Einnahmen auf der gleichen Fläche, bzw. wenn mit den Mieteinnahmen die gewünschte Flächenrentabilität erzielt wird. Die Erfolgsaussichten eines Shop-in-Shop Konzeptes werden von verschiedenen Risiken beeinflusst, welche im folgenden Kapitel untersucht werden. Risiken und Risikomanagement: Wie in jeder menschlichen Beziehung sind auch Geschäftsbeziehungen mit Risiken verbunden. Die Untersuchung der Erfolgspotenziale ergab, dass der Erfolg einer Kooperationsform mit höherem Engagement (z.B. durch Einsatz mit eigenem Fachpersonal) zwar wächst, sich die Kooperationspartner allerdings mit neuen Themen befassen müssen, die nicht nur finanzielle Risiken bergen, sondern auch mit rechtlichen Konsequenzen behaftet sind. Auch hat das letzte Kapitel gezeigt, dass die Shopbetreiber und die Dachgeschäfte zwischen verschiedenen Alternativen wählen müssen (z.B. Shop-in-Shop vs. normale Regalplatzierung). Die Wahl zwischen Alternativen zu entscheiden, birgt jedoch Ungewissheiten, die zu den Risiken zu zählen sind. Um den Rahmen der Arbeit nicht zu sprengen, befasst sich dieses Kapitel daher mit ausgewählten Problembereichen aus der Shop-in-Shop Praxis. Für die Beteiligten stellt es ein Risikopotenzial dar, welches die Erfolgsaussichten des Konzeptes stark beeinflusst. Zu jedem Themengebiet werden bezüglich des Risikomanagements, soweit es geht, adäquate Lösungsvorschläge vorgestellt. Die Lösungen sollen dabei als Ansätze dienen und eine Hilfestellung für die Entscheidungsträger bieten, um die Risiken zu minimieren.
In: Diplomarbeit
Aus der Einleitung: Am 01.01.1999 erfolgte durch die Vollendung der EWWU ein maßgeblicher Schritt für das Zusammenwachsen der europäischen Staaten. Gleichzeitig ging die exekutive Kompetenz in geld- und währungspolitischen Fragen von den Mitgliedstaaten auf die neu geschaffene EZB über. Damit wurden erstmalig Befugnisse für dieses konstitutive Gebiet der Makroökonomie von der nationalen Zuständigkeit an eine Gemeinschaftsinstanz übergeben. Mit der Einführung des Euro-Bargeldes zum 01.01.2002 war die Währungsunion dann auch greifbar. Heute ist das Euro-Währungsgebiet nicht nur einer der wichtigsten Wirtschaftsstandorte weltweit, auch die Einheitswährung hat sich in dieser kurzen Zeit zu einer der bedeutendsten Währungen der Welt entwickelt. Problemstellung: Von der Konzeption bis zur täglichen Arbeit ist die EZB als operativer geld- und währungspolitischer Pfeiler der EWWU das Thema zahlloser Kontroversen. Neben den wirtschaftsfachlichen Auseinandersetzungen haben vor allem die politischen Debatten aktuell eine starke mediale Präsenz. Aufgrund der signifikanten Bedeutung der Geld- und Währungspolitik, sowie der gegenwärtig fortwährenden, oft antagonistischen Dispute ist die EZB Gegenstand dieser Arbeit. Dabei soll untersucht werden, ob die gemeinschaftliche Arbeit durch die EZB erfolgreich war. Hierfür wird der Zeitraum von 2002 bis 2006 betrachtet, da erst mit der Einführung des Euro-Bargeldes das volle Bewusstsein für die gemeinsame europäische Politik auf diesen Gebieten geweckt wurde. Weiterhin erfolgt so eine Ausklammerung der Anfangsphase, welche Vor- und Nachteile bedingt durch die Neuerrichtung dieser Institution enthalten kann, die aber keine Relevanz für die objektive Beurteilung der Zentralbankpolitik haben. Gang der Untersuchung: Da es sich bei der Geld- und Währungspolitik der EZB um ein sehr komplexes Thema handelt, ist eine differenzierte Untersuchung der Teilaspekte nötig, um eine Aussage über deren Erfolg treffen zu können. Hierbei kann nicht nur eine Fokussierung auf das Ergebnis der Zentralbankarbeit erfolgen, sondern vielmehr müssen Erkenntnisse über die zugrunde liegenden Konzeptionen, deren Umsetzung und den daraus resultierenden Auswirkungen gewonnen werden. Nach einer Einordnung in den geschichtlichen Kontext sollen zunächst die institutionellen Voraussetzungen in Form der rechtlichen Grundlagen und des organisatorischen Aufbaus vorgestellt, sowie die Aufgaben und Ziele der EZB, einschließlich der suggestiven Wirkungen dieser untereinander, vorgestellt werden. Im vierten Kapitel wird die Geldpolitik, also die Maßnahmen zur Steuerung der Liquiditäts-versorgung und des Geldumlaufes innerhalb einer Volkswirtschaft, untersucht. Hierbei soll basierend auf der Marktsituation, der zur Verfügung stehenden Instrumente und der gewählten Strategie das theoretische Handlungskonzept und dessen praktische Umsetzung analysiert werden. Anschließend wird die Währungspolitik, das heißt die nach außen gerichtete Gestaltung der Währungsordnung, dargestellt. Dazu erfolgt die Erörterung der währungspolitischen Situation und deren Einfluss auf die gegebenen Ziele der EZB. Im nachfolgenden Kapitel werden besondere Bestimmungsfaktoren betrachtet, die eine hohe Relevanz für den Erfolg der Zentralbankpolitik aufweisen. Inhalt des siebten Kapitels ist die Überprüfung des Erreichens der Zielvorgaben. Abschließend erfolgt eine Bewertung des Erfolges der gemeinsamen europäischen Geld- und Währungspolitik durch die EZB. Dabei soll auch ein Ausblick auf die Erfordernisse der zukünftigen Arbeit gegeben werden.Inhaltsverzeichnis:Inhaltsverzeichnis: ABKÜRZUNGSVERZEICHNISIV ABBILDUNGSVERZEICHNISV TABELLENVERZEICHNISVI 1.EINLEITUNG1 1.1Problemstellung1 1.2Gang der Untersuchung2 2.DIE WIRTSCHAFTS- UND WÄHRUNGSUNION UND DIE EUROPÄISCHE ZENTRALBANK3 2.1Die Entstehung der Europäischen Wirtschafts- und Währungsunion3 2.2Die Rechtsgrundlagen der Europäischen Zentralbank4 2.3Der institutionelle Aufbau der Europäischen Zentralbank4 2.3.1Das Europäische System der Zentralbanken5 2.3.2Das Direktorium5 2.3.3Der Rat der Europäischen Zentralbank6 2.4Bewertung der Organisation der Europäischen Zentralbank7 3.DIE AUFGABEN UND ZIELE DER EUROPÄISCHEN ZENTRALBANK10 3.1Die übertragenen Aufgaben10 3.2Die Ziele der Europäischen Zentralbank11 3.2.1Die primäre Bedeutung der Preisstabilität11 3.2.2Die quantitative Bestimmung der Preisstabilität13 3.3Die Zielbeziehungen16 4.DIE GEMEINSAME EUROPÄISCHE GELDPOLITIK20 4.1Der Transmissionsprozess20 4.2Die geldpolitischen Instrumente23 4.2.1Offenmarktgeschäfte23 4.2.2Ständige Fazilitäten26 4.2.3Mindestreserven27 4.3Die Strategie der Europäischen Zentralbank27 4.3.1Die wirtschaftliche Analyse28 4.3.2Die monetäre Analyse31 4.3.3Alternative geldpolitische Strategien35 4.4Grenzen der Geldpolitik36 4.5Bewertung der 2-Säulen-Strategie39 4.6Die geldpolitische Arbeit der Europäischen Zentralbank42 4.6.1Erste Phase: Zinssenkungen43 4.6.2Zweite Phase: Konstantes Zinsniveau44 4.6.3Dritte Phase: Zinssteigerungen46 4.6.4Bewertung der geldpolitischen Entscheidungen47 5.DIE GEMEINSAME EUROPÄISCHE WÄHRUNGSPOLITIK49 5.1Die währungspolitische Situation49 5.2Der Einfluss der Währungspolitik auf die Preisstabilität50 6.DETERMINANTEN EINER ERFOLGREICHEN ZENTRALBANKPOLITIK53 6.1Unabhängigkeit53 6.1.1Arten der Unabhängigkeit53 6.1.2Die Bedeutung der Unabhängigkeit54 6.2Transparenz55 6.2.1Das Problem der demokratischen Legitimierung55 6.2.2Transparenz als Problemlösung56 6.3Glaubwürdigkeit57 7.DIE ZIELERFÜLLUNG DER EUROPÄISCHEN ZENTRALBANK61 7.1Die Erfüllung des Ziels der Preisstabilität61 7.2Inflationsdifferenziale im Euro-Währungsgebiet63 8.SCHLUSSBETRACHTUNGEN66 ANHANG78 LITERATURVERZEICHNIS122Textprobe:Textprobe: Kapitel 3.2.1, Die primäre Bedeutung der Preisstabilität: Der Begriff der Preisstabilität wird durch den EGV nicht weiter definiert. Die wörtliche Interpretation dieses Terminus würde bedeuten, dass alle Einzelpreise einer Volkswirtschaft konstant blieben. Da dies in der Realität unmöglich ist, ist Preisstabilität als Preisniveaustabilität zu verstehen. Dies bedeutet, dass sich Preise einzelner Güter ändern können, aber der Geldwert gegenüber dem Mittelpreis aller Güter gleich bleibt. Aufgrund der praktischen Relevanz soll das Verfehlen der Preisstabilität am Beispiel der Inflation dargestellt werden, welche als anhaltender Anstieg des allgemeinen Preisniveaus definiert wird. Ursachen und Auswirkungen für Deflation stellen sich analog mit sinkendem Preisniveau dar. Eine ausführliche Betrachtung der Deflation soll nicht erfolgen, da ein über längere Zeit sinkendes Preisniveau als sehr unwahrscheinlich gilt. Neben der Einordnung nach Geschwindigkeit und Höhe, wird Inflation grundsätzlich nach ihrer Ursache in Nachfrage- und Angebotsinflation unterschieden. Bei der Nachfrageinflation übersteigt die Nachfrage durch höheren privaten oder staatlichen Konsum, zunehmende Auslandnachfrage oder erhöhte Investitionen das Angebot am Markt, woraufhin die Preise durch den Preismechanismus steigen. Auf der Angebotsseite führen gestiegene Lohnsätze, Importpreise oder Steuern zu einer Umlegung auf die Güterpreise. Ebenso vielschichtig wie die Ursachen, sind auch die Inflationsfolgen. Die Inflation wirkt auf die eigentlichen Funktionen des Geldes. Mit dem Verlust der Kaufkraft geht der Verlust der Rolle als Wertaufbewahrungsmittel und als Messgröße für Werte einher. Die Funktion als Tauschmittel nimmt ab, da der reale Gegenwert nicht mehr vorhanden ist. Durch die Geldentwertung ist die Beurteilung relativer Preise, als Grundlage fundierter Konsum- und Investitionsentscheidungen kaum möglich. Dem Markt wird so die Möglichkeit der effizienten Ressourcenallokation und damit Produktionspotenzial entzogen. Auch die Allokationseffizienz des Kapitalmarktes nimmt mit steigendem Preisniveau ab. Längerfristige Zinsen enthalten Risikoprämien, die mit steigender Inflationserwartung zunehmen und damit Investitionen unattraktiver machen. Weitere Auswirkungen ergeben sich im Bereich der Umverteilung. Gläubiger erleiden einen Realverlust, wenn sie die Inflationsrate nicht vorhersehen konnten. Demgegenüber steht ein Realgewinn auf der Schuldnerseite, da der reale Wert der Verbindlichkeiten gesunken ist. Nachteile entstehen auch für die Bezieher von Lohn- und Transfereinkommen, wenn die inflationäre Entwicklung nicht korrekt prognostiziert wurde, da eine schnelle Anpassung der Bezüge an die Inflationsrate i.d.R. nicht möglich ist. Es ergeben sich so erhebliche Vermögensverluste, wenn eine rasche Umschichtung in reale Vermögenswerte wie Immobilien oder Gold nicht erfolgen kann. Vor allem die schwächeren Gruppen der Gesellschaft, ohne ausreichende Absicherung, sind von diesen willkürlichen Einkommens- und Vermögensumverteilungen besonders betroffen. Die aufgeführten inflationären Auswirkungen machen deutlich, dass eine fehlende Geldwertstabilität die verschiedensten volks-wirtschaftlichen Bereiche mit erheblichen, teils existenzbedrohenden Folgen betrifft. Die deflationären Auswirkungen stellen sich analog mit einem sinkenden Preisniveau dar. Aufgrund des breiten Einflusses und der intensiven sozialen und wirtschaftlichen Effekte ist Preisstabilität als Grundlage für das Funktionieren einer Volkswirtschaft und die Sicherung des gesellschaftlichen Zusammenlebens unabdingbar. Durch diese Erkenntnisse erscheint die die hervorgehobene Stellung dieses Ziels gerechtfertigt. Die quantitative Bestimmung der Preisstabilität: Nach der qualitativen Erörterung soll geklärt werden, wie das Preisniveau im Euro-Währungsgebiet ermittelt und das Zielniveau bestimmt wird. Die Messung des Preisniveaus erfolgt über den HVPI, den das Statistische Amt der EU, Eurostat, aus den monatlichen Daten der nationalen Statistikämter ermittelt. Die Verwendung des HVPI ist nötig, da sich die nationalen Preisindizes teilweise deutlich unterscheiden. Grundlage sind die Preise für Waren und Dienstleistungen in einem repräsentativen Warenkorb mit 12 Hauptkomponenten. Außerdem werden verschiedene Teilindizes ermittelt. Da der HVPI einzig als Preisindex angelegt ist, werden nur im Euro-Raum getätigte Ausgaben erfasst. Die Preisindizes werden jedes Jahr miteinander verkettet und sowohl die Zusammensetzung des Warenkorbes, als auch die Gewichtung der Länder angepasst. Dabei hat Deutschland ein Ländergewicht von etwa 30%, Frankreich und Italien jeweils circa 20%. Als Basisjahr wurde zunächst 1996 festgelegt. Seit 2006 ist das Jahr 2005 der Referenzzeitraum. Während herkömmliche Preisindizes eine unveränderte Zusammensetzung des Warenkorbs über längere Zeit messen, besteht der Vorteil der Verkettung in der größeren Aktualität der verwendeten Verbrauchsgewohnheiten. Damit geht allerdings teilweise die Funktion des reinen Preisindexes verloren. Dies ist kritisch zu sehen, da die Inflationsraten im Vergleich zum Vorjahr durch Änderungen im Nachfrageverhalten und durch die Ländergewichtung beeinflusst werden können. Dadurch, dass die 3 großen Volkswirtschaften des Euro-Währungsgebietes mehr als 2/3 zum gesamten Preisniveau beitragen, kann sich die Inflationsrate in einem kleineren Land deutlich von der harmonisierten Preissteigerungsrate unterscheiden. Insgesamt weicht der HVPI zwar von seiner Konzeption als Preisindex ab, stellt aber durch die Orientierung an den Lebenshaltungskosten die Marktentwicklung aktueller dar. Kritik gibt es auch an der Zusammensetzung des HVPI, der eine allumfassende Inflationsrate widerspiegelt, in der kurzfristige Entwicklungen stark gewichtet sind. Es wird eine Inflationsmessung nach Vorbild der FED gefordert, die auf die Bestimmung einer Kerninflationsrate setzt, bei der die Preise für Energie und unbearbeitete Nahrungsmittel unberücksichtigt bleiben, um übermäßige Volatilität aus dem Preisindex herauszunehmen. Durch das Herausrechnen der meist wegen exogener Wirkungen kurzfristig stark schwankenden Bereiche soll das eigentliche volkswirtschaftliche Preisniveau dargestellt werden. Folgt man diesem Ansatz, ergibt sich für das Euro-Währungsgebiet allerdings ein vollkommen anderes Resultat (siehe Abb. 1: Vergleich HVPI – Kerninflation). Die Darstellung zeigt, dass sich entgegen der theoretischen Annahme die Kerninflationsrate wesentlich volatiler als der Gesamtindex präsentiert. Zwar ist der Nutzen von Teilindizes zur detailierten Analyse unbestreitbar und wird auch praktiziert, jedoch erscheint eine Fokussierung auf die Kerninflation statt des gesamten HVPI, wie in der Kritik gefordert, anhand dieser Erkenntnisse als nicht empfehlenswert. Welche jährliche Änderungsrate des HVPI mit dem Ziel der Preisstabilität vereinbar ist, bestimmte die EZB erstmals 1998. Demnach wird Preisstabilität definiert als "Anstieg des Harmonisierten Verbraucherpreisindex (HVPI) von unter 2% gegenüber dem Vorjahr". Im Rahmen der Überprüfung ihrer geldpolitischen Strategie 2003 wurde diese Definition präzisiert. Als Preisstabilität ist "mittelfristig eine Preissteigerungsrate unter, aber nahe der 2%-Marke" anzusehen. Diese Zielsetzung bedeutet zum einen, dass eine Inflationsrate über 2% und zum anderen eine sehr geringe Inflationsrate mit dem Ziel der Preisstabilität nicht vereinbar sind. Bei der Kalkulation wurden mögliche Messfehler des HVPI, die das Preisniveau leicht überzeichnen können und eine Sicherheitsmarge zur Deflation berücksichtigt (EZB 2004a, S. 52). Eben diese findet in der Öffentlichkeitsdarstellung aber nur geringe Aufmerksamkeit. Deflationäre Folgen wie der reale Wertanstieg von Schulden oder der Anreiz Konsum- und Investitionsentscheidungen aufzuschieben wiegen ebenso schwer, wie die der Inflation. Darüber hinaus kann man Deflation mit geldpolitischen Mitteln nur begrenzt entgegenwirken. Auch wenn das Euro-Währungsgebiet von einem bedrohlich sinkenden Preisniveau im Gegensatz zu starken Inflationswellen noch nicht bedroht war, so zeigt der Blick auf Japan, dass die deflationären Gefahren angesichts der geringen Sicherheitsmarge zwischen Preisstabilität und Deflation nicht unterschätzt werden dürfen. Die EZB sollte daher das öffentliche Bewusstsein für die Folgen einer Deflation stärken und einen konkreten Maßstab in Form einer Preisniveauuntergrenze festlegen. Peter Leipold, Diplomverwaltungswirt, Abschluss 2008 an der Fachhochschule für Verwaltung und Dienstleistung Reinfeld. Derzeit tätig bei der Deutschen Rentenversicherung Mitteldeutschland.
In: Bachelorarbeit
Aus der Einleitung: 1990 waren 2.000 Marken im Fernsehen vertreten und warben um die Gunst des Verbrauchers. In zehn Jahren stieg die Markenpräsenz im TV um den Faktor fünfunddreißig. D.h. im Jahr 2000 waren es 69.000 Marken, die vom Rezipienten wahrgenommen und schlussendlich konsumiert werden sollten. Gleichzeitig ist das Perzeptionsvermögen in den vergangenen vierzig Jahren von 40 Prozent auf nur 8 Prozent gesunken. Werbung ist heutzutage nicht nur außerhalb des Internet allgegenwärtig. Durch die Möglichkeiten, die das World Wide Web werbetreibenden Unternehmen in Form von Bannern und Pop-Ups bietet, hat sich dieser Zustand weiter verschärft. Täglich werden potentielle Kunden mit 2.500 bis 5.000 Werbebotschaften konfrontiert. Schon lange ist kein Konsument mehr in der Lage, diese Werbeflut aufzunehmen und zu verarbeiten. Über 78 Prozent der Deutschen sind der Meinung, dass sie mit zu viel Werbung in Kontakt kommen. Diese ungewollte Quantität der Botschaften führt dazu, dass Werbung als störend und aufdringlich empfunden wird. Daher haben sich viele Menschen einen "inneren Werbefilter" für klassische Formen der Markenkommunikation geschaffen: Der Werbeblock im Fernsehen wird weggeschaltet, die Anzeige im Magazin überblättert, das Werbeplakat an der Bushaltestelle ignoriert und der Internet-Browser so eingestellt, dass Werbung schlicht nicht mehr dargestellt wird. Diese bekannten Schutzmechanismen und die sinkenden Werbebudgets zwingen die Werbewirtschaft, neben oder anstelle von klassischen Werbeformen auch alternative Wege zu beschreiten. Das Schlagwort, auf das sich die Branche heute stützt, heißt virales Marketing. Die Idee ist denkbar einfach: Aufgrund von Empfehlungen des werbenden Gutes unter den Konsumenten soll der Werbefilter umgangen werden. So werden die Konsumenten zum eigentlichen Botschafter und Verteiler der werbenden Inhalte. In der Praxis erfreut sich ein Aspekt der viralen Markenkommunikation nicht nur bei Unternehmen, sondern auch bei den Nutzern großer Beliebtheit. Virale Werbefilme werden von Unternehmen dazu genutzt, auf unterhaltsame Art und Weise Aufmerksamkeit für Marken und Produkte zu erregen und sich gleichsam in einem epidemischen Ausmaß zu verbreiten. Problemstellung: Die Reichweite eines viralen Werbefilms hängt im Gegensatz zu klassischen TV-Werbefilmen nicht von der Höhe des Werbebudgets für die Platzierung ab. Vielmehr müssen sie so beschaffen sein, dass der Nutzer sie als empfehlenswert empfindet und eben nicht als Werbung klassifiziert. Täglich werden auf Youtube bis zu 100 Millionen Videos abgerufen und 65.000 Spots neu in das Archiv eingepflegt. Diese Zahlen machen deutlich, dass nicht jedes Video von einem großen Personenkreis gesehen wird. Im Kampf um die Aufmerksamkeit der Nutzer veranlassen diese Aspekte, Unternehmen mehr und mehr bei der Gestaltung des Inhalts die Werbewirkung dem Verbreitungspotential unterzuordnen. Betrachtet man die fünf am meisten frequentierten viralen Werbefilme aus dem Jahr 2007, so haben drei von fünf keinerlei werbenden Inhalt oder lassen keine auf den ersten Blick ersichtliche Verbindung zur Marke erkennen. Diese viralen Spots nutzen zwar ihr epidemisches Verbreitungspotential, setzen aber auch ein hohes Engagement der User voraus, damit diese die Markenbotschaft erkennen. In der vorliegenden Arbeit soll untersucht werden, ob ein viraler Werbefilm trotz eindeutiger Markenbotschaft und einem hohen Maß an werbendem Inhalt ein epidemisches Verbreitungs-potential erreichen kann und welche Vorrausetzungen dafür erfüllt sein müssen. Dabei sollen alle Aspekte der strategischen Planung, Entwicklung und Platzierung auf ihr Verbreitungspotential untersucht und Grenzen sowie Stärken und Schwächen herausgearbeitet werden. Zudem sollen Möglichkeiten der Erfolgsmessung aufgezeigt und näher beschrieben werden. Abschließend sollen alle in der Theorie erarbeiteten Bestandteile dieser Arbeit in Kapitel 8 'Case-Studies' Beispielen aus der Praxis zugeordnet werden. Gang der Untersuchung: Im Folgenden soll ein Überblick über die Kapitel gegeben und deren wesentlichen Inhalte prägnant erläutert werden: Kapitel 2: Gegenstand des 2. Kapitels sind die Grundlagen, die für die weiteren Ausführungen dieser Arbeit dienen. Dazu zählt die Entstehung des Begriffs 'virales Marketing' sowie seine Definition. Des weiteren sollen virale Werbefilme beschrieben, definiert und im Kontext des klassischen und viralen Marketings eingeordnet werden. Weiterer Bestandteil des 2. Kapitels sind Grundlagen und Voraussetzungen für die Empfehlungsprozesse, die für virale Werbefilme unabdingbar sind. Abschließend wird Gladwells Theorie des Tipping-Points und die damit verbundenen Gesetzmäßigkeiten beschrieben. Kapitel 3: Kapitel 3 nennt und beschreibt die grundsätzlichen Erfolgsfaktoren viraler Werbefilme. Sie sind Grundlage und Katalysator für den Empfehlungsprozess und können den Gemütszustand des Rezipienten und damit seine Verbreitungsbereitschaft maßgeblich beeinflussen. Kapitel 4: In diesem Abschnitt werden die weiterführenden Erfolgsfaktoren wie das Benennen von erreichbaren Zielen und Zielgruppen sowie die Wahl des Erstkontakts beschrieben und erläutert. Kapitel 5: Dieses Kapitel beschreibt die Wirkdimensionen viraler Werbefilme und bildet damit den Kern der Arbeit. Es soll aufgezeigt werden, wie die Wirkung des viralen Werbevideos und dessen werbender Inhalt beschaffen und verknüpft sein müssen, um den optimalen Erfolg für die Werbewirtschaft in Ausbreitung und Werbewirkung zu erzielen. Kapitel 6: Kapitel 6 wird aufzeigen, wie virale Werbefilme und klassische Marketingaktivitäten voneinander profitieren und sich in ihrer Wirkung unterstützen können. Kapitel 7: Gegenstand des 7. Kapitels ist die quantitative sowie qualitative Erfolgskontrolle. Hier werden sowohl Stärken als auch Schwächen im Vergleich zum klassischen Marketing aufgezeigt. Kapitel 8: Abschließend werden die im Verlauf dieser Arbeit erarbeiteten Theorien auf praktische Beispiele übertragen und näher erläutert werden. Kapitel 9: Dieser Abschnitt enthält das Schlusswort der Arbeit. Hier werden alle gesammelten Erkenntnisse zusammengefasst und abschließend erläutert. Zudem soll ein Ausblick auf die Zukunft der viralen Werbefilme gegeben werden.Inhaltsverzeichnis:Inhaltsverzeichnis: Abbildungsverzeichnis4 Abkürzungsverzeichnis5 1.Einleitung6 1.1Problemstellung und Zielsetzung7 1.2Aufbau der Arbeit8 2.Grundlagen11 2.1Entstehung11 2.2Definition12 2.2.1Virales Marketing12 2.2.2Virale Kommunikationspolitik14 2.2.3Virale Werbefilme15 2.3Empfehlungsprozesse17 2.3.1Soziale Netzwerke19 2.3.2Vor- und Nachteile digitaler Kommunikation22 2.3.3Der Tipping Point25 3.Grundsätzliche Erfolgsfaktoren viraler Container27 3.1Kostenlose Abgabe27 3.2Mühelose Übertragung28 3.3Verfügbarkeit30 4.Weiterführende Erfolgsfaktoren viraler Container31 4.1Ziele31 4.2Seeding - Die Wahl des ersten Trägers32 4.2.1Zielgruppe32 4.2.2Zielplattform33 5.Wirkdimensionen viraler Werbefilme35 5.1Kundennutzen35 5.2Memetik36 5.2.1Memetische Trigger38 5.3Werbewirkung42 5.3.1Priming43 5.3.2Yerkes-Dodson-Gesetz44 6.Virale Werbefilme im Marketing-Mix46 7.Erfolgsmessung48 7.1Quantitative Messung48 7.2Qualitative Messung49 8.Case-Studies52 8.1Hornbach - "Ron Hammer vs. Hornbach"52 8.2DSF - "Mehr Bundesliga-Spaß?"56 8.3K-Fee – 'So wach warst du noch nie!'59 8.4Obi – 'Hammer-Jongleur'62 9Schlusswort66 Literaturverzeichnis69Textprobe:Textprobe: Kapitel 3., Grundsätzliche Erfolgsfaktoren viraler Container: Im Folgenden sollen die grundsätzlichen Elemente erläutert werden, die für die Verbreitung eines viralen Containers nötig sind. Diese allein sind zwar keine Garantie für den Erfolg einer Kampagne – werden sie hingegen nicht erfüllt, so wird sich die Marketingbotschaft keinesfalls verbreiten. Grunder nennt in ihrer Arbeit Faktoren, die in der Tendenz den Ausführungen von Langner entsprechen und als Vorraussetzung für die epidemische Verbreitung und damit des Erreichens der kritischen Masse dienen: - Kostenlose Abgabe. - Mühelose Übertragbarkeit. - Verfügbarkeit. Diese Kernelemente sollen im Folgenden im Bezug auf virale Werbefilme näher erläutert werden. Kostenlose Abgabe: Kostenpflichtige Elemente einer viralen Kampagne wirken wie ein Filter. Erfolgreiche Kampagnen sind daher in der Regel kostenlos. 'Nur so erreicht man eine hinreichende Masse an Konsumenten, die die Botschaft weiter empfehlen und so multiplizieren können'. Dieser Anforderung werden virale Werbefime in der Regel immer gerecht. Gerade durch Videoportale wie Youtube, die seit ihrer Gründung eine "Follow the Free"-Strategie verfolgen, ermöglichen dem Konsumenten jedes Video zu jeder Zeit kostenlos abzurufen und zu empfehlen. Zudem sollten Kosten in diesem Zusammenhang nicht nur als finanzieller Aufwand verstanden werden: Seit Google im Oktober 2006 Youtube für 1,65 Milliarden US-Dollar kaufte, stehen immer wieder Gerüchte um Werbung im Raum, die vor die auf der Plattform bereitstehenden Clips geschaltet werden sollen. Wird dies eines Tages verwirklicht, würde Youtube als Multiplikator für virale Werbevideos an Nutzen einbüßen. Die Container wären dann nicht mehr gänzlich kostenlos, da der Nutzer für die bereitstehenden Videos mit einigen ungewollten Werbesekunden zahlt. Mühelose Übertragung: Zeit ist ein knappes Gut. Virale Werbefilme sollten sich daher immer mit wenigen Klicks und ohne große Mühen im sozialen Netzwerk verbreiten lassen. Um dies zu gewährleisten, gibt es zwei wichtige Kriterien, auf die besonders geachtet werden sollte. Format: Bei der Wahl des Formats ist besonders auf die Dateigröße zu achten. Denn jede Sekunde des Wartens schmälert zum einen die Aufnahmebereitschaft des Nutzers, zum anderen aber auch das Verlangen, das Video weiterzuleiten. In den meisten Fällen wird, nach einer Studie von Perry und Whitaker, ein Download nach mehr als einer Minute abgebrochen. Zudem können so auch Rezipienten erreicht werden, die nur über eine geringe Bandbreite, also einen langsamen Internetanschluß verfügen. Des weiteren ist auf die Wahl eines gängigen Codecs zu achten. Kaum ein Nutzer ist bereit, eine Zusatzsoftware, mit der er ein ungewöhnliches Videoformat wiedergeben kann, zu installieren. "The moment you ask users to do any additional work before they can interact with your campaign, you have lost them." Es sollte zum einen also auf die Kompatibilität, zum anderen aber auch auf die Dateigröße geachtet werden. Kanäle: Ein weiterer wichtiger Aspekt ist das Bereitstellen geeigneter Kanäle, über die sich der virale Clip verbreiten kann. Das Video sollte dem Nutzer auf jeden Fall als Download zur Verfügung stehen. So kann er sich den Inhalt ohne Wartezeiten immer wiedergeben lassen. Zudem ist der User in der Lage, den Inhalt auch auf anderen Webseiten einzubinden oder ihn gar offline zu verbreiten. Als ein zweiter wichtiger Kommunikationskanal für die Empfehlung ist an dieser Stelle die E-Mail zu nennen. Um ein Viral via E-Mail versenden zu können, muss zunächst der Download auf die eigene Festplatte erfolgen. Wird der Clip dann als Anhang einer E-Mail versendet, wird diese von Firewalls geblockt oder gar gelöscht. Um diese Problematik zu vermeiden, können so genannte "Send to friend"-Schaltflächen eingesetzt werden. Auf diese Weise kann der User den Link an Dritte unter Angabe der E-Mail-Adresse weiterleiten. Jedoch wird diese Methode des Versands von Links oft als anbieterseitiges Sammeln von E-Mail-Adressen missverstanden. Deshalb sollte die URL (Uniform Resource Locator) des viralen Werbefilms immer eindeutig und kurz gehalten werden. Auf diese Weise ermöglicht man dem Nutzer, den Link aus dem Browser zu kopieren und via icq, skype oder E-Mail weiterzuleiten. Im Idealfall sollte der Empfänger mit nur einem Klick auf einen nicht zu kryptisch anmutenden Link sein Ziel erreichen. Verfügbarkeit: Virale Kampagnen sollen innerhalb kürzester Zeit möglichst viele Kontakte erzielen. Die exponentiell wachsende Zahl der an der Nachfrage beteiligten Menschen wird dabei sehr oft unterschätzt. Viele Unternehmen können so "gerade am Höhepunkt der viralen Verbreitung nicht die Nachfrage der Konsumenten decken." Vor allem im Internet ist die Verfügbarkeit der entscheidende Faktor. Der Server, der das Viral bereitstellt, muss so beschaffen sein, das er den Bedarf der Konsumenten jederzeit decken kann. Ist dies nicht der Fall, so wird die virale Verbreitung unterbrochen und der Gemütszustand des Rezipienten negativ beeinflusst. Dieser Faktor kann das Unternehmen eine Vielzahl an Rezipienten kosten.
In: Diplomarbeit
Inhaltsangabe:Einleitung: Die immer wiederkehrende politische und öffentliche Debatte um die Qualität in Alten- und Pflegeheimen wird seit 2004 durch die dreijährig erscheinenden Prüfberichte des Medizinischen Dienstes der Krankenkassen der Spitzenverbände (MDS) weiter angeheizt. Nach dem Erscheinen der Prüfberichte sind Pressemiteilungen, wie folgende, in den verschiedensten Tages- und Wochenzeitungen zu lesen: Prüfbericht offenbart katastrophale Zustände bei der Pflege. Jeder dritte Heimbewohner bekommt nicht genug zu essen, Bettlägerige liegen sich wund, Verwirrte werden vernachlässigt - der Prüfbericht der Krankenkassen deckt laut Bild-Zeitung dramatische Defizite bei der Altenpflege auf. In vielen Heimen sei die Versorgung noch immer gesundheitsgefährdend. Dass diese Pressemeldung nicht wirklich dem Bild der Realität entspricht, wird bei dem Lesen der Berichte des MDS sehr schnell deutlich. Was eine Gute Pflegerische Qualität auszeichnet, oder wie diese erfasst werden kann, darüber gibt es selbst in der Fachwelt verschiedene Auffassungen. Wird diese Diskussion dann öffentlich, prallen sehr viele verschiedene Meinungen aufeinander, und das Spektrum ist kaum noch zu überschauen. Um für diese Arbeit eine einheitliche Diskussionsgrundlage zu schaffen, wird auf das Qualitätsverständnis des MDS zurückgegriffen. Problemstellung: Die durch den Demographischen Wandel hervorgerufene Alterung der Gesellschaft wird nach verschiedensten Meinungen bis zum Jahre 2050 dazu führen, dass die Zahl der Hochaltrigen (mindestens 80 Jahre) von Heute 3.680.820 auf ca. 9,1 Mio. ansteigen wird.Diese neun Millionen Menschen werden künftig ca. 14 Prozent der Gesamtbevölkerung in Deutschland ausmachen. Da sich die Pflegequote von den unter 80 jährigen zu den über 80 jährigen fast verdoppelt, ist mit einem enormen Anstieg der Pflegebedürftigen im Jahr 2050 zu rechnen. Des Weiteren wird die Umkehrung der Bevölkerungspyramide dazu führen, dass auf einen über 80 jährigen nur 4 Menschen im Alter von 20-60 komme. Dies kann dazu führen das die Pflege von alten und pflegebedürftigen Menschen nicht mehr großteils von Familienangehörigen oder sozialen Netzwerken erledigt werden kann, sondern die Nachfrage nach professionellen Pflegekräften steigt. Eine Herausforderung wird darin bestehen diese neu entstehende Nachfrage auf einem qualitativ hochwertigen Level zu halten. Gleichzeitig bietet dies beschäftigungspolitische Chancen, die es zu Nutzen gilt. Vor diesem Hintergrund muss die Quelle qualitativ hochwertiger Pflege genauer untersucht werden, um systematische Vorteile nutzen zu können. Ziel dieser Arbeit ist, den Begriff Qualität in der Pflege mit seinen Facetten zu erläutern, und einen Überblick über die aktuelle Lage auf dem deutschen Pflegemarkt zu geben. Aufbauend auf dieser Grundlage sollen die verschiedenen institutionellen Träger von Pflegeeinrichtungen auf grundlegende Unterschiede untersucht werden. Aufgrund dieser Unterschiede werden Arbeitshypothesen erstellt welche am Ende dieser Arbeit überprüft werden, um etwaige Rückschlüsse auf die Träger ziehen zu können. Mit diesen Rückschlüssen können komparative Vorteile einzelner Träger aufgezeigt werden, um etwaige Empfehlungen für Alten- und Pflegeheime auszusprechen. Gang der Untersuchung: Um eine Diskussionsbasis zu schaffen wird ein kurzer historischer Abriss über die Entstehung der Institution Alten- und Pflegeheim gegeben. Anschließend wird die aktuelle Lage des Pflegemarkts in Deutschland, mit einem Ausblick in das Jahr 2050, und den damit verbundenen Chancen und Risiken beschrieben. Weiter wird der Begriff der Qualität näher beleuchtet und die verschiedenen Formen wie Struktur-, Prozess- und Ergebnisqualität werden erläutert. Bei den Merkmalen dieser werden erste Unterschiede der Träger deutlich und zu Hypothesen zusammengefasst. Es ist unumgänglich in diesem Kontext auch die verschiedenen Qualitätssicherungssysteme zu betrachten und deren Nutzen zu hinterfragen. Es gibt eine Vielzahl verschiedener Systeme, welche Vor- und Nachteile diese haben soll untersucht werden. Abschließend sollen die Arbeitshypothesen auf ihre allgemeine Gültigkeit hin überprüft werden, um Aussagen über die Träger und deren komparativen Vor- und Nachteile treffen zu können. In Zusammenarbeit mit dem Medizinischen Dienst der Krankenkassen Hessen (MDK-Hessen) sollten die Hypothesen anhand der vom MDK erhobenen Qualitätsberichte über stationäre Einrichtungen überprüft werden. Trotz der Tatkräftigen Unterstützung von Herr Dr. Gaertner und Dipl. Kaufmann Herr Jansen (Mitarbeiter des MDK-Hessen), war es leider nicht möglich die Träger des MDK von dem Nutzen dieser Untersuchung zu überzeugen. Somit schied für die Überprüfung der Hypothesen eine statistische Auswertung aus. Es fanden sich Experten im Bereich Pflege (Heimleitung / Pflegedienstleitung / Qualitätsbeauftragte), welche bereit waren im Rahmen eines Interviews Aussagen zu den aufgestellten Hypothesen zu geben. Anhand dieser Experteninterviews wurden die aufgestellten Hypothesen überprüft und ließen einen Rückschluss auf komparative Vorteile der Träger zu. Abschließend werden Forschungsimplikationen gegeben, um offene Fragestellungen in dem Bereich der Pflege möglichst schnell zu beantworten.Inhaltsverzeichnis:Inhaltsverzeichnis: AbbildungsverzeichnisIV TabellenverzeichnisV AbkürzungsverzeichnisVI 1Einleitung1 1.1Problemstellung1 1.2Zielsetzung der Arbeit2 1.3Verlauf der Arbeit3 2Historischer Hintergrund und aktueller Stand4 2.1Altenpflege im Wandel der Zeit4 2.2Die aktuelle Pflegesituation und deren Struktur7 2.2.1Die Pflegebedürftigen8 2.2.2Das Personal13 2.2.3Die Einrichtungen14 2.2.3.1Stationäre Einrichtungen15 2.2.3.2Ambulante Einrichtungen16 2.3Pflege in 30 bis 40 Jahren – Ein Ausblick18 2.3.1Demographischer Wandel18 2.3.2Herausforderungen einer alternden Bevölkerung20 2.3.3Chancen - Beschäftigungspotenziale21 3Qualität in der Altenpflege22 3.1Komplexität des Qualitätsgedankens22 3.1.1Strukturqualität23 3.1.2Prozessqualität24 3.1.3Ergebnisqualität25 3.2Qualität in der Pflege – empirische Ergebnisse25 3.2.1Strukturqualität26 3.2.2Prozessqualität27 3.2.3Ergebnisqualität29 3.3Qualitätssicherung30 3.3.1Qualitätsmanagementsysteme mit Gesamtkonzept32 3.3.2Qualitätsmanagementsysteme mit Teilkonzept34 3.3.3Qualitätssiegel und Zertifikate36 3.3.4Resident Assessment Instrument (RAI)39 3.4Ausarbeitung der zu überprüfenden Hypothesen40 4Analyse der Hypothesen41 4.1Vorgehensweise42 4.2Vorstellung der Experten43 4.2.1Bias in der Expertengruppe44 4.3Auswertung der Hypothesen anhand der Experteninterviews44 4.3.1Hypothese 145 4.3.2Hypothese 246 4.3.3Hypothese 347 4.3.4Hypothese 448 4.3.5Hypothese 549 4.3.6Hypothese 650 4.3.7Hypothese 751 4.3.8Weitergehende Fragen51 4.4Rückschlüsse auf die Träger52 5Schlussbetrachtung55 5.1Zusammenfassung55 5.2Implikationen für die Forschung57 5.3Kritische Würdigung58 6Anhang59 6.1Experteninterview 163 6.2Experteninterview 270 6.3Experteninterview 373 6.4Experteninterview 476 Literaturverzeichnis79Textprobe:Textprobe: Kapitel 2.1, Altenpflege im Wandel der Zeit: Der erste dokumentierte Fall von Altenpflege, stammt aus dem Jahre 46.000 v. Chr.. In Kurdistan wurden Skelette aus dieser Zeit gefunden, die so massive Schäden aufwiesen, dass diese Person damals nur durch organisierte Hilfe der Gemeinschaft ein hohes Alter erreichen konnten. Man kann allerdings davon ausgehen, dass diese frühe Form der Altenpflege eher zu den Ausnahmen gehört hat. So zeigt Beauvoir (1977), dass es in der Regel bei Urvölkern (Indianerstämmen, Eskimos und ähnliche) durchaus üblich war die Alten zum Sterben wegzubringen. Sobald die Alten also zu einer Belastung für die Gemeinschaft wurden, war ihr Schicksal vorbestimmt. In der Antike änderte sich die grundlegende Wertschätzung der Alten. Die mit dem Alter einhergehende Erfahrung und Weisheit steigerte ihr Ansehen. Sie fanden große Beachtung von allen Seiten des alltäglichen Lebens. Mitte des zweiten Jahrhunderts, wurde auch von Galen die Altenpflege (Geriokomie) zu einem eigenen Fachgebiet der Medizin erklärt und umrissen. Zu dieser Zeit lag die Fürsorgepflicht in fast allen Fällen bei der Familie, nur einige wenige Legionäre bekamen durch Landzuweisungen eine Art Altersvorsorge vom Staat. Durch die Urbanisierung und Ablösung der Großfamilie als versorgende Institution der Alten änderten sich die Rahmenbedingungen im frühen Mittelalter. Ältere waren in den urbanen Gebieten oft aufgrund ihrer wirtschaftlichen und körperlichen Situation gezwungen ihren Lebensunterhalt durch betteln zu bestreiten. Dieser sozial schwachen Klientel gehörten vor allem Witwen und Waisen an. In dieser Zeit war die Kirche die einzige Institution, welche im direkten Umfeld von Kirchen und Klöstern Spitäler für die Bedürftigen einrichtete. Diese stellten einen Schlafplatz und eine gewisse Versorgung bereit. Jene kann man als Wurzeln der heutigen Alten- und Pflegeheime bezeichnen. Borscheid legt nahe, dass die Pfründerverträge als eine zweite Wurzel der Alten- und Pflegeheime anzusehen sind. Diese ermöglichten einer gehobenen Klientel durch Zahlung eines gewissen Betrags den Einzug in ein Stift oder Domkapitel. Dort konnten sie, schon bevor sie arbeitsunfähig wurden, ein sorgenfreies Leben führen. Im Zuge der Reformation und dem Wandel einiger Grundwerte, galt diese Art der Lebensführung allerdings weitgehend als anrüchig und verlor an Bedeutung. Bis zum Ende des 18. Jahrhunderts änderte sich wenig an der Art der Einrichtungen. Alte wurden mit Siechen und Armen zusammen unter einem Dach versorgt. Angeregt von dem Versorgungswesen des Militärs entstanden Ende des 18. Jahrhunderts private Einrichtungen. Diese erlaubten es der besser gestellten, wirtschaftlich unabhängigen Schicht, ähnlich den Pfründerverträgen, nach ihrer Berufstätigkeit ein angemessenes Leben zu führen. Mit Beginn des 19. Jahrhunderts entstanden zusätzlich staatliche und kirchliche Heime, welche nur für alt und bedürftig. Durch die gestiegene Lebenserwartung und das Bevölkerungswachstum in der zweiten Hälfte des 19. Jahrhunderts wurde das Alter für die damaligen Verhältnisse zu einem Massenphänomen. Die Antwort des Reichstages war 1889 das Gesetz zur Einführung einer Invaliditäts- und Altersversicherung. Durch dieses, wenn auch sehr bescheidene, Einkommen alter Menschen traten, durch den finanziellen Anreiz, neben den Kirchen und dem Staat, verstärkt private Träger auf, welche Altenheime errichteten. Durch dieses Gesetz wurde die erste kalendarische Altersgrenze eingeführt. Noch im Mittelalter war es üblich das Alter an den individuellen Erscheinungsbildern fest zu machen, was eine Spanne von 30-75 Jahren zur Folge hatte. Durch das Gesetz wurde die Altersgrenze auf 70 Jahre gelegt. Somit galt man, unabhängig von der körperlichen Verfassung, erst als alt, wenn man diese Grenze überschritten hatte. Somit sind die Wurzeln der Alten- und Pflegeheime zwar im frühen Mittelalter zu sehen. Die Dreiteilung der Trägerschaft, wie wir sie heute vorfinden, ist allerdings ein relativ junges Gebilde welches Ende des 19. Jahrhunderts entstand. Auch ist der Ursprung der Ambulanten Versorgung Älterer erst um 1850 zu finden. Durch den ersten Weltkrieg und die folgende Inflation kam es zu einer Notsituation vieler älterer Menschen in der Weimarer Republik. Die Familien waren zerrissen und die Ersparnisse verloren ihren Wert. Dies führte dazu, dass die Alten nicht mehr in den Familien versorgt werden konnten. Aufgrund dessen kam es zu einem massiven Ausbau der Institution Altenheim. 1920 wurden erstmals von kirchlichen und staatlichen Trägern so genannte Musteranlagen erbaut, welche für ärmere und ältere Menschen gedacht waren. Der Standard dieser Einrichtungen orientierte sich an den gehobenen Einrichtungen der Privaten Träger. Dies ermöglichte erstmals für schlechter gestellte Schichten einen vergleichsweise hohen Lebensstandard im Alter. Für die Struktur der Altenheime an sich war die Zeit des dritten Reichs kein eigentlicher Bruch. Ihnen wurde weniger Aufmerksamkeit zuteil, sodass sie sich nur in geringem Maße weiterentwickelten. Ab den 50er und 60er Jahren erfolge ein regelrechter Bauboom im Bereich der Altenheime. Laut Kuratorium Deutsche Altershilfe (KDA) lassen sich diese Bauten in drei Generationen unterscheiden: 1. Generation (bis zu Beginn der 60er Jahre) – Diese Heime waren von einfachster sanitärer Ausstattung und dienten vor allem der Versorgung alter Menschen. Ein ausgeprägtes Merkmal dieser Generation waren die Mehrbettzimmer. 2. Generation (60er und 70er Jahre) – Diese Heime waren stark an Krankenhäusern orientiert, was eine hohe Gewichtung der Technik und Hygiene zur folge hatte. 3. Generation (ab den 80er Jahren) – Diese Heime waren die ersten welche die aus Sicht der Pflege erforderlichen, mit den realen Bedürfnissen der Bewohner versuchten zu verbinden. Dies ging mit der Schaffung für Individualität und Privatsphäre einher. Mit der Einführung der Pflegeversicherung 1995 änderten sich die Bedingungen für die Alten- und Pflegeheime. Durch die Einteilung der Pflegestufen entstand ein verstärkter Wettbewerb der verschiedenen Einrichtungen und Dienste. Seit der Einführung der Pflegeversicherung ist auch die Zahl der privaten ambulanten Dienste erheblich gestiegen. Durch die Expansion der ambulanten Dienste sowie die Etablierung neuer Wohnformen wie z.B. betreutes Wohnen oder die sog. Senioren-WGs, ist bei den meisten Altenheimen ein Trend hin zu reinen Pflegeeinrichtungen zu erkennen. Da sich nun die Möglichkeit bietet länger in der vertrauten Wohnung zu bleiben kann das Leben selbst im hohen Alter größtenteils in Eigenregie geführt werden. Erst im Fall der Pflegebedürftigkeit ziehen die Menschen dann in ein Heim. Somit steigt das Durchschnittsalter und die Pflegebedürftigkeit der Heimbewohner.
In: Jura
Inhaltsangabe:Zusammenfassung: Den Gegenstand dieser Dissertation bilden die arbeitsrechtlichen Konsequenzen, die sich aus einer Privatisierung für die bei der öffentlichen Hand beschäftigten Arbeitnehmer ergeben. Bei der Behandlung dieses Themas stehen nicht Privatisierungen im Blickpunkt, die in ausdifferenzierten Spezialgesetzen geregelt sind. Dazu zählen vor allem die Bahnreform mit den Regelungen des ENeuOG (Eisenbahnneuordnungsgesetz) und DBGrG (Deutsche Bahn Gründungsgesetz) und die Postreform mit den Regelungen des PTNeuOG (Postneuordnungsgesetz) und PostUmwG (Postumwandlungsgesetz). Die Betrachtung erstreckt sich vielmehr auf die zahlreichen Privatisierungsvorgänge, bei denen solche Spezialvorschriften fehlen. Dies betrifft in besonderem Maß die kommunale Ebene, auf der immer wieder öffentliche Einrichtungen privatisiert werden, wie beispielsweise Krankenhäuser, Versorgungseinrichtungen für Wasser und Energie, Nahverkehrsbetriebe und Entsorgungseinrichtungen. Der Trend zu solchen Privatisierungen nimmt spürbar zu. Damit stellt sich immer wieder die Frage, wie mit den Arbeitnehmern zu verfahren ist, bzw. mit welchen rechtlichen Auswirkungen die Arbeitnehmer zu rechnen haben, die nach der Privatisierung nicht mehr im Bereich der öffentlichen Hand beschäftigt werden können oder sollen. Der Ausgangspunkt der Untersuchung sind die unterschiedlichen Gestaltungsmöglichkeiten, die für ein Privatisierungsvorhaben eröffnet sind. Hierbei werden die für die Untersuchung relevanten Privatisierungen herausgearbeitet. Unter Berücksichtigung dieser unterschiedlich ausgestalteten Privatisierungsvorgänge wird ermittelt, welche arbeitsrechtlichen Konsequenzen eine Privatisierung durch die öffentliche Hand für die einzelnen Arbeitnehmer hat. Eine Kernfrage diesbezüglich ist, ob und inwieweit die Vorschrift des § 613 a BGB zur Anwendung kommen kann. Geklärt wird die grundsätzliche Anwendbarkeit dieser Vorschrift bei Maßnahmen der öffentlichen Hand. Zudem wird für jede relevante Privatisierungsform ermittelt, ob, bzw. unter welchen Voraussetzungen, § 613 a BGB seine Wirkung entfalten kann. In diesem Zusammenhang ist von besonderer Bedeutung, ob der Anwendungsbereich der Vorschrift auf eine wirtschaftliche Betätigung beschränkt ist oder auch eine Aufgabenwahrnehmung erfasst, bei der wirtschaftliche Aspekte fehlen. Daran anknüpfend stellt sich die Frage nach den konkreten Rechtsfolgen einer Privatisierung. Hierbei steht zunächst das Schicksal der Dienstvereinbarungen im Blickpunkt, die vor der Privatisierung in den öffentlich-rechtlich organisierten Bereichen beschlossen wurden. Diese könnten zum einen über § 613 a I S.2 BGB individualrechtlich fortgelten. Sie könnten aber auch als Kollektivregelungen Bestand haben. Ebenso wird für die betriebliche Ebene ermittelt, welche Konsequenzen eine Privatisierung für die Interessenvertretung in Form des Personalrats hat, der in den öffentlich-rechtlich organisierten Bereichen insbesondere für den Beschluss der Dienstvereinbarungen zuständig gewesen ist. Das als Personalrat gewählte Gremium könnte als Betriebsrat fortbestehen und die Belegschaft auch nach der Privatisierung vertreten. Es könnte aber auch eine Neuwahl eines Betriebsrats in dem privatrechtlichen Betrieb erforderlich sein. Dies könnte wiederum ein Übergangsmandat für den Personalrat erforderlich machen, damit für die von der Privatisierung betroffenen Arbeitnehmer keine Vertretungslücken entstehen. Für die überbetriebliche Ebene wird geklärt, welche Wirkung eine Privatisierung auf die Tarifverträge hat, die vor dem Zeitpunkt des jeweiligen Privatisierungsvorgangs abgeschlossen worden sind und in weiten Bereichen den Inhalt der Arbeitsverträge bestimmen. Auch hier kommt sowohl eine individualrechtliche Fortgeltung über § 613 a I S.2 BGB als auch eine kollektivrechtliche Fortgeltung in Betracht. Ein weiteres zentrales Problem bei Privatisierungen ist, dass die Arbeitnehmer in zahlreichen Fällen versuchen, sich gegen den Übergang ihres Arbeitsverhältnisses auf den Privaten durch einen Widerspruch zur Wehr zu setzen. Bei einer Privatisierung besteht das bedeutendste Motiv darin, durch die Widerspruchsausübung die "Privilegien" bei der öffentlichen Hand zu behalten und weiter in den Genuss der hohen Arbeitsplatzsicherheit und Solvenz des bisherigen öffentlichen Arbeitgebers zu kommen. Auch für diese Fallgestaltung werden die rechtlichen Auswirkungen für die Arbeitnehmer untersucht. Dabei wird insbesondere ermittelt, ob für die Arbeitnehmer eine Möglichkeit besteht, eine Privatisierung mit Hilfe einer kollektiven Widerspruchsausübung zu verhindern oder zumindest die Übergangsbedingungen zu verbessern. Aus der Widerspruchsausübung der von einer Privatisierung betroffenen Arbeitnehmer folgen weitere Fragestellungen. Der öffentliche Arbeitgeber kann den Entschluss fassen, betriebsbedingte Kündigungen gegenüber widersprechenden Arbeitnehmern auszusprechen, die er nach der Privatisierung nicht mehr beschäftigen kann oder will. Bei solchen betriebsbedingten Kündigungen durch den öffentlichen Arbeitgeber stellt sich als Erstes die Frage nach dem gerichtlichen Prüfungsmaßstab. Dieser könnte dadurch anders als bei privaten Arbeitgebern ausfallen, dass im Haushaltsplan Stellenstreichungen für den privatisierten Bereich festgelegt sind. Zusätzlich besteht bei solchen betriebsbedingten Kündigungen durch den öffentlichen Arbeitgeber das Problem, dass für zahlreiche Arbeitnehmer der öffentlichen Hand eine tarifliche Unkündbarkeitsklausel eingreift. Eine solche findet sich insbesondere in § 53 III BAT. Dies bereitet Schwierigkeiten, wenn zwischen mehreren Arbeitnehmern eine Sozialauswahl nach § 1 III S.1 KSchG zu erfolgen hat. Diesbezüglich wird geklärt, ob eine solche Unkündbarkeitsklausel eine ordentliche Kündigung der Arbeitnehmer, welche die entsprechenden Voraussetzungen erfüllen, verhindern kann. Als Alternative kommt eine einschränkende Auslegung oder eine partielle Unwirksamkeit der Regelung in Betracht. Schließlich ist für den von einer betriebsbedingten Kündigung betroffenen Arbeitnehmer von besonderem Interesse, ob er für die Zeit bis zum Ablauf der Kündigungsfrist einen Lohnanspruch geltend machen kann, wenn er weder beim öffentlichen Arbeitgeber, noch beim privatrechtlichen Erwerber tätig wird. Diese umfassenden arbeitsrechtlichen Fragestellungen, welche für die bisher bei einem öffentlichen Arbeitgeber beschäftigten Arbeitnehmer bei jeder Privatisierungsmaßnahme von zentraler Bedeutung sind, werden in der Studie einer eingehenden Klärung zugeführt. Inhaltsverzeichnis: Erstes Kapitel:Einleitung1 Zweites Kapitel:Verschiedene Gestaltungsmöglichkeiten für eine Privatisierung4 A.Unterschiedliche Bedeutungen des Privatisierungsbegriffs4 B.Unterscheidung der verschiedenen Privatisierungsmöglichkeiten5 I.Unterscheidung der formalen und materiellen Privatisierung5 1.Formale Privatisierung5 2.Materielle Privatisierung6 3.Relevanz der Unterscheidung6 II.Unterscheidung der rechtlichen Gestaltungsformen7 1.Rechtsgeschäftliche Veräußerung bestimmter Organisationseinheiten7 2.Outsourcing einzelner Dienstleistungsbereiche7 3.Gesellschaftsrechtliche Umwandlung nach den §§ 168 ff UmwG8 4.Übertragung von Gesellschaftsanteilen9 5.Relevanz der rechtlichen Gestaltungsformen9 C.Ergebnis des zweiten Kapitels10 Drittes Kapitel:Anwendung des § 613 a BGB bei einer Privatisierung12 A.Grundsätzliche Anwendbarkeit des § 613 a BGB bei Maßnahmen der öffentlichen Hand12 I.Wortlaut12 II.Systematik14 III.Entstehungsgeschichte16 IV.Schutzzweck17 V.Europarechtliche Vorgaben18 VI.Ergebnis zur grundsätzlichen Anwendbarkeit des § 613 a BGB bei Maßnahmen der öffentlichen Hand21 B.Anwendungsvoraussetzungen des § 613 a BGB bei einer Privatisierung22 I.Betriebs(teil)übergang22 1.Allgemein entwickelte Anforderungen zum Betriebs(teil)begriff22 2.Betriebs(teil)übergang bei den verschiedenen Privatisierungsformen27 3.Einschränkung des Anwendungsbereichs auf eine wirtschaftliche Betätigung44 II.Inhaberwechsel durch Rechtsgeschäft58 III.Vorliegen eines Arbeitsverhältnisses59 IV.Ergebnis zu den Anwendungsvoraussetzungen des § 613 a BGB bei einer Privatisierung62 C.Ergebnis des dritten Kapitels63 Viertes Kapitel:Rechtsfolgen einer Privatisierung für die betroffenen Arbeitnehmer65 A.Individualrechtliche Folgen65 B.Schicksal der Dienstvereinbarungen66 I.Wechsel vom Personalvertretungs- zum Betriebsverfassungsrecht66 II.Individualrechtliche Fortgeltung der Dienstvereinbarungen über § 613 a I S.2 BGB68 1.Erste Meinung: Analoge Anwendung des § 613 a I S.2 BGB69 2.Zweite Meinung: Unmittelbare Anwendung des § 613 a I S.2 BGB69 3.Rechtsprechung des BAG70 4.Stellungnahme zur Anwendbarkeit des § 613 a I S.2 BGB auf Dienstvereinbarungen71 5.Ergebnis zur individualrechtlichen Fortgeltung der Dienstvereinbarungen über § 613 a I S.2 BGB71 III.Kollektivrechtliche Fortgeltung der Dienstvereinbarungen78 1.Verhältnis zu einer individualrechtlichen Fortgeltung79 2.Erste Meinung: Keine Möglichkeit einer kollektivrechtlichen Fortgeltung81 3.Zweite Meinung: Kollektivrechtliche Fortgeltung bei Erhalt der Betriebsidentität81 4.Stellungnahme zu einer kollektivrechtlichen Fortgeltung der Dienstvereinbarungen82 5.Ergebnis zur kollektivrechtlichen Fortgeltung der Dienstvereinbarungen100 IV.Ergebnis zum Schicksal der Dienstvereinbarungen100 C.Konsequenzen einer Privatisierung für die Interessenvertretung101 I.Wechsel im Bereich der Interessenvertretung bei Erhalt der bisherigen Organisationseinheit102 1.Vergleich der Vertretungsgremien in Form des Personal- und Betriebsrats104 2.Europarechtliche Vorgaben112 3.Ergebnis zum Wechsel im Bereich der Interessenvertretung bei Erhalt der bisherigen Organisationseinheit114 II.Wechsel im Bereich der Interessenvertretung bei Verlust der bisherigen Organisationseinheit115 1.Erste Fallgestaltung115 2.Zweite Fallgestaltung116 3.Dritte Fallgestaltung116 4.Ergebnis zum Wechsel im Bereich der Interessenvertretung bei Verlust der bisherigen Organisationseinheit119 III.Schließung von privatisierungsbedingten Vertretungslücken durch ein Übergangsmandat für den Personalrat119 1.Spezialregelungen zu Übergangsmandaten der Interessenvertretung120 2.Erste Meinung: Begründung eines allgemeinen Übergangsmandats durch eine Analogie121 3.Zweite Meinung: Kein allgemeines Übergangsmandat mangels einer planwidrigen Regelungslücke121 4.Stellungnahme zur Begründung eines allgemeinen Übergangsmandats durch eine Analogie122 5.Ergebnis zur Schließung von privatisierungsbedingten Vertretungslücken durch ein Übergangsmandat für den Personalrat136 IV.Ergebnis zu den Konsequenzen einer Privatisierung für die Interessenvertretung136 D.Auswirkungen einer Privatisierung auf die Tarifverträge138 I.Kollektivrechtliche Fortgeltung der vor der Privatisierung abgeschlossenen Tarifverträge138 II.Individualrechtliche Fortgeltung der vor der Privatisierung abgeschlossenen Tarifverträge gemäß § 613 a I S.2 BGB139 III.Ergebnis zu den Auswirkungen einer Privatisierung auf die Tarifverträge140 E.Ergebnis des vierten Kapitels141 Fünftes Kapitel:Besondere Rechtsfolgen für Arbeitnehmer, die von ihrem Widerspruchsrecht Gebrauch machen143 A.Allgemeine Bedeutung des Widerspruchsrechtes143 I.Entwicklung143 II.Ausübung und Wirkung144 B.Zulässigkeit einer kollektiven Widerspruchsausübung145 I.Beweggründe für eine kollektive Widerspruchsausübung145 II.Meinungsstand146 1.Erste Meinung: Kollektive Widerspruchsausübung als unzulässige Arbeitskampfmaßnahme143 2.Zweite Meinung: Grundsätzliche Zulässigkeit einer kollektiven Widerspruchsausübung146 3.Dritte Meinung: Unbeschränkte Zulässigkeit einer kollektiven Widerspruchsausübung146 III.Stellungnahme zur Zulässigkeit einer kollektiven Widerspruchsausübung147 1.Kollektive Ausübung des Widerspruchsrechtes als Arbeitskampfmaßnahme147 2.Rechtmäßigkeit der kollektiven Ausübung des Widerspruchsrechtes155 IV.Ergebnis zur Zulässigkeit einer kollektiven Widerspruchsausübung177 C.Prüfungsmaßstab bei betriebsbedingten Kündigungen gegenüber den widersprechenden Arbeitnehmern178 I.Verstoß gegen das Kündigungsverbot gemäß § 613 a IV S.1 BGB178 II.Vergleich mit der Problematik bei betriebsbedingten Kündigungen durch einen privaten Arbeitgeber179 III.Grundsätzliche Zulässigkeit einer kündigungsrechtlichen Prüfung181 1.Rechtsqualität des Haushaltsplans182 2.Folgen dieser Rechtsqualität für den Prüfungsmaßstab182 3.Ergebnis zur grundsätzlichen Zulässigkeit einer kündigungsrechtlichen Prüfung184 IV.Umfang der kündigungsrechtlichen Prüfung184 1.Notwendiger Ausgangspunkt der Prüfung184 2.Genaue Festlegung des Prüfungsumfangs188 V.Ergebnis zum Prüfungsmaßstab bei betriebsbedingten Kündigungengegenüber den widersprechenden Arbeitnehmern203 D.Konflikt zwischen der Sozialauswahl unter den von einer Privatisierung betroffenen Arbeitnehmern und dem Status der ordentlichen Unkündbarkeit204 I.Meinungsstand205 1.Erste Meinung: Ausschluss des Begünstigten von der Sozialauswahl205 2.Zweite Meinung: Ausschluss jeder Kündigungsmöglichkeit bzw. Möglichkeit zu einer außerordentlichen Kündigung206 3.Dritte Meinung: Möglichkeit zu einer ordentlichen Kündigung aufgrund des Konflikts mit § 1 III S.1 KSchG207 II.Beschränkung des von der Sozialauswahl betroffenen Personenkreises207 III.Lösungsmöglichkeit für den Arbeitgeber212 1.Ausschluss jeder Lösungsmöglichkeit212 2.Außerordentliche betriebsbedingte Kündigung214 IV.Ergebnis zum Konflikt zwischen der Sozialauswahl unter den von einer Privatisierung betroffenen Arbeitnehmern und dem Status der ordentlichen Unkündbarkeit241 E.Lohnanspruch für die Zeit bis zum Ablauf der Kündigungsfrist242 I.Lohnanspruch gemäß § 615 S.1 BGB242 1.Leistungsangebot gemäß §§ 294 ff BGB243 2.Fähigkeit zur Leistungserbringung gemäß § 297BGB244 3.Nichtannahme der Leistung244 II.Anrechnung gemäß § 615 S.2 BGB244 1.Anrechnung des Wertes desjenigen, was der Arbeitnehmer infolge des Unterbleibens der Dienstleistung erspart oder durch anderweitige Verwendung seiner Dienste erwirbt244 2.Anrechnung des Wertes desjenigen, was der Arbeitnehmer zu erwerben böswillig unterlässt245 III.Ergebnis zum Lohnanspruch für die Zeit bis zum Ablauf der Kündigungsfrist256 F.Ergebnis des fünften Kapitels257 Sechstes Kapitel:Gesamtergebnis und Schlussbetrachtung260 Das Original-Inhaltsverzeichnis enthält weitere Unterpunkte, die hier aus Platzgründen nicht angezeigt werden können. Wenn Sie Interesse daran haben, senden wir es Ihnen gern kostenlos per E-Mail zu. Bitte melden Sie sich unter agentur@diplom.de
In: IDOS policy brief, 2024, 6
On 16 September 2023, Burkina Faso, Mali and Niger – all three states led by military regimes – decided to establish a new regional organisation, the Alliance of Sahel States (Alliance des Etats du Sahel – AES). This move was prompted by the worsening of the crisis within the Economic Community of West African States (ECOWAS) in 2023, a crisis that reached its peak to date with the announcement by the three AES members on 28 January 2024 of their withdrawal from ECOWAS, a regional organisation set up back in 1975. In a socio-political context in which the role and functions of the state, the extent of state powers and the way in which they are exercised are increasingly being called into question, new forms of political and social organisation are developing. These are also influenced by the current geopolitical developments in the changing world order. At the same time, states and societies and the ongoing regional integration processes are facing major new challenges. Within ECOWAS, conventional ideas of state and society, values and structures are coming up against growing tendencies towards a new understanding of statehood and sovereignty. In the West Africa/Sahel region, new processes of nation-building and state-building are under way, underpinned by efforts to renew social cohesion and to integrate the 'vital forces of the nation' – a concept cited increasingly frequently in these countries – as comprehensively as possible. These developments call for a realignment of German and European foreign and development policy. The political and social conditions and expectations of the partners in the West Africa/Sahel region are currently undergoing profound transformation. They need to be aligned with the content and interests of the value-based foreign policy advocated by Germany – in line with the principle of a 'partnership between equals'. Any appraisal of the future developments and integration of the dynamics that determine them must take account of the various integration processes, which are particularly diversified and run in parallel in this region. Adopting a comparative perspective, this paper provides an overview of the various regional organisations in the West Africa/Sahel region. It analyses the potential of each of them in terms of their development prospects and sustainability. In addition to the critical relationship between ECOWAS and the AES, it also examines the West African Economic and Monetary Union (WAEMU), the Integrated Develop-ment Authority of the Liptako-Gourma Region (Autorité de Liptako-Gourma – ALG) and the G5 Sahel, which is currently being dissolved. If the partnership between Germany and Europe on the one hand and the West African and Sahel states on the other is to be continued, it will be vital to adopt a pragmatic approach and maintain a political dialogue with all the partners. The states in this region are extremely important to Europe's future development. Moreover, it is only through communication based on mutual respect underpinning cooperation in the economic and development sectors that the growing influence of political powers such as Russia and Iran – whose ideas, interests and values are not in line with the Western Atlantic model of democracy governed by the rule of law – can be curbed effectively.
World Affairs Online
In: Berichte über Landwirtschaft, Sonderheft 236
Ernährungsarmut wird als Problem in Deutschland weitgehend vernachlässigt. Von materieller Ernährungsarmut betroffen sind Menschen, denen es aufgrund fehlender finanzieller Mittel nicht möglich ist, sich gesundheitsfördernd zu ernähren. Etwa 3,5 % der Bevölkerung (rund drei Millionen Menschen) sind durch materielle Ernährungsarmut gefährdet. Damit einher geht oft auch soziale Ernährungsarmut, die Menschen von der sozialen Teilhabe ausschließt, die z. B. durch gemeinsames Essen ermöglicht wird. Essen ist nicht nur von Bedeutung für die körperliche Gesundheit, sondern auch zentral für die psychische Gesundheit und das Wohlbefinden sowie für die soziale Zugehörigkeit, was sich wiederum auf die körperliche Gesundheit auswirkt. Die sozialen Funktionen des Essens werden vielfach übersehen – und bei der Berechnung des Regelbedarfs ausgeblendet. Gerade die Corona-Pandemie hat gezeigt, wie fehlende soziale Kontakte und sozialer Ausschluss sich auf die physische, psychische und soziale Gesundheit auswirken können. Aus Sicht des WBAE (Wissenschaftliche Beirat für Agrarpolitik, Ernährung und gesundheitlichen Verbraucherschutz) ist deshalb der integrative Blick auf die materielle und soziale Ernährungsarmut zentral, da sie sich gegenseitig verstärken können. Diese Stellungnahme befasst sich mit der Frage, wie sich die Corona-Pandemie auf von Ernährungsarmut gefährdete Menschen ausgewirkt hat und was daraus gelernt werden kann. Ein wichtiger Aspekt ist der zeitweilige Wegfall von Essensangeboten in Kitas, Schulen, Tafeln und anderen karitativen Essensangeboten, die ein Sicherheitsnetz für Menschen in Ernährungsarmut darstellen. Die Stellungnahme zieht auf dieser Basis auch Schlussfolgerungen zur Ernährungsarmut außerhalb von Pandemiebedingungen. Im Hinblick auf die Notwendigkeit der Vermeidung von Fehlernährung in Haushalten, die von Ernährungsarmut bedroht sind, kommt der WBAE zu dem Schluss, dass diese Risikogruppe während der Pandemie nicht ausreichend im Fokus der Maßnahmen zur Abmilderung der Pandemiefolgen stand. Dies zeigt sich schon daran, dass kaum Daten erhoben wurden. Deutschland verfügt über kein klares Indikatoren- und Zielsystem und kein Monitoring zur Ernährungsarmut. Die wenigen vorhandenen Daten weisen auf problematische Entwicklungen hin. Insgesamt wurden durch den Bund sehr umfangreiche Mittel zur Bewältigung der wirtschaftlichen und sozialen Folgen der Corona-Pandemie und zur Einkommenssicherung während der Pandemie eingesetzt. Dies ist unter dem Blickwinkel "Ernährungsarmut" positiv zu bewerten. Es ist davon auszugehen, dass diese Maßnahmen verhindert haben, dass noch mehr Haushalte von Ernährungsarmut betroffen waren. Insgesamt zeigt die Analyse jedoch, dass es kaum gezielte Maßnahmen gab, um den Ausfall von Kita- und Schulernährung durch alternative Formen der Bereitstellung von Lebensmitteln oder einer warmen Mahlzeit aufzufangen. Maßnahmen auf Bundesebene fehlten, um Länder, Kommunen und nicht-staatliche Organisationen dabei zu unterstützen. Auswertungen der Pandemiemaßnahmen vergleichbarer Länder zeigen, dass dort schnelle und flexible Maßnahmen zur Bereitstellung von Lebensmitteln eine wichtige Rolle gespielt haben, um armutsgefährdete Haushalte zu unterstützen. In Deutschland wurden vorwiegend finanzielle Transfers genutzt, z. T. zeitlich verzögert und wenig zielgruppenspezifisch. Vor diesem Hintergrund hat der WBAE mögliche Maßnahmen gegen Ernährungsarmut – in Krisen, aber auch generell – untersucht: (1) finanzielle Transfers (einmalig oder fortlaufend), (2) Lebensmittelgutscheine ("Voucher"), (3) Lebensmittelpakete und (4) warme Mahlzeiten, wobei die letzten beiden Optionen jeweils zur Abholung oder zur Auslieferung angeboten werden können. Die untersuchten internationalen Beispiele zeigen Möglichkeiten, wie z. T. mit schnellen und teilweise innovativen Ansätzen auf Lockdown-Maßnahmen reagiert wurde. Im Grundsatz spricht aus Sicht des WBAE aber vieles für das deutsche System zur Bekämpfung der Ernährungsarmut, das im Kern auf einem Bürgergeld beruht. Ein solches Bürgergeld muss jedoch ausreichend sein, um materielle und soziale Ernährungsarmut zu vermeiden. Die aktuellen, im Bürgergeld für Essen und Getränke zur Verfügung stehenden Beträge entsprechen allerdings nicht diesem Anspruch. Bei der Einführung des Bürgergelds im Jahr 2023 wurde zwar zeitnah auf die hohe Inflation reagiert. Die Berechnungsmethodik für die Bedarfsermittlung wurde aber nicht angepasst, sodass der Regelsatz nach wie vor nicht für eine gesundheitsfördernde Ernährung ausreicht. Die soziale Funktion von Ernährung wird bei der Berechnung des Regelsatzes nicht berücksichtigt. Um bei akutem Handlungsbedarf, wie z. B. auch bei der derzeitigen Inflation, schneller reagieren zu können, sollten außerdem Systeme zur Auszahlung sozial differenzierter "Krisentransfers" an vulnerable Haushalte mit geringem Verwaltungsaufwand ermöglicht werden. Darüber hinaus sollte für den zentralen Bereich der Kinderernährung der Schutz einer adäquaten Grundsicherung durch einen Systemwechsel zu einer integrativen, beitragsfreien und somit nicht-diskriminierenden Kita- und Schulverpflegung ergänzt werden, die zudem den DGE-Qualitätsstandards entspricht. Schließlich sollte der Staat privates, ehrenamtliches Engagement ergänzend fördern, z. B. durch Infrastrukturunterstützung bei karitativen Essensangeboten. Eine Herausforderung der Gestaltung von karitativen Lebensmittelangeboten besteht darin, dass sie oft als stigmatisierend und beschämend wahrgenommen werden und der Nachweis eines Anspruches teils schwierig ist. Zudem bestehen oft nur wenige Wahlmöglichkeiten, sodass individuelle Präferenzen oder Unverträglichkeiten nur sehr eingeschränkt berücksichtigt werden können. Im Hinblick auf die soziale Dimension der Ernährung kommt hinzu, dass wichtige soziale Funktionen des Essens, wie das gemeinsame Essen, also Kommensalität, nicht oder nur sehr eingeschränkt ermöglicht wird. Auch bleiben diejenigen, die versorgt werden, dabei meist unter sich. Vor dem Hintergrund dieser Gesamteinschätzung empfiehlt der WBAE die folgenden, in Abbildung Z 1 dargestellten Maßnahmen (siehe Beitrag). Zusammenfassend betont der WBAE die in Deutschland weiterhin unterschätzten Risiken materieller und sozialer Ernährungsarmut. Im Rahmen der geplanten Nationalen Ernährungsstrategie der Bundesregierung sollte dem Thema Ernährungsarmut aus Sicht des WBAE eine herausgehobene Bedeutung zugemessen werden.