In: MTZ industrial: official magazine of the International Council on Combustion Engines (CIMAC) Frankfurt, Main ; official magazine of the Engines and Systems Association of the German Engineering Federation (VDMA), Frankfurt, Main ; official magazine of the Research Association for Combustion Engines (FVV), Frankfurt, Main, Band 1, Heft 1, S. 1-1
In: MTZ industrial: official magazine of the International Council on Combustion Engines (CIMAC) Frankfurt, Main ; official magazine of the Engines and Systems Association of the German Engineering Federation (VDMA), Frankfurt, Main ; official magazine of the Research Association for Combustion Engines (FVV), Frankfurt, Main, Band 1, Heft 1, S. 8-9
Inhaltsangabe: Barack Hussein Obama war der erste Web 2.0-Präsident. Mit Hilfe von Web 2.0-Diensten hat sich Obama in einer professionellen Internet-Wahlkampagne die Gunst von Millionen von amerikanischen Wählern und Wählerinnen sichern können. Die zentralen Botschaften von Obama im Wahlkampf waren Veränderung (Change) und Hoffnung (Hope). Mit dem Slogan 'Yes We Can' beeinflusste Obama innerhalb des neunmonatigen Wahlkampfs die öffentliche Meinung durch die unterschiedlichsten medialen Werkzeuge. Dabei setzte der erste afroamerikanische Präsident der USA neben den traditionellen Medien aus Print, Hörfunk und Fernsehen besonders auf ein neues Medium: das Internet. Im US-Wahlkampf 2008 waren nicht die großen amerikanischen TV-Anstalten das Sprachrohr des Präsidenten, sondern die amerikanischen Bürger und Bürgerinnen selbst nahmen direkt politisch am Wahlkampf teil, organisierten sich über Foren, sammelten Spenden ein und waren somit aktiv. Das Marketingteam von Obama setzte auf die Strategie 'Obama Everywhere'. Dies bedeutete, dass Obama auf jeglichen Sozialplattformen im Internet wie z.B. auf 'Facebook', 'Twitter', 'Myspace', 'Youtube' und 'Linkedin' vertreten war. Zudem unterstützen auch amerikanische Künstler, wie der Sänger der Black Eyed Peas 'will.i.am', den Wahlkampf auf YouTube. Das resultierende Yes-We-Can-Musikvideo, mit einer Länge von viereinhalb Minuten, wurde bis zum heutigen Tag knapp 21 Millionen mal abgerufen. Rund ein Jahr vor den US-Präsidentschaftswahlen hatte Obama die Bedeutung der IT-Nutzung im Wahlkampf erkannt. Er nutzte das Internet, um eine neue Plattform von Basisdemokratie zu ermöglichen. So können die Bürger live die Regierung und deren Sitzungen mitverfolgen, Kommentare abgeben, und somit Einfluss auf die Politik nehmen. Inspiriert durch den Wahlkampf 2008 in den USA wird im Verlauf dieser Ausarbeitung insbesondere aufgezeigt, wie Web 2.0 auf die Politik in Deutschland Einfluss nimmt. Zunächst werden einige Begrifflichkeiten definiert, um im Anschluss verschiedene Web 2.0-Instrumente an konkreten Beispielen im Online-Wahlkampf zu erklären; dabei werden Chancen und Risiken des Web 2.0s an kurzen Beispielen aufgezeigt. Im Hauptteil dieser Ausarbeitung findet sich eine medienpolitische Analyse zu den Themen Föderalismus, Jugend-, Verbraucher- und Datenschutz. Im vierten Kaptitel folgt ein Interview mit dem Internetspezialisten Matthias J. Lange. Abschließend ist das Fazit angefügt.Inhaltsverzeichnis:Inhaltsverzeichnis: I.Danksagung4 II.Abkürzungsverzeichnis5 III.Abbildungsverzeichnis6 1.Einleitung7 2.Internet, das neue Leitmedium9 2.1Vom Web 1.0 zum Web 2.011 2.2Definition Web 2.011 2.3E-Government12 3.Das Web 2.013 3.1Facebook13 3.1.1Risiken bei Facebook14 3.1.2Vermarktung und Wahlkampf der Politiker17 3.1.3Die Online-Partizipation der Bürger19 3.1.4Obama auf Facebook20 3.1.5Bundespräsidentenwahl 2010: Gauck vs. Wulff20 3.2Blogs22 3.2.1Internationale Blogs23 3.2.2Yoani Sánchez – live aus Kuba24 3.2.3Nationale Blogs27 3.2.4netzpolitik.org27 3.2.5BILDBlog28 3.2.6Horst Köhler – gestürzt durch Blogger?29 3.3Twitter31 3.3.1Wahlprognose zur Bundestagswahl 200934 3.4Medienpolitik35 3.4.1Artikel 5 des Grundgesetzes36 3.4.2Föderalismus37 3.4.3Jugendschutz38 3.4.4Datenschutz und Verbraucherschutz41 4.Interview mit Internetspezialist Matthias J. Lange46 5.Fazit und Ausblick54 6.Literaturverzeichnis56 6.1Monographien / Sammelbände / Studien56 6.2Gesetzestexte 58 6.3Fachzeitschriften / Zeitungen / Berichte58 6.4Elektronische Texte / Internetverweise59Textprobe:Textprobe: Kapitel 3.2, Blogs: Neben der 'many-to-many'- gibt es zudem die 'one-to-one'-Kommunikationsrichtung: Ein Blog, auch Webblog genannt, ist ein persönliches Online-Tagebuch, in das der Autor, der sogenannte Blogger, kontinuierlich Einträge schreibt. Seit 1990 gibt es Blogs im Internet. Dabei wurde der Kunstbegriff Blog aus den Wörtern 'Web' und 'Logbuch' gebildet. Der Terminus Weblog existiert seit 1997. Der Blog kann mit einem Logbuch eines Schiffskapitäns verglichen werden. Der Urheber verfasst täglich kurze Einträge über die wichtigsten Ereignisse des Tages auf seinem Blog. Das Thema, über das ein Blogger schreibt, ist beliebig. Die komplette Bandbreite aller bedenklichen Themen wird im Internet auf Blogs kommentiert: Politik, Wirtschaft, Technik, Musik, Sport, Medizin, Kunst, Bildung oder Liebe. Ein Blog ist wie eine Web 1.0-Internetseite ein Selbstdarstellungswerkzeug: 'Kennzeichen ist ein persönlich gehaltener Stil in den Aussagen und Inhalten. Blogs geben persönliche Überzeugungen wieder, sie sind keine objektive Berichterstattung im journalistischen Sinne.' Einen Blog kann jeder, der über eine E-Mail-Adresse verfügt, kostenlos bei verschiedenen Providern anlegen. Einen Blog zu kreieren ist simpel. Jeder Laie kann mit einigen Klicks einen Blog eröffnen, das beliebige Layout auswählen und mit dem Schreiben beginnen. Programmierungskenntnisse wie z.B. in HTML sind nicht nötig. Die meisten Blogger erlauben es, den Lesern Kommentare zu ihren Artikeln hinzuzufügen. Dadurch entsteht 'user generated content'. Dies erhöht sowohl die Beliebtheit eines Blogs als auch die Aufmerksamkeit darauf. Oft aufgerufene und kommentierte Blogs werden z.B. von Suchmaschinen häufiger gefunden als weniger gelesene. Außerdem erscheinen oft aufgerufene Blogs in höheren Rankings als kaum abgerufene. Damit ein Politiker erfolgreich einen politischen Blog betreiben kann, benötigt er/sie neben der Zeit, der technischen Affinität und der finanziellen Absicherung einen Hang zur öffentlichen Selbstdarstellung sowie den Wunsch, sich politisch zu äußern. Die Politik-, Sprach- und Publikationswissenschaftlerin Sarah Genner zieht dabei folgendes Resümee: 'Blogs eignen sich als schnelle, billige Publikations- und Austauschplattform für (…) politische Akteure: Bürger, Politiker, politisch aktive Gruppen und Behörden. Die besonders dynamischen Websites vermögen jedoch als 'Nischenöffentlichkeiten' überwiegend internetaffine und ohnehin politisch aktive Bevölkerungsgruppen zu erreichen. Blogs sind weder tauglich für Massenkommunikation noch als Heilmittel gegen Politikverdrossenheit.' 3.2.1, Internationale Blogs: In den USA spielen Blogs im Gegensatz zu Deutschland eine bedeutende politische Rolle. Dabei beschäftigen sich Blogs zu 35 Prozent mit Politik und 42 Prozent mit News. Seit dem Wahlkampf 2008 wird die Stimme des 'Netzvolkes' längst auf Portalen wie Facebook, Twitter und Blogs wahrgenommen. Laut einer Studie von 'Pew Center for the People and the Press in Washington, D.C.' ist für die 18- bis 29-jährigen US-Bürger das Internet die erste Anlaufstelle um Nachrichten über den Wahlkampf zu erhalten. Zu den Anlaufstellen gehören die traditionellen Medienunternehmen, soziale Netzwerke und Blogs. Laut der Weblog-Suchmaschine 'Technorati' ist der führende Blog im Bereich 'World Politics', 'US Politics' und 'Politics' weltweit die Web-Zeitung 'The Huffington Post'. Bei 'The Huffington Post' handelt es sich um eine Online-Zeitung, die von Bürgerjournalisten betrieben wird. An zweiter und dritter Stelle der Top 100 Blogs folgen die Business/Technology-Portale 'Mashable!' und 'Gizmodo'. Seit 2008 gibt es laut 'Universal MCCann' circa 184 Millionen aktiver und passiver Blogs. 'Technorati' geht von einer Zahl von 133 Millionen aktiver Blogs aus. Die häufigsten Blogger sind die US-Amerikaner mit über 14 Prozent Marktanteil.
Die Studie "Voneinander lernen – Kunstvermittlung im Kontext kultureller Diversität" untersucht aktuelle Kunstvermittlungsformen im Hinblick auf ihren Umgang mit kultureller Diversität auf mehreren Ebenen: sei es in Bezug auf die Herkunft der Künstlerinnen und Künstler beziehungsweise auf die der Kunstvermittlerinnen und Kunstvermittler, im Hinblick auf die Wahl der Themen, der Form ihrer Gestaltung oder der Orientierung an verschiedenen Zielgruppen.
Einleitung: Weltweit wurde 2007 die gesamte Finanzdienstleistungsbranche durch die Nachricht der Insolvenz des US-Hypothekenfinanzierers New Century Financial Corporation geschockt. Ein Jahr später gelang es nur noch mit massiver finanzieller Hilfe der Regierung der Vereinigten Staaten von Amerika, die beiden größten Hypothekenbanken der USA, Fannie Mae und Freddie Mac, vor der Insolvenz zu bewahren. 'Unzureichende Transparenz und Kontrolle sowie mangelndes Verantwortungsbewusstsein' sind nur einige der Vorwürfe, mit denen sich global agierende Finanzdienstleister, die Regierungen der Industrieländer sowie hochrangige Manager konfrontiert sahen. Das Vertrauen in Finanzdienstleistungsbranche wurde nachhaltig erschüttert, eine globale Finanzmarktkrise war nicht mehr aufzuhalten. Durch die Finanzmarktkrise 2008 entstand schnell eine Interbankenvertrauenskrise, welche nicht nur Folgen für die Finanzdienstleistungsbranche hatte, sondern sich schnell zu einer globalen Krise für die Realwirtschaft ausbreitete. Vor allem der in Deutschland stark vertretene Mittelstand wurde von der Realwirtschaftskrise schwer getroffen. Doch getreu dem Motto 'wir wollen die Krise als Chance nutzen' versuchte sowohl die Finanzdienstleistungsbranche, als auch die Realwirtschaft in Verbindung mit dem deutschen Mittelstand die Krise nicht nur zu überwinden, sondern Strategien zu entwickeln und umzusetzen, sodass eine Krise gleichen Ausmaßes nicht wieder eintreten kann. Doch ist dies überhaupt möglich? Kann man eine Krise mit solch globalen Folgen tatsächlich als Chance nutzen? Ist der Satz, 'wir werden gestärkt aus der Finanzmarktkrise hervorgehen' , in Wahrheit nur ein nicht realisierbarer Wunsch oder besteht wirklich die Möglichkeit aus solch einer Krise einen Gewinn für Unternehmen und sogar für eine gesamte Bevölkerungsgruppe erzielen zu können?Inhaltsverzeichnis:Inhaltsverzeichnis: Abkürzungsverzeichnis4 Abbildungsverzeichnis5 1.Einleitung6 2.Die Entstehung und der Verlauf der Finanzmarktkrise 20087 2.1Definition 'Finanzmarktkrise'7 2.2Die US-Immobilienkrise8 2.2.1Die Dot.Com-Blase8 2.2.2Die Entstehung der US-Immobilienblase10 2.3Der Ausbruch der Finanzmarktkrise13 2.4Die Finanzmarktkrise 2008 in Deutschland17 3.Der Mittelstand in Deutschland22 3.1Definition 'Mittelstand'22 3.1.1Qualitative Abgrenzung des Mittelstands in Deutschland22 3.1.2Quantitative Abgrenzung des Mittelstands in Deutschland24 3.2Die Bedeutung des Mittelstands für die deutsche Volkswirtschaft27 4.Auswirkungen der Finanzmarktkrise 2008 auf den deutschen Mittelstand31 4.1Auswirkungen der Krise auf die deutsche Konjunkturentwicklung31 4.2Die Entwicklung der Geschäfts-, Umsatz- und Personallage im deutschen Mittelstand seit der Finanzmarktkrise 200833 4.3Die Entwicklung der Finanzmarktkrise 2008 zu einer Krise für den deutschen Mittelstand37 4.3.1Sinkende Exporte37 4.3.2Kreditklemme im deutschen Mittelstand39 4.3.3Wechselkursschwankungen41 4.4Die Firma Märklin - ein mittelständisches Unternehmen in der Krise45 5.Erfolgreiche Strategien zur Bewältigung der Krise47 5.1Staatliche Strategien zur Bewältigung der Krise im Mittelstand47 5.1.1'Beschäftigungssicherung durch Wachstumsstärke (Konjunkturpaket I)'47 5.1.2'Entschlossen in der Krise, stark für den nächsten Aufschwung (Konjunkturpaket II)'49 5.1.3Das Finanzmarktstabilisierungsgesetz53 5.1.4Das Wachstumsbeschleunigungsgesetz (Konjunkturpaket III)54 5.1.5Staatliche Maßnahmen zur Bewältigung der Krise - eine kurze Bilanz56 6.Die Lehren aus der Finanzmarktkrise 2008 für die Zukunft59 6.1Änderungen der ordnungspolitischen Rahmenbedingungen59 6.1.1Revitalisierung der Finanzmärkte - ein 'come back' der Sozialen Marktwirtschaft59 6.1.2Basel III - erhöhte Liquidität als Lehre aus der Krise?62 6.2Neuausrichtung des menschlichen Handelns64 6.2.1Sozialethische Lehren aus der Finanzmarktkrise 200864 6.2.2Auswirkungen und Konsequenzen aus Sicht des Mittelstandes67 7.Fazit70 Literaturverzeichnis72 Internetquellenverzeichnis76 Glossar87Textprobe:Textprobe: Kapitel 4.3.2, Kreditklemme im deutschen Mittelstand: 'Eine Kreditklemme ist eine Geldmarktkrise. Sie tritt ein, wenn eine schlechte Finanzsituation Banken dazu zwingt, die Kreditvergabe zu drosseln oder ganz einzustellen und ist wesentlich schwerwiegender als eine Liquiditätskrise'. Die Kreditklemme im deutschen Mittelstand zur Zeit der Finanzmarktkrise 2008 hat zwei Ursachen. Banken agierten bei der Kreditvergabe aufgrund einer Vertrauenskrise, welche durch negative Erfahrungen mit leichtfertig vergebenen Krediten auf dem US-Hypothekenmarkt sowie der ungewissen Folgen der Krise für die Finanz- und Realwirtschaft verursacht wurde, restriktiv und gewährten sich untereinander keine Kredite mehr. Verstärkt wurde die Vertrauenskrise auf dem Interbankenmarkt durch die Eigenkapitalvorschriften des Baseler Ausschusses für Bankenaufsicht (kurz: Basel II). Diese beinhalten, dass das jeweils vorzuhaltende Eigenkapital der Banken der Bonität des Kreditnehmers angepasst sein muss. Das heißt, Banken müssen für Kreditnehmer mit geringer Bonität mehr Eigenkapital vorhalten, als für Kreditnehmer guter Bonität. Die dadurch entstehenden Kosten werden durch eine Anpassung der Kreditzinsen in Form von Risikoaufschlägen an die Kunden weitergegeben. Die teilweise hohen Verluste der Banken aufgrund getätigter Investitionen in 'faule' US-Immobilienpapiere kombiniert mit den strikten Regelungen von Basel II führten dazu, dass weniger Bankengelder für Kredite der Realwirtschaft zur Verfügung standen. Aufgrund der Krise verschlechterte sich bei vielen mittelständischen Unternehmen deren Rating. Durch die Regelungen von Basel II stiegen dadurch die Kreditnebenkosten für kreditnehmende mittelständische Betriebe stark an. Resultierend aus der schlechten Auftragslage sowie aus den für viele KMU nicht weiter tragbaren Kreditnebenkosten konnte der Mittelstand generell weniger Kredite in Anspruch nehmen. Die rückläufige Vergabe von Krediten hatte direkte Auswirkungen auf die Realwirtschaft, denn je weniger Kredite vergeben werden, desto weniger Investitionen werden getätigt, und desto eher werden Expansionspläne oder Mitarbeiteraufstockungen verworfen und desto negativer werden häufig auch die Gewinn- und Beschäftigungsquoten. Dadurch ergibt sich eine steigende Zahl von Insolvenzen im Mittelstand und die Bonitäten der KMU verschlechterten sich weiter. Ein Kreislauf war geschaffen, bei dem zunehmend Banken und mittelständische Betriebe massiv in Zahlungsschwierigkeiten gerieten, was so auch die Kreditklemme weiter verschärfte. Da der Mittelstand besonders abhängig von der klassischen Finanzierung durch Bankkredite ist, wurde er von diesem 'Teufelskreis' überwiegend getroffen. Kapital, welches in der Finanzmarktkrise 2008 notwendig gewesen wäre, konnte den kleinen und mittleren Unternehmen im Verlaufe der Krise nicht weiter zur Verfügung gestellt werden. Zwar haben viele mittelständische Unternehmen aus der Dot.Com-Krise gelernt und ihre Eigenkapitalrücklagen stetig gesteigert, doch durch die enormen Absatzrückgänge als Folge der Finanzmarktkrise 2008 waren auch diese Risikopuffer schnell aufgebraucht. So ergab eine im April 2009 durchgeführte Studie der WGZ-Bank, dass die Zahl der Unternehmen, die über eine Eigenkapitaldeckung von über 20 Prozent verfügen, stark rückläufig ist. Des Weiteren ging aus einer Studie der Wirtschaftsprüfungsgesellschaft Grant Thorten hervor, dass bereits Anfang 2009 circa zwei Drittel aller deutschen mittelständischen Unternehmen darüber klagten, sie hätten selbst bei der Aufnahme gewöhnlicher Kredite nachhaltig Schwierigkeiten. 4.3.3, Wechselkursschwankungen: Bei dem Begriff 'Wechselkurs' ist zwischen nominalem und realem Wechselkurs zu unterscheiden. 'Während der nominale Wechselkurs das Austauschverhältnis von zwei Währungen beschreibt, definiert der reale Wechselkurs das Austauschverhältnis von Gütern'. Der nominale Wechselkurs ist somit der Preis einer Währung, der in einer anderen Währung bezahlt werden muss. Im folgenden Abschnitt ist der Begriff 'Wechselkurs' immer als nominaler Wechselkurs zu verstehen. Die Basis von flexiblen Wechselkursen ist das sogenannte 'Floating'. Dies bedeutet, dass 'der Wechselkurs einer Währung zu anderen Währungen nicht durch staatliche Preisfestsetzungen fixiert ist. Der Preis wird durch die Angebots- und Nachfragebedingungen am Devisenmarkt gebildet und unterliegt den entsprechenden Schwankungen (auch flexible Wechselkurse genannt)'. Hierbei muss zwischen dem sogenannten 'sauberen' und dem 'schmutzigen Floating' unterschieden werden. 'Sauberes Floating' bedeutet, dass die Nationalbanken nicht auf den Devisenmärkten eingreifen und somit den Mechanismus von Angebot und Nachfrage nicht beeinflussen. Beim 'schmutzigen Floating' hingegen wirken die Notenbanken aktiv auf die Devisenmärkte ein, indem fremde Währungen ge- oder verkauft werden. Die Europäische Zentralbank zeigte bereits mehrfach Anzeichen für 'schmutziges Floating'. So intervenierte sie in mehreren Fällen am Devisenmarkt, um den Euro vor dem US-Dollar zu schützen. Es wurde somit auf den Verlauf der Schwankungen zwischen zwei Währungen Einfluss genommen. Schwankungen innerhalb der Währungen können sowohl zu Wechselkursgewinnen als auch Wechselkursverlusten führen. Beträgt beispielsweise zu einem beliebigen Zeit¬punkt X1 der Wechselkurs zwischen Euro und US-Dollar 1,600 und die Kreditsumme 160 US-$, so hätte es positive Auswirkungen für den Kreditnehmer, wenn im Zeitpunkt X2 der Wechselkurs 1,700 beträgt. Die Rückführung des in Höhe von 160 US-$ aufgenommen Kredites würde nur noch 94,12 € kosten. Würde der Wechselkurs im Zeitpunkt X2 jedoch nur noch 1,500 betragen, so hätte dies negative Auswirkungen auf den aufgenommenen Kredit, da für die gesamte Rückführung des Kredites 106,67 € notwendig wären. Steigende Wechselkurse sind somit von Vorteil für Unternehmen. Entgegen der Wirkung der Kreditklemme, die hauptsächlich national agierende Unternehmen beeinflusste, betrifft der Effekt der Wechselkurse hauptsächlich international agierende mittelständische Unternehmen, die in den 'Nicht-Euro-Raum' exportieren. Insgesamt betrug die Zahl der Exporte zwischen deutschen Unternehmen mit Unternehmen, die nicht der europäischen Währungsunion angehören, im Jahr 2009 38 Prozent. Eine Tatsache, die verdeutlicht, dass Wechselkursverluste große Verluste für KMU nach sich ziehen können.
Inhaltsangabe: Einleitung: Seit der politischen Wende im ehemaligen Einflussbereich der Sowjetunion und der Auflösung des Rates für gegenseitige Hilfe (RGW) in den 80er Jahre sind die Staaten des östlichen Mitteleuropas sowie des östlichen und südöstlichen Europas, aber auch viele Staaten in Südostasien mit unterschiedlich ausgeprägtem Reformwillen bestrebt, die sozialistische Planwirtschaft zu überwinden und marktwirtschaftliche Strukturen aufzubauen. Dies gilt ebenfalls für Vietnam. Nach der Wiedervereinigung Süd- und Nordvietnams im Jahr 1975 wurde im ganzen Land die zentrale Planwirtschaft nach sowjetischem Vorbild eingeführt. Dieser Planwirtschaft hatte zusammen mit den Folgen des Krieges und mit den Auswirkungen der Außenpolitik Vietnams zur Wirtschaftskrise des Landes Anfang der 80er Jahre geführt: Geringe Produktivität, galoppierende Inflation, Armut, massive Arbeitslosigkeit, Hungersnot und Nullwachstum kennzeichneten die damalige Situation. So sah sich die vietnamesische Regierung gezwungen, einige Lockerungen in der Wirtschaft vorzunehmen (z.B. das Vertragssystem in der Landwirtschaft, die Erhöhung der Betriebsautonomie in der Industrie und Veränderungen in der Währungs-, Lohn-, und Preispolitik), um die Wirtschaftslage und damit die Lebensbedingungen der Bevölkerung zu verbessern. Obwohl es dadurch zu Produktions-, insbesondere zu Reisproduktionssteigerungen kam und die Wirtschaft sich etwas erholen konnte, verbesserte sich die gesamte wirtschaftliche und soziale Situation jedoch im Wesentlichen nicht. Vielmehr führten die Währungs- und Preispolitik mit den Verzerrungen der zentralen Planwirtschaft im Rahmen der Wirtschaftlockerungen zu einer noch tieferen Krise, so dass die vietnamesische Regierung zu einem Umsteuern keine Alternative sah. 1986 wurde die wirtschaftspolitische Reformpolitik (Erneuerungspolitik, auf Vietnamesisch 'Doi Moi') eingeleitet, mit der Vietnam den Transformationsprozess von einer sozialistischen Planwirtschaft zu einer freien Marktwirtschaft begonnen hat, der bis heute andauert. Ziel der Arbeit ist es, die Transformation in Vietnam darzustellen. Dabei werden die wichtigsten Reformschritte bzw. -maßnahmen und deren Ergebnisse dargestellt sowie gegenwärtige Probleme aufgezeigt. Darüber hinaus werden für die zukünftige Entwicklung Vietnams – insbesondere unter dem Aspekt der internationalen Integration – wichtige Herausforderungen, erzielte wirtschaftliche Erfolge sowie bestehende Defizite aufgezeigt und analysiert. In diesem Zusammenhang werden auch Entwicklungsmöglichkeiten für Vietnam aufgezeigt. Dabei wird auf die Transformationswege näher eingegangen. Somit ist der Transformationsprozess ebenfalls Gegenstand der Untersuchung. Bei dieser Untersuchung geht es auch darum aufzuzeigen, ob die seit der Reformpolitik 1986 eingeleitete Transformation von Vietnam auch wirklich eine Transformation darstellt, oder ob es sich nur um eine unvollständige Transformation handelt. Gang der Untersuchung: Diese Arbeit ist in vier Teile (Kapitel 2, 3, 4 und 5) unterteilt. In dem ersten theoretischen Teil werden neben der Begriffsdefinition die Notwendigkeit der Transformation und wichtige Reformschritte dargestellt. In dem zweiten Teil wird auf die Wirtschaft Vietnams vor der Reform näher eingegangen. Hierbei werden die Ursachen der tiefgreifenden Wirtschaftskrise Vietnams und einige Lockerungsmaßnahmen für die Wirtschaft im Zeitraum von 1981 bis 1986 aufgeführt. Der dritte Teil befasst sich mit der Transformation in Vietnam. Dabei werden die wichtigsten Reformschritte bzw. -maßnahmen und deren Ergebnisse sowie gegenwärtige Probleme in der Landwirtschaft, im Preissystem, in der Geld- und Finanzpolitik, in den Staatsunternehmen und in der Privatisierung sowie in der Außenwirtschaft dargestellt. Im letzten Teil der Arbeit werden wichtige Herausforderungen mit globalem Bezug, erzielte wirtschaftliche Erfolge sowie bestehende Defizite im Hinblick auf die zukünftige Entwicklung Vietnams aufgezeigt und analysiert und damit im Zusammenhang stehende Entwicklungsmöglichkeiten dargestellt. Dabei wird auf die Transformationswege näher eingegangen. Abgerundet wird die Arbeit mit einer Zusammenfassung und einer Schlussbemerkung.Inhaltsverzeichnis:Inhaltsverzeichnis: ABKÜRZUNGSVERZEICHNISIII ABBILDUNGSVERZEICHNISIV TABELLENVERZEICHNISV 1.EINLEITUNG1 1.1PROBLEMSTELLUNG1 1.2GANG DER UNTERSUCHUNG2 2.THEORETISCHE GRUNDLAGEN3 2.1BEGRIFFSDEFINITION3 2.2NOTWENDIGKEIT DER TRANSFORMATION3 2.3WICHTIGE REFORMSCHRITTE5 2.3.1Reform im Preissystem6 2.3.2Stabilisierung des Geldwertes7 2.3.3Reform im Finanzwesen8 2.3.4Unternehmensreform und Privatisierung9 2.3.5Reform der Außenwirtschaft10 3.WIRTSCHAFT VIETNAMS VOR DER REFORM12 3.1DIE WIRTSCHAFTSKRISE VIETNAMS UND IHRE URSACHEN12 3.1.1Folgen des Krieges14 3.1.2Folgen der zentralen Planwirtschaft15 3.1.3Auswirkungen der Außenpolitik18 3.2WIRTSCHAFTSLOCKERUNGEN VON 1981 BIS 198619 4.TRANSFORMATION IN VIETNAM24 4.1REFORM DER LANDWIRTSCHAFT25 4.2LIBERALISIERUNG DES PREISSYSTEMS31 4.3SCHAFFUNG DER GELDWERTSTABILITÄT35 4.3.1Bekämpfung der Inflation35 4.3.2Reform des Finanzsystems38 4.4UNTERNEHMENSREFORM UND PRIVATISIERUNG43 4.4.1Reform der staatlichen Unternehmen43 4.4.2Förderung der Privatwirtschaft50 4.5REFORM DER AUSSENWIRTSCHAFT54 4.5.1Liberalisierung des Außenhandels und Exportförderung54 4.5.2Aufbau der Wirtschaftsbeziehungen mit 'nichtsozialistischen' Ländern und weltwirtschaftliche Integration56 4.5.3Förderung ausländischer Investitionen61 5.ZUKUNFTSPERSPEKTIVEN64 5.1HERAUSFORDERUNGEN65 5.1.1Landwirtschaft65 5.1.2Armut und Einkommensunterschiede69 5.1.3Bildung, Gesundheitswesen und soziale Sicherung72 5.1.4Infrastruktur76 5.1.5Industriepolitik78 5.2ERFOLGE, DEFIZITE UND TRANSFORMATIONSWEGE81 6.ZUSAMMENFASSUNG UND SCHLUSSBEMERKUNG90 ANHANGVII LITERATURVERZEICHNISXXIII INTERNETQUELLENXXIXTextprobe:Textprobe: Kapitel 4, Transformation in Vietnam: Auf dem VI. Parteitag der KPV im Dezember 1986, dem sogenannten 'Reformparteitag', ergriff die neue Parteiführung die Initiative zu einer ideologischen und wirtschaftspolitischen Richtungsänderung. Neues Leitbild der Entwicklung sollte eine multisektorale Wirtschaft sein, in welcher der staatliche, der genossenschaftliche und der private Sektor gleichberechtigt nebeneinander existieren. Dies bedeutet, dass verschiedene Eigentumsformen an Produktionsmitteln in der gesamten Wirtschaft erlaubt sind. Die bis dahin vorgegebene zentrale Planung wurde in Frage gestellt, Subventionen an die Staatsbetriebe und das staatlich festgesetzte Preisgefüge sollten abgeschafft sowie die industrielle Entwicklung gegenüber der landwirtschaftlichen nicht mehr bevorzugt werden. Die Familienwirtschaft sollte gefördert und eine außenwirtschaftliche Öffnung angestrebt werden. Diese 1986 begonnene Reform konnte zu einem konsistenten Paket geschnürt werden, nachdem die vietnamesische Regierung Anfang 1989 ein binnen- und außenwirtschaftliches Liberalisierungs- sowie ein geld-, fiskal und strukturpolitisches Stabilisierungsprogramm auflegte. Die damit verbundenen Maßnahmen sollten einen effektiven Beitrag zur Lösung der akuten makroökonomischen Probleme leisten. Aus Sicht der Sozialpolitik sollte die Einführung der Reformen in erster Linie die Sicherung der Nahrungsmittelversorgung für die eigene Bevölkerung gewährleisten und den Lebensstandard der gesamten Bevölkerung verbessern. In den folgenden Abschnitten werden die Reformschritte bzw. –maßnahmen und deren Ergebnisse dargestellt sowie gegenwärtige Probleme aufgezeigt. Reform der Landwirtschaft: Vietnam hat eine Bevölkerungsanzahl von rund 86 Mio. Menschen und eine Fläche von ca. 331.000 km2. Es ist vorrangig ein Agrarland. Bis 1986 war die Agrarproduktion naturabhängig und kaum diversifiziert. Die traditionelle Struktur der Produktion war bis dahin unverändert geblieben. Die Bauern hatten mit winzigen Parzellen, bescheidenster technologischer Ausrüstung und einer schmalen Palette von Produktionstätigkeiten (Feldbau, Viehzucht im Nebengewerbe und etwas Forstwirtschaft) zurecht zu kommen. Zudem produzierten sie überwiegend für den Eigenbedarf oder für den Austausch gegen andere für den eigenen Konsum benötigte Waren (Selbstversorgung der Subsistenzwirtschaft). Nach der Wiedervereinigung Vietnams 1975 war die Landwirtschaft im ganzen Land der Bodenumverteilung und der Kollektivierung ausgesetzt. Die Kollektivierung führte später zu Zwangsgenossenschaften bzw. zur Umwandlung der vietnamesischen Dörfer in landwirtschaftliche Produktionsgenossenschaften (Kooperativen). Die Preise und Umsatzmengen der Bauern waren von nun an vom Staat festgelegt. Die Arbeit der Bauern wurde weniger nach Leistung, sondern mehr nach Sozial- und Klassengesichtspunkten bewertet und durch Zuteilung von so genannten 'Arbeitspunkten' belohnt. Die Zwangskollektivierung im Süden war allerdings, trotz des staatlichen Drucks, nicht weit fortgeschritten. Während im Norden 97% der landwirtschaftlichen Produktion kollektiviert waren, waren im Süden nur 20% der Bauernhaushalte in die Genossenschaften eingetreten. So wurden einige Agrarprodukte wie z.B. Reis vor allem von Kooperativen bewirtschaftet, während andere wie z.B. Eier, Fleisch, Fische, Obst und Gemüse überwiegend von privaten Bauern geliefert wurden. Das Ziel der Wirtschaftspolitik in den Jahren nach 1975, nämlich die Kleinproduktion in der gesamten Wirtschaft zu einer sozialistischen Großproduktion zu entwickeln, wurde bis dahin nicht erreicht (vgl. Kapitel 3.1.2). Auch Investitions- und Modernisierungsplanungen für den Agrarsektor waren wenig erfolgreich, obwohl einige Bewässerungsprojekte bessere Energie- und Wasserversorgungsmöglichkeiten auf den Feldern im Norden gebracht haben. Die Bevorzugung der industriellen Entwicklung gegenüber der Landwirtschaft führte dazu, dass der Staat hohe Investitionen für den Aufbau der Schwerindustrie, besonders für den Bau industrieller Großprojekte, getätigt hat. Dabei wurden die Erhöhung der Produktion von Konsumgütern und Exportwaren und insbesondere die Lösung der Ernährungsprobleme mit Hilfe der Landwirtschaft vernachlässigt. Daher wurde seit dem VI. Parteitag, vor allem seit den konkreten landwirtschaftlichen Reformbeschlüssen vom April 1988, die Entwicklung der Landwirtschaft bzw. der Agrarproduktion als erste Priorität angesetzt. Im Zentrum der Zielsetzungen standen dabei die Sicherstellung der Nahrungsmittelproduktion und die Beschleunigung des Produktionszuwachses. Demnach wurde die Landwirtschaft mit Produktionsmitteln und Arbeitskräften sowie mit besserer Infrastruktur versorgt (Dies reichte vom Ausbau von Straßenverbindungen über Elektrizitäts- und Telekommunikationseinrichtungen bis hin zur Modernisierung des Bewässerungswesens und zur Verbesserung der Gesundheitsvorsorge und der ländlichen Schulbildung). Hierbei ging es in erster Linie – neben quantitativen Zuwächsen – um mehr qualitative Effizienz. Dafür wurde ein Finanzierungsprogramm konkret festgelegt, so dass die staatlichen Ausgaben für landwirtschaftliche Investitionen im Jahr 1987 gegenüber dem Vorjahr (24,5%) auf 29% stiegen. Da es nun um die Produktivkräfte geht und nicht mehr um die Produktionsverhältnisse, wurde auf die Eigentumsverhältnisse mit dem Ziel der Schaffung von Kollektiv- und Staatseigentum nicht mehr Wert gelegt. Privateigentum an Produktionsmitteln erhielt jetzt den gleichen Rang wie genossenschaftliches und staatliches Eigentum.
Aus der Einleitung: Die Informationstechnologie (IT) hat in den Finanzdienstleistungshäusern schon lange einen übergreifenden Einzug erhalten und unterstützt Kunden sowie Mitarbeiter bei täglichen Routinen. Der Einsatz von mobilen und stark vernetzten IT-Systemen ist dabei in nahezu sämtlichen Geschäftsprozessen wiederzufinden und leistet als Rückgrat vieler Geschäftsmodelle einen wesentlichen Beitrag zur Erreichung der Unternehmensziele. Immer deutlicher zählt die dabei eingesetzte IT-Infrastruktur zum wertvollen, besonders zu schützenden Gut eines Unternehmens und ist zugleich zunehmend dem Einwirken komplexer Ereignisse - resultierend aus Missbräuchen oder auch Fehlbedienungen - auf sicherheitskritische Eigenschaften der Geschäftsprozesse ausgesetzt. Für die Finanzbranche entstehen auf diese Weise Schäden, die sehr vielfältig ausfallen können und dessen vorläufiger Höhepunkt sich - verursacht durch einen einzelnen Fall von Computermissbrauch - auf eine bedrohliche Schadenssumme von 4,9 Milliarden Euro beläuft. Der IT-Sicherheit wird damit eine enorme Bedeutung zuteil, dessen Erfolg, gemessen an der Minimierung der Gefährdung des reibungslosen Geschäftsablaufs bzw. der Vermeidung wirtschaftlicher Schäden, wesentlich von der effizienten Ermittlung und Bewertung von Bedrohungen und Risiken und anschließender Maßnahmen abhängt. Dem wird die Sicherheitsanalyse - deren Ergebnisse sich in den Sicherheitsanforde-rungen widerspiegeln - gerecht, die allerdings aufgrund der Dynamik bei IT-Systemen bereits einen stetig wiederkehrenden Aufwand für das Unternehmen bedeutet. Zusätzlich und weitaus aufwendiger ergibt sich die Durchführung und Überwachung der aus den Anforderungen hervorgehenden Sicherheitsmaßnahmen im Tagesge-schäft. Um diesen Aufgaben Herr zu werden bedienen sich Finanzdienstleister (FDL) technischer Hilfsmittel, dessen Leistungsfähigkeit einen gewichtigen Einflussfaktor auf ein optimales Verhältnis zwischen höchstmöglichem Schutz bei geringstmöglichem Arbeitsaufwand ausmacht. Zu den von den FDL genutzten technischen Hilfsmitteln zählen unter anderem Fire-walls, Vierenscanner, Intrusion Detection bzw. Intrusion Protection Systeme (IDS/IPS), die im Wesentlichen sicherheitskritische Aktivitäten innerhalb eines Rechnernetzes oder -systems erkennen bzw. anzeigen und ggf. unterbinden sowie zunehmend Security Information and Event Management (SIEM) Lösungen. Letztere nehmen eine übergeordnete Rolle ein, da diese auf erstgenannte aufsetzen und deren Funktionen bündeln, anreichern oder sogar übernehmen können. Diese Eigenschaft macht SIEM Systeme zum zentralen Ansatzpunkt zur Verbesserung sicherheitstechnischer und betriebswirtschaftlicher Aspekte.Inhaltsverzeichnis:Inhaltsverzeichnis: I.Danksagung II.Inhaltsverzeichnis III.Tabellenverzeichnis IV.Abkürzungsverzeichnis V.Abbildungsverzeichnis 1Einleitung1 1.1Motivation2 1.2Ziel und Vorgehensweise der Arbeit3 1.3Aufbau der Arbeit3 2IT-Sicherheit, Bedrohungen und Methoden4 2.1Problembereich IT-Sicherheit4 2.1.1Grundwerte der IT-Sicherheit6 2.1.2Bedrohungen und Gefährdungen7 2.1.3Angriffe und Angreifer8 2.1.4Risiken und Schwachstellen13 2.2Informationstechnologie bei FDL15 2.2.1Betriebliche Anwendungen16 2.2.2Vernetzung und verteilte Systeme17 2.2.3Sicherheitskritische Geschäftsprozesse und Ereignisse19 2.2.4Datenschutz, Datensicherheit und Compliance20 2.3Security Information and Event Management (SIEM)22 2.3.1Einsatzumfeld von SIEM Lösungen22 2.3.2Funktionsweise von SIEMs23 2.3.3Collection24 2.3.4Normalization25 2.3.5Aggregation25 2.3.6Correlation26 2.3.7Reporting29 2.4Modellierungsmethode UML30 2.4.1Misuse Case Diagramm30 2.4.2Mal-Activity Diagramm31 2.5Attack-Trees Methode32 3Anwendungsfall aus der Finanzbranche33 3.1Umfeld und Zugangssysteme der Bank33 3.2Internetbanking Anwendung36 3.2.1Internetbanking Überweisung38 3.2.2Prozessablauf der Überweisung40 3.3Bedrohungsanalyse44 3.3.1Zugangsdaten des Kunden missbrauchen44 3.3.2Kunden austricksen und manipulieren47 3.3.3Banksystem kompromittieren50 3.3.4Kundenrechner infizieren51 3.4Risikoanalyse und Sicherheitsanforderungen52 3.4.1Analyse zu Zugangsdaten des Kunden missbrauchen52 3.4.2Analyse zu Kunden austricksen und manipulieren54 3.4.3Analyse zu Banksystem kompromittieren55 3.5Modellierung der Einwirkung auf Prozesse57 3.5.1Misuse Case Internetbanking Überweisung57 3.5.2Mal-Activity Internetbanking Überweisung58 3.5.3Objekte bei der Internetbanking Überweisung62 4Erkenntnisse und Implikationen63 4.1Geschäftsprozessereignisbasierte Sicherheitsanalyse63 4.1.1Ableitung von Angriffsindikatoren64 4.1.2Indikatoraussagen64 4.1.3Sicherheitsanalysemodell66 4.2Sicherheitsanforderungen und Implikationen für die Praxis67 4.3Implikationen für die Forschung68 4.4Zusammenfassung68 VI.Anlagen VII.LiteraturverzeichnisTextprobe:Textprobe: Kapitel2.1.3, Angriffe und Angreifer: Angreifer unterscheiden sich in ihrer Qualifikation, Motivation und den eingesetzten Mitteln erheblich. Die Angreiferklasse mit den wohl meisten Anhängern stellen hierbei die sog. Skriptkiddies (abgeleitet von Skript und Kid) dar, die ein Gruppe bestehend aus jugendlichen Angreifern bezeichnet. Diese greifen auf vorgefertigte, automatisierte Angriffswerkzeuge (sog. Exploits oder Rootkits) zurück und können so ohne tiefreichendes Grundwissen Angriffe durchführen. Bezeichnend für die Angreiferklasse der Hacker sind sehr versierte Angreifer, denen es durch individuell entwickelte Angriffsmethoden gelingt, auch in gesicherte Rechnernetze einzudringen. Der Begriff Cracker wird von den Medien kaum verwendet und stattdessen mit dem Hacker unter einen Hut gesteckt. Zur ausreichenden Differenzierung ist daher zusätzlich zu erwähnen, dass sich Hacker und Cracker zwar insbesondere hinsichtlich ihrer Qualifikation ähneln bzw. ebenwürdig sind, aber Cracker meist beide Seiten kennen bzw. alle Schattierungen durchlaufen haben. Zwischen diesen beiden Gruppen ist demnach ein wichtiger Unterschied herauszustellen. Der Hacker gilt gemeinhin als ethisch handelnde Person, die sich selbst auch mit gemeinnützigen Beiträgen wie z.B. dem Aufdecken von Sicherheitslücken und anschließender Veröffentlichung identifiziert, mit dem Ziel, die Verantwortlichen dazu zu bewegen, diese zu schließen. Der Cracker hingegen gilt als unmoralisch, handelt eigennützig, profitorientiert und bietet hierzu seine Dienste auch (kriminellen) Dritten an. Ein nicht unbeträchtliches Schadensrisiko geht ebenso von der Gruppe der Mitarbeiter aus. Laut einer Umfrage finden zwar mit 58% die meisten Angriffe von extern (d.h. unautorisiert von außerhalb des Firmennetzwerks bzw. vor der demilitarisierten Zone aus statt, jedoch sind die internen Angriffe (d.h. mit autorisiertem Zugang oder Zugriff auf das Firmennetzwerk bzw. die Unternehmens-IT) mit 21% die kostspieligeren für das Unternehmen. Die restlichen 21% sind Angriffe, deren Ursprung unbekannt ist. Dabei setzen Mitarbeiter zunehmend (22% in 2011 im Verhältnis zu 9% in 2010) Angriffswerkzeuge wie z.B. Rootkits ein, die immer einfacher zu beschaffen sind, was die Angriffe von innen heraus gefährlicher macht. Angriffe von Mitarbeitern sind zudem schwieriger zu erkennen, da für gewöhnlich die eingesetzten Sicherheitsmaßnahmen/ -mechanismen, wie z.B. Firewalls oder IDS, erstrangig auf den Angriff von extern ausgelegt werden. Darüber hinaus haben Mitarbeiter - im Gegensatz zu externen Angreifern - den Vorteil über Insiderwissen zu verfügen, was einen zielgerichteten Angriff mit weniger hinterlassenen Spuren erlaubt. Ein sehr ernstes Problem aus Mitarbeiter-Angriffen ergibt sich für die Unternehmen (insbesondere FDL) durch die unberechtigte Weitergabe von (geheimen) Informationen bzw. dem Datendiebstahl sowie dem Betrug in Verbindung mit Computermissbrauch. Auf die Weise von Letzterem werden Gelder veruntreut, elektronisch verarbeitete Urkunden oder Abrechnungen gefälscht und Richtlinien und deren computergestützte Geschäftsprozesse ausgetrickst, um sich selbst oder (bekannten) Dritten Vorteile zu verschaffen. Aus Sicht der FDL stellt die Gruppe der Kriminellen ein besonders hohes Schadensrisiko dar, denn es sind insbesondere die Banken und ihre Kunden, die im Fokus dieser Angreiferklasse liegen. Hauptsächlich sind es sog. Skimming-Angriffe - der Betrug mittels rechtswidrig erlangter Kredit- oder Bankkartendaten mit PIN - und sog. Phishing-Angriffe - der Betrug mittels ausgespähten Zugangsberechtigungsdaten (engl. credentials) für Kommunikationsdienste wie z.B. dem Online Banking der Bank - die von dieser Gruppe praktiziert werden. Angreifer dieser Art sind international aktiv und gleichen mit ihrem Organisationsgrad und -aufbau multinational agierenden Unternehmen. Sie haben eine Spitze, die alles koordiniert, Bereiche, die Entwicklungs-, Design- und Abwicklungsaufgaben, wie z.B. die Geldwäsche und das damit verbundene Anwerben von sog. Finanzagenten (engl. money mules) nachgehen und hiervon entsprechende Pendants in unterschiedlichen Ländern. Die Beteiligten solcher Cybercrime-Ringe, von denen die wenigsten einen Überblick über die gesamte Organisation haben, kommunizieren untereinander mit Pseudonymen und größtenteils über gesicherte Verbindungen, was ein entsprechendes Aufdecken bzw. Bekämpfen dieser Gruppe und deren Aktivitäten erschwert. Dabei stehlen einzelne Ringe bis zu 72 Mio. US-Dollar von Bankkonten in über 10 Ländern durch den Einsatz von Malware (engl. für Schadprogramm). Neben der Vielfalt der Angreifer sind es diverse Angriffs-Arten mit denen sich Unternehmen auseinandersetzen müssen. Wie dem folgenden Ausschnitt einer Studie jedoch zu entnehmen ist, ist die Unternehmens-IT in den meisten Fällen Angriffen in Verbindung mit eingesetzter Malware ausgesetzt. Selbstverständlich ist - aufgrund befürchteter Reputationsschäden des IT-Sicherheits-Verantwortlichen sowie unter Umständen ohne Kenntnis des Unternehmens stattgefundener Angriffe - dem Ergebnis solcher Befragungen zu unterstellen, dass nicht alle Angriffe benannt wurden. Dennoch zeichnet sich bei Angriffen deutlich die Erfahrung mit Malware ab. Die FDL sehen sich bzw. ihre Kunden ebenfalls in Form von Phishing-Angriffen mit Malware konfrontiert, wobei Skimming-Angriffe für Institute die weitaus größere Bedrohung darstellen. Besonders erwähnenswert bei beiden Angriffsarten ist, dass lediglich jeder 4. Fall durch die Bank erkannt wird und beim Rest vom betroffenen Kunden darauf aufmerksam gemacht wird. Was im Umkehrschluss bedeutet, dass in den meisten Fällen erst spät, nämlich wenn der Schaden bereits eingetreten und der Angriff vollzogen ist, Kenntnis erlangt wird und so keine Möglichkeit mehr zur Eingrenzung oder zum Vereiteln besteht. Dieser Missstand lässt sich bei derartiger Angriffs-Konstellation hauptsächlich auf die Schwierigkeit die Schwachstellen bei den eingesetzten Endgeräten ausreichend abzusichern (engl. Endpoint-Security) zurückführen. So ist es aus Bankperspektive bspw. nahezu unmöglich, weder den vom Kunden für das Online Banking eingesetzten PC noch den Kunden selbst – dem sog. Social Engineering – vor Manipulationen zu schützen. Das Ergreifen entsprechender Schutzmaßnahmen, wie z.B. der Einsatz von Firewalls oder Antivirusprogrammen auf dem heimischen PC, obliegt (bisher) allein dem Kunden.
Inhaltsangabe: Einleitung: Familienunternehmen spielen eine bedeutende Rolle in der Wirtschaftslandschaft der Bundesrepublik Deutschland. Manche bezeichnen sie gar als das 'Rückgrat der deutschen Wirtschaft'. Zahlreiche Zeitungen haben ihren Ausgaben familienunternehmerspezifische Rubriken beigefügt. Hierbei werden Familienunternehmen immer wieder als Unternehmensform dargestellt, die langfristigen Erfolg hat, unabhängig vom Finanzmarkt ist und sich durch Loyalität, Nachhaltigkeit sowie Standortverbundenheit auszeichnet. Jedoch wird dieses Bild vorrangig von einem Kreis aus Experten oder Interessenverbänden gezeichnet. Ob dieses Bild auch von der Öffentlichkeit so akzeptiert und wahrgenommen wird, war Anlass einer ersten Studie innerhalb der Bevölkerung. Im Rahmen des X. Kongresses für Familienunternehmen an der Universität Witten/Herdecke wurde zum ersten Mal die Außenwirkung von Familienunternehmen empirisch erhoben. Hierzu wurde mit dem Methodeninstitut nextpractice GmbH kooperiert, mit deren Softwaretool nextexpertizer die Befragung durchgeführt wurde. Diese Studie beschäftigte sich mit der Fragestellung, ob in der Wahrnehmung der Öffentlichkeit eine 'Marke Familienunternehmen' entstanden sei und welche Erwartungen an diese Marke geknüpft werden. Die Studie kam zu den Ergebnissen, das Familienunternehmen von der Gesellschaft als hochgradig sozial und nachhaltig angesehen werden, diese Werte in Zukunft jedoch eine weniger bedeutende Rolle spielen würden. Die Finanz- und Wirtschaftskrise hat die internationale wie nationale Wirtschaftslage seitdem drastisch verschärft. Die Stimmung in der Bevölkerung ist zunehmend angstvoller geworden, da viele Menschen ihre Arbeitsplätze und Existenzen bedroht sehen. Diese Entwicklung ist als Prüfstein für die Marke Familienunternehmen zu sehen. Familienunternehmen werden insbesondere daran gemessen, ob ihre Kerneigenschaften wie Nachhaltigkeit oder Langfristigkeit grade dann ihre Wirkung entfalten, wenn sie gebraucht werden. In Zeiten der Krise bekommt die Erwartungshaltung gegenüber Familienunternehmen deshalb eine besondere Bedeutung. Beweisen sich Familienunternehmen auch in der Krise als Rückgrat der deutschen Wirtschaft? Hat sich die Erwartungshaltung der Öffentlichkeit verändert? Nimmt die Öffentlichkeit Familienunternehmen auch in der Krise noch als sozialen Sicherungsanker wahr? Diese Fragen sollen im Rahmen dieser Arbeit durch die Analyse einer Anschlussstudie zur Marke Familienunternehmen geklärt werden, die in den Monaten Januar bis März 2009 - zur 'Hochzeit' der Wirtschaftskrise - durchgeführt wurde. Die erste Studie aus dem Jahr 2008 soll als Referenz genutzt werden, um die Veränderungen in der Wahrnehmung deutlich zu machen. Zudem soll eine weitere Frage geklärt werden. Im Rahmen des Kongresses von 2008 wurde die Wahrnehmung von Familienunternehmen in der Öffentlichkeit schnell zu einer 'Marke Familienunternehmen' gemacht. Ob es jedoch, nach verschiedenen theoretischen Ansätzen, legitim ist, von einer Marke zu sprechen, wurde seinerzeit nicht weiter betrachtet. Deshalb soll diese Arbeit eine detaillierte Einführung in das Phänomen Marke geben, ihre Funktionsweisen herausarbeiten und Voraussetzungen untersuchen, unter denen Marken überhaupt erst entstehen können. Vor dem Hintergrund der Finanzkrise sollen die daraus gewonnenen Erkenntnisse auf die vermeintliche Marke Familienunternehmen übertragen werden. Die Implikationen der Finanzkrise werden dadurch in Beziehung gesetzt zu etwaigen Veränderungen in der Wahrnehmung der Bevölkerung und zu ihrer Bedeutung für die Marke Familienunternehmen. Die Arbeit teilt sich in einen Grundlagen-, einen Theorie- und einen Empirieteil auf. Die Grundlagen in Kapitel 1 schaffen ein allgemeines Verständnis von Familienunternehmen und beleuchten die Hintergründe der Finanzkrise, die möglicherweise zu anderen Bewertungsgrundlagen bei den Befragten geführt haben. Kapitel 2 behandelt das Phänomen Marke. Einer chronologischen Betrachtung der Entwicklung des Markenbegriffs folgen detaillierte Erklärungen zu zwei Modellen, die im weiteren Verlauf der Arbeit zur theoretischen Reflektionsgrundlage der Marke Familienunternehmen dienen. Hierbei handelt es sich um den Ansatz zur identitätsorientierten Markenführung sowie ein soziologisch orientiertes Markenverständnis. Kapitel 3 beschäftigt sich eingehend mit der Methodik der empirischen Erhebung. Die theoretische Fundierung des nextexpertizer sowie seine Funktionsweisen werden beschrieben und in Beziehung zu gängigen qualitativen und quantitativen Verfahren gesetzt. In den Kapiteln 4 und 5 werden die Studien aus 2008 und 2009 getrennt voneinander im Detail analysiert. Der Fokus liegt dabei auf der Einschätzung des gesellschaftlichen und wirtschaftlichen Umfeldes sowie der Betrachtung unterschiedlicher Unternehmensklassen. In Kapitel 6 werden die beiden Studien zusammengeführt und auf die wesentlichen Veränderungen eingegangen. Diese Erkenntnisse werden in Bezug zur Finanzkrise und zu dem in Kapitel 2 gewonnenen Verständnis von Marken gesetzt. Kapitel 7 fasst die Ergebnisse dieser Arbeit zusammen und gibt einen kurzen Ausblick auf mögliche künftige Forschungsfelder. Zuerst sollen jedoch die Erklärungen zu Familienunternehmen und zu der Finanzkrise die Grundlagen für theoretische Reflektionen und empirische Erhebungen bieten.Inhaltsverzeichnis:Inhaltsverzeichnis: ABBILDUNGSVERZEICHNIS6 TABELLENVERZEICHNIS7 ABKÜRZUNGSVERZEICHNIS8 1.EINLEITUNG UND GRUNDLAGEN9 1.1AUSGANGSSITUATION UND ZIEL DER ARBEIT10 1.2GANG DER ARBEIT11 1.3EINFÜHRUNG IN DIE GRUNDLAGEN DER ARBEIT13 1.3.1DEFINITION UND EINORDNUNG VON FAMILIENUNTERNEHMEN13 1.3.2DIE FINANZ- UND WIRTSCHAFTSKRISE UND IHRE AUSWIRKUNGEN15 1.4ZUSAMMENFASSUNG KAPITEL 126 2.DAS PHÄNOMEN MARKE27 2.1EINLEITUNG28 2.1.1HISTORISCHE ENTWICKLUNG DER MARKE29 2.1.2DIE FUNKTIONEN EINER MARKE35 2.2IDENTITÄTSORIENTIERTE MARKENFÜHRUNG36 2.2.1EINLEITUNG UND KONZEPT36 2.2.2DAS AUSSAGENKONZEPT39 2.2.3DAS AKZEPTANZKONZEPT41 2.2.4IDENTITÄTSORIENTIERTER ANSATZ UND DIE MARKE FAMILIENUNTERNEHMEN41 2.3FAMILIE ALS MARKE UND ALS MYTHOS44 2.3.1DIE BEDEUTUNG VON MYTHEN44 2.3.2MYTHEN ALS GRUNDLAGE STARKER MARKEN45 2.3.3FAMILIE ALS MYTHOS DES FAMILIENUNTERNEHMENS47 2.3.4DIE FAMILIE ALS ARCHAISCHER HELD52 2.4ZUSAMMENFASSUNG KAPITEL 254 3.METHODIK DER EMPIRISCHEN ERHEBUNG55 3.1EINLEITUNG56 3.1.1GEORGE A. KELLYS PSYCHOLOGIE DER PERSÖNLICHEN KONSTRUKTE56 3.1.2REPERTORY-GRID ALS ANWENDUNG DER THEORIE DER PERSÖNLICHEN KONSTRUKTE59 3.1.3EINORDNUNG DES REPERTORY-GRID IN DIE METHODEN DER MARKTFORSCHUNG60 3.1.4DAS REPERTORY-GRID-VERFAHREN UND TESTGÜTEKRITERIEN61 3.2DER NEXTEXPERTIZER - EINFÜHRUNG64 3.2.1DER NEXTEXPERTIZER - ENTWICKLUNG DES ELEMENTE-SETS65 3.2.2DER NEXTEXPERTIZER - DURCHFÜHRUNGSPHASE65 3.2.3DER NEXTEXPERTIZER – KONSENSUELLE VALIDIERUNG68 3.2.4DER NEXTEXPERTIZER- INTERVIEWAUSWERTUNG69 3.3ZUSAMMENFASSUNG KAPITEL 371 4.DIE MARKE FAMILIENUNTERNEHMEN IM JAHR 200873 4.1EINLEITUNG74 4.2STUDIENDESIGN74 4.2.1STICHPROBENAUSWAHL74 4.2.2DIE ENTWICKLUNG DES ELEMENTESETS76 4.2.3ANALYSELOGIK FÜR ELEMENTE79 4.3DIE ERGEBNISSE DER STUDIE 200881 4.3.1THEMENCLUSTERUNG81 4.3.2SPOTLIGHT - WAS MIR PERSÖNLICH WICHTIG IST85 4.3.3SPOTLIGHT - UNTERNEHMENSTYPEN88 4.3.4SPOTLIGHT - GLOBALISIERUNG ALS HERAUSFORDERUNG99 4.3.5SPOTLIGHT - IMAGE FAMILIENUNTERNEHMEN IM ZEITVERLAUF101 4.4ZUSAMMENFASSUNG KAPITEL 4106 5.DIE MARKE FAMILIENUNTERNEHMEN IM JAHR 2009107 5.1EINLEITUNG108 5.2STUDIENDESIGN109 5.2.1STICHPROBENAUSWAHL109 5.2.2DIE ENTWICKLUNG DES ELEMENTE-SETS110 5.2.3ANALYSELOGIK FÜR ELEMENTE110 5.3DIE ERGEBNISSE DER STUDIE 2009111 5.3.1THEMENCLUSTERUNG111 5.3.2SPOTLIGHT - WAS MIR PERSÖNLICH WICHTIG IST114 5.3.3SPOTLIGHT - UNTERNEHMENSTYPEN117 5.3.4SPOTLIGHT - GLOBALISIERUNG ALS HERAUSFORDERUNG126 5.3.5SPOTLIGHT - IMAGE FAMILIENUNTERNEHMEN IM ZEITVERLAUF129 5.4ZUSAMMENFASSUNG KAPITEL 5133 6.DIEMARKE FAMILIENUNTERNEHMEN IN DER FINANZKRISE134 6.1EINLEITUNG135 6.2VERGLEICH DER STUDIEN 2008 UND 2009135 6.2.1VERÄNDERUNGEN DES BEDEUTUNGSRAUMES135 6.2.2VERÄNDERUNGEN DER GLOBALISIERUNG140 6.2.3VERÄNDERUNGEN DER BEWERTUNG VON FAMILIENUNTERNEHMEN141 6.3EINFLUSS DER FINANZKRISE AUF DIE MARKE FAMILIENUNTERNEHMEN145 6.3.1IDENTITÄTSORIENTIERTER ANSATZ145 6.3.2FAMILIENUNTERNEHMEN ALS MARKE UND ALS MYTHOS146 7.ZUSAMMENFASSUNG UND AUSBLICK149 7.1ZUSAMMENFASSUNG150 7.2AUSBLICK151 LITERATURVERZEICHNIS153 MONOGRAPHIEN UND ZEITSCHRIFTENARTIKEL153 INTERNETQUELLEN157 SONSTIGE QUELLEN160 ANHANG161Textprobe:Textprobe: Kapitel 4.3.3, Spotlight – Unternehmenstypen: Positionierung im dreidimensionalen Raum (Abbildung im Original): Durch räumliche Nähe bzw. Distanz wird die Ähnlichkeit bzw. Unterschiedlichkeit von Zentroiden ausgedrückt. Zentroide, die nah am Idealzentroid liegen haben mit diesem viele Gemeinsamkeiten und einen hohen Idealzentroid-Erfüllungsgrad, weit entfernte Zentroide sind durch eine hohe Unterschiedlichkeit gekennzeichnet. Nach der grafischen Validierung scheinen 'Kleinunternehmen', 'mittelständische Familienunternehmen' und 'mittelständische Unternehmen' am nächsten an dem Idealzentroid zu liegen und sind damit die am positivsten bewerteten Unternehmenstypen. Je größer Unternehmen werden, desto weiter entfernen sie sich vom Ideal. 'Großkonzerne in Familienbesitz' liegen mittig im Raum und sind beeinflusst von sowohl positiv als auch negativ konnotierten Resonanzfeldern. Dies kann zwei Ursachen haben: Zum einen sind innerhalb der Stichprobe zwei opponierende Gruppen möglich, die 'Großkonzerne in Familienbesitz' gegensätzlich bewerten. Eine dieser Gruppen hat eine durchweg positive Meinung, die andere eine durchweg negative Meinung. Beide zusammen neutralisieren sich und ergeben ein in der Mitte des Raumes liegendes Zentroid. Zum anderen können 'Großkonzerne in Familienbesitz' von der gesamten Befragungsgruppe als in sich gegensätzlich beurteilt worden sein und es können ihnen sowohl positive als auch negative Eigenschaften zugeschrieben werden. Das 'börsennotierte Unternehmen' liegt von allen Unternehmenstypen am deutlichsten im negativen Bereich des Bedeutungsraumes. Es ist am weitesten vom Ideal entfernt und derjenige Unternehmenstypus, der den persönlichen Präferenzvorstellungen am wenigsten entspricht. Eine Betrachtung des Rankings zeigt die genauen Übereinstimmungen der einzelnen Unternehmenstypen mit dem Ideal (Abbildung im Original). 'Mittelständische Familienunternehmen' haben die größten Übereinstimmungen mit den Präferenzvorstellungen der Befragten. Nach der Beurteilung der räumlichen Positionierung im dreidimensionalen Raum waren grafisch keine Unterschiede zwischen den 'Kleinunternehmen' und den 'mittelständischen Unternehmen' auszumachen. Das Ranking zeigt jedoch, dass 'Kleinunternehmen' weniger Übereinstimmungen mit dem Ideal haben, als Mittelständler. Die Betrachtung der großen Unternehmenstypen bestätigt oben genannte erste Eindrücke – 'Großkonzerne in Familienbesitz' distanzieren die andere großen Unternehmensklassen deutlich und weisen ähnlich hohe Präferenzkongruenzen mit dem Ideal auf, wie 'Kleinunternehmen'. 'Deutsche Großkonzerne' und 'börsennotierte Unternehmen', werden deutlich schlechter bewertet und sind, gemessen an der Idealvorstellung von Unternehmen, am weitesten hiervon entfernt. In den folgenden Abschnitten wird mittels einer Analyse der Erfüllungsgrade eine qualitative Betrachtung durchgeführt, welche die Bewertungen der unterschiedlichen Unternehmensformen präzisiert.
Este artículo se enfoca en la dimensión biográfica de los procesos de desarrollo de conciencia política y su relevancia para la consistencia en la acción política. Está basado en un solo caso de estudio, que fue desarrollado dentro de un proyecto de historia oral en 1980. Una nueva reconstrucción de la narrativa del trabajador acerca de su rechazo para servir en el ejército y la subsecuente huida durante el periodo Nacional-Socialista muestra como se entrelazan los deseos personales para el cambio y los patrones políticos institucionalizados de interpretación y acción. El protagonista puede lidiar con tiempos de actitud extremadamente restringida para la acción, como fue el caso en la era Nazi, adquiriendo aprendizaje personal o destrezas para el manejo de crisis, mientras había esperanza de emancipación e integración social en el futuro. En el periodo de la posguerra, la disipación de esta perspectiva llevó a la reducción en su habilidad individual para tomar acciones políticas.
Inhaltsangabe: Einleitung: In den vergangenen Jahren hat die Problematik der Produktplatzierung im Einzelhandel kontinuierlich an Bedeutung gewonnen. Drei Gründe lassen sich dafür benennen: 1. Die Konsumenten haben die Möglichkeit, aus einer Vielzahl von Einkaufsstätten frei zu wählen. Da die Geschäfte im Allgemeinen von den Kunden als austauschbar empfunden werden, müssen sich Händler durch ein individuelles Konzept, besonders in den Bereichen Ladengestaltung und Warenplatzierung, von der Konkurrenz abheben. Auf diese Weise können Wettbewerbsvorteile entstehen. 2. Ein Großteil der Kaufentscheidungen erfolgt erst direkt im Geschäft. Daraus ergibt sich für den stationären Einzelhandel, dass verkaufsfördernde Maßnahmen auf die in Punkt eins genannten Bereiche ausgerichtet werden sollten. 3. Jedes Jahr versuchen unzählige Produktneuheiten, sich auf dem Markt zu etablieren. Sowohl Händlern als auch Kunden müssen diese Artikel interessant erscheinen, damit sie ihren Weg ins Regal bzw. in den Einkaufskorb finden. Für die Hersteller von Konsumgütern lässt sich nun folgendes Problem ableiten: Wie muss die Zusammenarbeit zwischen Industrie und Handel gestaltet werden, um Effizienzsteigerungen in der Wertschöpfung zu erreichen? Mit dieser Thematik beschäftigt sich der erste Teil der vorliegenden Bachelorarbeit. Es wird auf die Grundlagen des ECR-Konzeptes und deren Basisstrategien im Überblick eingegangen. Die detaillierte Darstellung des Efficient Store Assortment steht danach im Vordergrund, da es wichtiger Bestandteil der weiteren Betrachtungen ist. Für die Händler ergeben sich folgende Problembereiche: Wie sollen sie die knappe und teure Ressource Laden- bzw. Regalfläche nutzen, um Kundenbedürfnisse bestmöglich zu befriedigen? Diese Fragestellung ist Gegenstand des zweiten Abschnittes. Zuerst erfolgt eine Differenzierung der Begriffe Category und Space Management. Danach werden Platzierungsarten und Regalwertigkeiten vorgestellt. Dabei wird auch auf die unterschiedlichen Blickfelder des Konsumenten eingegangen. Die horizontale bzw. vertikale Platzierung und die sich daraus ergebenden Doppelsysteme spielen im Anschluss eine Rolle. Diese Themen werden betrachtet, weil Kenntnisse über das Kundenverhalten bzw. deren Wahrnehmung von Produkten essentiell wichtig sind, um den Konsumenten zielgerichtet am Verkaufsregal anzusprechen. Im Anschluss geht es um die fünf Phasen der Regaloptimierung. Hierbei erfolgt eine detaillierte Darstellung der verschiedenen Teilschritte. In den meisten Handelsunternehmen kommen heutzutage Regaloptimierungssysteme zum Einsatz. Die drei bekanntesten Anbieter solcher Programme sind: • ACNielsen (Spaceman). • Information Res. Inc. (Apollo). • JDA Intactix International (InterCept pro/space). Im dritten Abschnitt dieser Bachelorarbeit wird ausführlich auf die Optimierungssoftware Spaceman Suite eingegangen. Zuerst erfolgt eine Vorstellung des Unternehmens Nielsen. Danach werden die einzelnen Module des Programms mit ihren verschiedenen Funktionen vorgestellt. Im vierten Abschnitt geht es um praktische Anwendungen der Software Spaceman. Zunächst werden drei Phasen der Regaloptimierung anhand eines Fallbeispiels nochmals erklärt. Es geht dabei um die Verbesserung der Produktplatzierung eines mit Batterien bzw. Akkumulatoren und Taschenlampen bestückten Warenträgers. Eine Bewertung des Optimierungsergebnisses ist mit Hilfe von Vorher-Nachher-Abbildungen möglich. Danach wird die Verwendung von Spaceman anhand eines Praxisbeispiels erläutert. Die Wahl fiel hierbei auf die Metro Group. Es wird gezeigt, wie die Unternehmensgruppe die Software insbesondere unter Einbindung von Datenbanken nutzt. Die von Spaceman gebotenen Möglichkeiten zur Erstellung der verschiedensten Regaldarstellungen stehen zum Schluss im Vordergrund. Entsprechende Abbildungen dienen dabei zur Illustration. Im letzten Teil dieser Bachelorarbeit wird ein Fazit gezogen. Hierbei geht es um eine kritische Betrachtung der gewonnenen Kenntnisse. Es ist die zentrale Fragestellung zu klären, inwieweit die Neugestaltung eines Warenträgers einer Regaloptimierung entspricht. Dabei werden sowohl die gezeigten Vor- als auch Nachteile der Software Spaceman Suite einbezogen.Inhaltsverzeichnis:Inhaltsverzeichnis: ÜbersichtsverzeichnisII AbkürzungsverzeichnisIII AnhangsverzeichnisIV 1.Einleitung1 2.Theoretische Grundlagen des ECR-Konzeptes3 2.1Begriffsklärung und Zielsetzung3 2.2Die Basisstrategien4 2.3Das Efficient Store Assortment5 3.Die ideale Warenplatzierung durch Regaloptimierung7 3.1Category und Space Management7 3.2Die Platzierungsarten8 3.3Die Regalwertigkeiten9 3.4Die horizontale und vertikale Platzierung10 3.5Die Phasen der Regaloptimierung12 4.Die Optimierungssoftware Spaceman Suite16 4.1Das Unternehmen Nielsen16 4.2Die Softwaremodule16 5.Die praktische Umsetzung der Regaloptimierung19 5.1Fallbeispiel Spaceman19 5.2Praxisbeispiel Metro Group20 5.3Beispiel-Planogramme23 6.Fazit24 AnhangV LiteraturverzeichnisXXIXTextprobe:Textprobe: Kapitel 5, Die praktische Umsetzung der Regaloptimierung: 5.1, Fallbeispiel Spaceman: Im Folgenden geht es um die Optimierung eines mit Batterien bzw. Akkumulatoren und Taschenlampen bestückten Warenträgers. Die dazugehörigen Abbildungen sind Anhang 7 zu entnehmen. Im ersten Schritt entsteht mit Hilfe von Spaceman Professional eine virtuelle Abbildung der Regal-Ist-Situation. Dafür werden notwendige Daten wie die Platzierungen der Produkte und die Anzahl der Frontstücke erfasst. Das Einfügen von Artikelbildern ermöglicht dann die Erstellung einer wirklichkeitsgetreuen Darstellung. Das größte Problem der Warenplatzierung ist die stetig steigende Anzahl an Produkten, da die Regalfläche als limitierte Ressource anzusehen ist. Sowohl Handel als auch Industrie werden mit schneller wachsenden Warenangeboten, den bereits erwähnten Raumrestriktionen und spontanen Entscheidungen der Verbraucher beim Einkauf konfrontiert. Der zweite Schritt beschäftigt sich mit der Analyse der Ist-Situation. Zuerst wird die aktuelle Bestandssituation auf der Grundlage eines definierten Modells analysiert. Ziel ist es, sowohl Über- als auch Unterbestände zu erkennen und zu vermeiden. Danach wird die Verwendung von Hersteller- bzw. Markenblöcken diskutiert. Produktgruppen helfen dem Konsumenten entscheidend bei der Orientierung am Warenträger. Außerdem wirkt das Regalbild ruhiger und übersichtlicher. Zuletzt wird die Umsatz- bzw. Ertragslage untersucht. Das Einbinden von Marktinformationen (durchschnittliche Absatzmenge, Verkaufspreis, Marktanteil usw.) ermöglicht eine entsprechende Analyse. Durch Testen unterschiedlicher Platzierungsvarianten kann die bestmögliche Regalperformance entwickelt werden. Die Regaloptimierung erfolgt im dritten Schritt. Als Grundlage dienen sowohl die Ergebnisse der Ist-Analyse als auch die zuvor festgelegten Verbesserungskriterien. Das Optimierungsergebnis zeigt, dass Hersteller- bzw. Markenblöcke Berücksichtigung gefunden haben. Außerdem sind ein optimiertes Sortiment und eine kundenfreundlichere Produktplatzierung erkennbar. 5.2, Praxisbeispiel Metro Group: Die Metro Group bietet sowohl privaten als auch gewerblichen Kunden ein vielseitiges Leistungsspektrum im Einzel- und Selbstbedienungsgroßhandel. Durch das speziell an die Kundenbedürfnisse angepasste Warenangebot entwickelten sich die Vertriebsmarken weitgehend als unabhängige Retail Brands. Zur Unternehmensgruppe zählen: Metro / Makro Cash Carry, Galeria Kaufhof, Media Markt, Saturn und Real. Die Metro Group nutzt zur optimalen Präsentation ihrer Produkte ein RMS, welches die Category Management-Prozesskette unterstützt. Das System wird sowohl für die Sortiments- als auch Platzierungsoptimierung verwendet. Das Basisstück des RMS bildet die Software Spaceman. Im ersten Schritt werden Warengruppen nach festgelegten Ordnungskriterien gebildet. Grundsätzlich kann zwischen marken- und anwendungsorientierter Platzierung unterschieden werden. Die Perspektive des Konsumenten steht dabei im Vordergrund. Sucht er nach Artikeln einer bestimmten Marke (z. B. Maggi) oder interessiert er sich für spezielle Anwendungen (z. B. Gesichtspflege für junge Haut)? Im nächsten Schritt simulieren Category Manager mit Hilfe der Software Spaceman die unterschiedlichsten Möglichkeiten der Warenverteilung im Regal. Die fertigen Planogramme werden dann elektronisch an die verschiedenen Märkte übermittelt. Nun können die Mitarbeiter vor Ort die Regalpläne als Vorlage zum Einräumen der Waren nutzen. Auf diese Weise wird eine korrekte Produktplatzierung gewährleistet. Somit erhalten alle Märkte derselben Vertriebslinie ein einheitliches Erscheinungsbild, welches den Kunden eine bessere Orientierung ermöglicht. Dadurch können Umsatzsteigerungen und Lagerhaltungsverbesserungen realisiert werden. Für eine ansprechende und verkaufsfördernde Produktplatzierung erfolgt eine Einordnung der Planogramme in drei verschiedene Stufen: Die Sortimentsgruppen- bzw. Category-Ebene, die Pflegegruppen-Ebene und die Markt-Ebene. Die Category-Ebene umfasst ganze Warengruppen. Diese können wiederum in Pflegegruppen unterteilt werden. In dieser Ebene sind die Kriterien Region und Sortimentsbaustein zu beachten. Ersteres gibt an, in welchen Märkten eine bestimmte Pflegegruppe angeboten wird. Letzteres spiegelt deren Größe (Anzahl der Produkte) wider. Die Markt-Ebene beinhaltet speziell für einen einzelnen Markt erstellte Planogramme. Die übertragenen Planungsunterlagen umfassen: eine Gesamtansicht der Warenplatzierung, eine Produktliste mit Einzeldaten und eine Detailansicht für jede Positionierungseinheit. Die Gesamtansicht zeigt das komplette Regal. Anhand der Darstellung wird die für jeden Artikel vorgesehene Platzierungsbreite ersichtlich. Außerdem ist sowohl die Sortiments- als auch die Pflegegruppe auf dem Dokument angegeben. Die Artikelliste enthält Informationen über Artikelnummern, Produktbezeichnungen, Bestände und den Hersteller. Sie gibt an, auf welchem Regalboden die Waren platziert und wie die Produkte neben-, über- oder hintereinander positioniert werden sollen. Weiterhin ist die Mindestanzahl an Frontstücken festgelegt. Die Mitarbeiter dürfen die Zahl der Facings aber auch ihren individuellen Anforderungen anpassen, solange sie das Minimum nicht unterschreiten. Die Artikelchronologie (Reihenfolge der Produkte auf einem bestimmten Fachboden) muss hingegen eingehalten werden. Die Platzierungseinheit zeigt einen Ausschnitt eines Regales. In Kombination mit der detaillierten Artikelinformation ist es den Mitarbeitern möglich, die Produkte schneller zu platzieren. Außerdem enthält das Dokument Informationen über die Tiefe der Fachböden. Die Vertriebsmarken Real und Metro / Makro Cash Carry verwenden die Software Spaceman datenbankunterstützt. Dagegen nutzt die Galeria Kaufhof das Programm als Stand-alone-Version. Die Nutzung einer automatischen Datenbankunterstützung ist von Vorteil, da Planogramme selbstständig mit Listungsänderungen bzw. Bewegungsdaten aus dem Metro Merchandising System versorgt werden. Sowohl Qualität als auch Aktualität der Regalpläne sind somit durch den Informationszufluss aus dem Warenwirtschaftssystem sichergestellt. Das Category Management überprüft im Schnitt zwei oder drei Mal pro Jahr die Planogramme. Die Aktualisierungshäufigkeit hängt davon ab, ob ein Sortiment schnelllebig ist oder nicht. Als Grundlage für eine Beurteilung dienen Statistiken, die zeigen, wie oft Ein- bzw. Auslistungen von Produkten erfolgten. Die Verwendung von Datenbanken bringt auch hier Vorteile, da Regalpläne nun wesentlich schneller und häufiger auf den neuesten Stand gebracht werden können. Die Metro Group hat sich als Ziel gesetzt, die Funktionalitäten des RMS weiter auszubauen. Seit 2005 existiert eine Verknüpfung des Systems mit dem Programm CMplus. Die Verwaltung von Warengruppen ist seitdem effizienter möglich. Durch CMplus erstellte Sortimentsvorschläge werden von Spaceman umgehend auf ihre Platzierbarkeit überprüft. Grundsätzlich ist hierbei zu beachten, dass die Anzahl der neuen Artikel ungefähr der Zahl der ausgelisteten Produkte entsprechen sollte.
Aus der Einleitung: Diese Bachelorarbeit befasst sich mit der Einführung und dem Aufbau von Qualitätsmanagementsystemen speziell für Hersteller von Medizinprodukten. Die Arbeit soll all denjenigen, die sich zum ersten Mal mit dieser Materie befassen, helfen, sich einen Überblick über diesen Sachverhalt zu verschaffen. Das deutsche Gesundheitswesen zählt immer noch zu den besten der Welt. Da es aber auch zu den teuersten gehört, werden immer wieder Überlegungen zur Weiterentwicklung, auch unter dem Gesichtspunkt der ökonomischen Effizienz, angestrebt. In den letzten Legislaturperioden haben sich die Regierungen bemüht, mit Kürzungen von öffentlichen Mitteln im Gesundheitswesen die steigenden Kosten einzudämmen. Durch die vielen Reformen, wie z.B. 1989 mit dem entstandenen Gesundheitsreformgesetz, 2004 mit dem gesetzlichen Krankenversicherung (GKV) Modernisierungsgesetz und dem 2007 verabschiedeten GKV - Wettbewerbsstärkungsgesetz ist die Sorge der Versicherten um gleichbleibende hohe Qualität und dessen Finanzierung im Gesundheitswesen immer weiter in die öffentliche Diskussion gekommen. Die genannten Reformen dienten meist der Stabilisierung der Beitragszahlungen, waren jedoch oft mit Einschränkungen der Leistungen und mit der Erhöhung der Zuzahlungen verbunden. Durch die abnehmende Bereitstellung von staatlichen Geldern müssen sich auch die Akteure, die für das Angebot von Produkten und Dienstleistung sorgen, auf dem Gesundheitsmarkt mit dem hohen Kostendruck neu auseinandersetzen. Der auch durch den Kostendruck bedingte steigende Wettbewerb fordert von den Anbietern nicht nur den Einsatz von Fachwissen, sondern auch eine Zunahme der Verkaufskompetenz, um die gleichbleibende Leistung mit dem geringsten Preis auf dem Markt positionieren zu können. Nicht zu selten wird fälschlicherweise dann an der Qualität gespart, wobei eine mangelnde Qualität eher weitere Kosten verursacht, anstatt diese zu senken. Um Qualitätsverluste entgegenzuwirken, werden in vielen Branchen Zertifikate eingeführt. Die Konsumenten sollen sicher davon ausgehen können, dass ein Produkt oder eine Dienstleistung eine hohe Qualität aufweist, indem es die in Normen, Gesetze oder in Richtlinien festgelegten Anforderungen erfüllt. Daher ist ein zertifiziertes Qualitätsmanagementsystem (QM-System) in vielen Branchen zu einer zwingenden Voraussetzung geworden, um auf dem Markt bestehen zu können. Die Bachelorarbeit will den Leser in einer logischen Abfolge systematisch durch die Arbeit führen. Zunächst sollen im ersten Teil die relevanten Qualitätsbegriffe, die für sämtliche QM-Systeme gelten, erörtert werden, um anschließend die Aufgabenbereiche des Qualitätsmanagements (QM) aufzuzeigen. Nach der Grundlagenbeschreibung werden im späteren Verlauf der Arbeit zwei essentielle QM-Systeme weiter im Detail bearbeitet. Es werden die Grundsätze und Strukturen der QM-Systeme beschrieben, die die Rahmenbedingungen zur Durchführung eines QM bilden. Dabei wird zum einen auf die Inhalte der Normenreihe der DIN EN ISO 9000 ff. eingegangen, die weltweite Gültigkeit besitzt und für QM-Systeme sämtlicher Unternehmensbranchen anwendbar ist und ferner wird auf eine speziell für die Gesundheitsbranche ausgerichtete Norm, die DIN EN ISO 13485:2003 eingegangen. Diese Norm stellt Anforderungen für ein QM-System dar, welches für Unternehmen Richtlinien vorschreibt, die Ihre Medizinprodukte auf den europäischen Markt anbieten wollen. In dieser Arbeit sollen beide Systeme erörtert werden, im Vordergrund stehen allerdings die Anforderungen, die für die Implementierung der DIN EN ISO 13485:2003 nach der Einführung der DIN EN ISO 9001:2008 von Nöten sind, um ein Zertifikat für ein Medizinprodukt zu bekommen und es dann in der Europäischen Union in Verkehr bringen zu dürfen.Inhaltsverzeichnis:Inhaltsverzeichnis: InhaltII AbbildungsverzeichnisIV TabellenverzeichnisIV AbkürzungsverzeichnisV 1.Einleitung1 1.1Problemstellung1 1.2Aufbau und Zielsetzung der Arbeit2 2.Einführung in das Qualitätsmanagement und dessen System3 2.1Definitionen von Qualität3 2.2Historische Betrachtung des Qualitätsmanagements4 2.3Definition des Qualitätsmanagementsystems6 2.4Verfahren zum Aufbau eines Qualitätsmanagementsystems8 2.5Vor- und Nachteile eines Qualitätsmanagementsystems12 2.6Zwischenresümee13 3.Qualitätsmanagementsystem nach DIN EN ISO 9000 ff.14 3.1Gesetzliche Grundlagen14 3.2Absichten der Zertifizierung eines Qualitätsmanagementsystems15 3.3DIN EN ISO 9000 ff.17 3.3.1Entwicklung und Zielsetzung17 3.3.2Vier wesentliche Normen der ISO 9000 Familie18 3.3.3Die acht Grundsätze des Qualitätsmanagementsystems19 3.3.4Mindestanforderungen der DIN EN ISO 9001:200821 3.4Zertifizierung des Systems anhand eines beispielgebenden Ablaufs25 3.5Vorteile der Zertifizierung29 3.6Zwischenresümee30 4.Anforderungen für die Zertifizierung von Medizinprodukten31 4.1Qualitätsmanagement im Gesundheitswesen31 4.2Was ist ein Medizinprodukt32 4.3Gesetzliche Grundlagen für Hersteller von Medizinprodukten35 4.4Entwicklung und Zielsetzung der DIN EN ISO 13485:200336 4.5Zwischenresümee38 5.Unterschiede der DIN EN ISO 13485:2003 zu der DIN EN ISO 9001:200839 5.1Mindestanforderungen der DIN EN ISO 13485:200339 5.1.1Allgemeine Anforderungen39 5.1.2Dokumentationsanforderungen40 5.1.3Risikomanagement45 5.1.3.1Risikoanalyse46 5.1.3.2Risikobewertung46 5.1.3.3Risikobeherrschung49 5.2Zertifizierung von Medizinprodukten51 5.3Vergleich der Systeme54 6.Resümee und Ausblick55 Quellenverzeichnis58Textprobe:Textprobe: Kapitel 3.3, DIN EN ISO 9000 ff.: Die DIN EN ISO 9000 Normenreihe bildet den weltweit gültigen Standard für QM-Systeme und erstreckt sich dabei über Fertigungs-, Branchen- und Produktunabhängigkeit. 3.3.1, Entwicklung und Zielsetzung: In den meisten Fällen, in dem von der DIN EN ISO 9000 gesprochen wird, sind häufig mehrere Normen gemeint, nämlich die DIN EN ISO 9000 Normreihe. Diese wesentlichen Normen wurden entwickelt, damit Unternehmen aus allen Branchen und mit beliebiger Unternehmensgröße beim Arbeiten mit einem wirksamen QM-System geholfen wird. Mitte der 70er Jahre des letzten Jahrhunderts entstand in Großbritannien ein Vorläufer der Normreihe für die Qualitätssicherung in der Fertigungsindustrie. Seit 1987 ist die Normreihe von internationaler Bedeutung und zur heutigen Zeit '…in über 160 Ländern der Welt gültig.'. Im Jahr 2000 gab es eine komplette Reformierung, da das Normenwerk zu umfangreich wurde und ca. 1000 Seiten füllte. Die Normenreihe wurde daraufhin neben dem Thema Auditierung in drei wesentliche Normen zusammengefasst. Kernstück der ISO 9000 ff. Normreihe ist die Zertifizierungsnorm DIN EN ISO 9001:2008, die Mindestanforderungen für die ersten Schritte eines umfangreichen QM mit festgelegten Anforderungen an ein QM-System darstellt. Ein Zertifikat kann durch eine akkreditierte Zertifizierungsgesellschaft ausgestellt werden und wird im Kapitel 3.4 naher beschrieben. 3.3.2, Vier wesentliche Normen der ISO 9000 Familie: Die ISO 9000 ff. besteht hauptsächlich aus vier Normen, wobei die Zielvorstellung und Inhalte wie folgt definiert werden: I. 'ISO 9000 beschreibt Grundlagen für Qualitätsmanagementsysteme und legt die Terminologie für Qualitätsmanagementsysteme fest.'. Dem Anwender sollen die notwendigen inhaltlichen und begrifflichen Kenntnisse zum Umgang mit der Normreihe vermittelt werden. II. 'ISO 9001 legt die Anforderungen an ein Qualitätsmanagementsystem für den Fall fest, dass eine Organisation ihre Fähigkeit darlegen muss, Produkte bereitzustellen, die die Anforderungen der Kunden und die behördlichen Anforderungen erfüllen, und anstrebt, die Kundenzufriedenheit zu erhöhen.'. Die Norm baut auf den Grundsätzen der ISO 9000 auf und zielt auf die Prozesse, die notwendig sind, um die Forderungen der Interessengruppen zu erfüllen. Dabei werden jedoch nicht einzelne Unternehmensabläufe vorgeschrieben, sondern auf die Berücksichtigung von wesentlichen Abläufen in einem modernen QM-System hingewiesen. III. 'ISO 9004 stellt einen Leitfaden bereit, der sowohl die Wirksamkeit als auch die Effizienz des Qualitätsmanagementsystems betrachtet. Das Ziel dieser Norm besteht in der Leistungsverbesserung der Organisation sowie der Verbesserung der Zufriedenheit der Kunden und anderer interessierter Parteien.'. Diese Norm gilt als ergänzendes Hilfsmittel zur ISO 9001, da es Anregungen zur Einführung von Verbesserungen von QM-Systemen vorgibt, die über die Voraussetzungen der ISO 9001 hinausgehen. IV. 'ISO 19011 stellt eine Anleitung für das Auditieren von Qualitäts- und Umweltmanagementsystemen bereit.'. Die Umsetzung von Auditprinzipien und das Management von Auditdurchführungen wird im Vergleich zur ISO 9000 in der ISO 19011 noch ergänzt. Diese Norm enthält Anweisungen zur Auditdurchführung und legt die notwendigen Qualifikationen eines Auditors fest. Sie ist sowohl auf interne als auch externe Audits anwendbar. Weitere Erläuterungen zum Thema Audits erfolgen im Kapitel 3.4. 3.3.3, Die acht Grundsätze des Qualitätsmanagementsystems: Wie schon im Kapitel 3.3.2 unter I beschrieben, werden notwendige inhaltliche und begriffliche Kenntnisse zum Umgang mit der Normreihe in der DIN EN ISO 9000:2005 beschrieben. Darunter zählt auch die Definition von acht Grundsätzen, um der obersten Leitung eine Orientierung zu verschaffen, um speziell die Qualitätsziele zu erreichen oder allgemein die Leistungsfähigkeit der Organisation zu erhöhen. 'Das erfolgreiche Führen und Betreiben einer Organisation erfordert, dass sie in systematischer und klarer Weise geleitet und gelenkt wird.'. Um dies zu erfüllen, kann durch ein nach Leistungsverbesserung ausgerichtetes Managementsystem die Voraussetzung geschaffen werden, alle Anforderung jeder Parteien berücksichtigen zu können. Im Folgenden werden die acht Grundsätze eingehend betrachtet. I. Kundenorientierung: Die Kundenorientierung ist für eine Organisation von oberster Wichtigkeit. Jede Organisation ist von seinen Kunden abhängig und daher sollten Bedürfnisse und Anforderungen der Kunden in Erfahrung gebracht werden, um diese dann optimal erfüllen zu können und danach zu streben, die Erwartungen bestmöglich noch zu übertreffen. II. Führung: Führungskräfte übernehmen die Aufgabe die Organisation dahin auszurichten, den Zweck gleichwohl zu erfüllen. Ferner sollte ein internes Umfeld geschaffen und erhalten werden, in dem sich die Personen vollständig auf die Erreichung der Ziele der Organisation konzentrieren können. III. Einbeziehung der Personen: Die Organisation wird von seinen Mitarbeitern geprägt und sollte deswegen diese auch auf allen Ebenen mit einbeziehen. Damit die Mitarbeiter ihre Stärken weiter ausbauen können, um so auch der Organisation ihre vollen Potentiale bieten zu können, sollten sie in Entscheidungsprozessen einbezogen werden, um deren Engagement zu unterstützen und Problemlösungskompetenz zu fördern. IV. Prozessorientierter Ansatz: Das Leiten und die Lenkung von Tätigkeiten und der dazugehörigen Ressourcen sollte in einem prozessorientierten Ansatz geschehen. Die einzelnen Prozessschritte, Verantwortlichkeiten, Inputs und Outputs müssen klar definiert und festgelegt werden, um somit die Schnittstellen transparent zu gestalten. Weitere Erläuterungen zum Thema prozessorientierter Ansatz erfolgen im Kapitel 3.3.4. V. Systemorientierter Managementansatz: Der systemorientierte Ansatz dient dem Verständnis, dass das System als eine Summe von Prozessen zu sehen ist. Diese in Wechselbeziehung zueinander stehenden Prozesse gilt es zu erkennen und zu verstehen. Dabei ist die gesamtheitliche Reflexion der Organisation und das Streben nach den Unternehmenszielen nur durch die kontinuierliche Leitung und Lenkung der Prozesse mit Berücksichtigung ihrer Wechselbeziehungen möglich. VI. Ständige Verbesserung: Ein permanentes Ziel jeder Organisation ist die ständige Leistungsverbesserung. Durch die kontinuierliche Verbesserung der Prozesse und des Informationsaustausches folgt eine sich positiv auswirkende Gesamtleistung des Unternehmens. VII. Sachlicher Ansatz zur Entscheidungsfindung: Basierend auf Analysen von Zahlen, Fakten und Daten können wirksame Entscheidungen gefällt werden. Sie können nur wirkungsvoll und sachlich getroffen werden, wenn die Informationen regelmäßig neu erhoben und überprüft werden. VIII. Lieferantenbeziehungen zum gegenseitigen Nutzen: Organisationen, sowie ihre Lieferanten sind voneinander abhängig. Durch Kooperationen und gemeinschaftliche Zielsetzungen in Hinsicht auf die Kundeninteressen, kann der gegenseitige Nutzen verbessert werden. Die genannten Grundsätze sind Grundlagen für eine erfolgreiche Organisation, die stets die Ziele verfolgt, ihre Prozesse zu verbessern und eine Weiterentwicklung anzustreben.
Inhaltsangabe: Einleitung: 1.1 Problemstellung und Zielsetzung der Arbeit: Die Branche der regenerativen Energien hat sich innerhalb der letzten Jahre zu einer der Hoffnungsträger der deutschen Wirtschaft entwickelt. Vor allem in den Bereichen Bio-, Solar- und Windenergie haben viele Unternehmen in Deutschland die führende Wettbewerbsposition übernommen. Ihre anhaltend positive Entwicklung zu einem bedeutenden Wirtschaftsfaktor zeigte sich vor allem im Zuge der Wirtschaftskrise. Trotz des wirtschaftlich problematischen Umfeldes sind die Investitionen in Anlagen zur Nutzung erneuerbarer Energien im Jahr 2009 gegenüber dem Vorjahr um rund 20 Prozent auf 17,7 Mrd. Euro angestiegen. (Abb. 1: Investitionen in Anlagen zur Nutzung erneuerbarer Energien in Deutschland. Quelle: Eigene Darstellung in Anlehnung an Zentrum für Sonnenenergie und Wasserstoffforschung Baden-Württemberg). Die erneuerbaren Energien erwirtschafteten zusammen mit den Erlösen aus dem Betrieb der Anlagen in 2009 einen Gesamtumsatz von 33,4 Mrd. Euro (2008: 30,7 Mrd. Euro). Mit der Unterzeichnung des Kyoto-Protokolls auf internationaler Ebene und dem Europäischen Programm für Klimaschutz (ECCP) auf europäischer Ebene haben weltweit 183 Nationen ihren politischen Willen signalisiert, den Klimawandel zu begrenzen. Die Bundesrepublik Deutschland hat sich zum Ziel gesetzt, den Anteil erneuerbarer Energien bis zum Jahr 2020 auf 18 Prozent am gesamten Endenergieverbrauch zu erhöhen. Im Jahr 2009 deckten die erneuerbaren Energien bereits mehr als 10 Prozent des gesamten Bedarfs an Wärme, Strom und Kraftstoffen. Durch zahlreiche Förderprogramme des Bundes und der Länder werden Investitionen in erneuerbare Energien gezielt gefördert. Die Schaubilder im Anhang in der Anlage 1 und 2 zeigen den Anteil der erneuerbaren Energien an der Bruttostromerzeugung im Jahr 2009 und wie sich dieser nach dem geplanten Ausbau bis im Jahr 2020 entwickeln soll. Die Finanzierung von Energieerzeugung aus Windkraft, Solarenergie und Biomasse eröffnet allen Kreditinstituten ein neues, wachsendes Geschäftsfeld. Trotz dieses hohen Potentials bestehen durch mangelnde Kenntnisse der energiewirtschaftlichen Rahmenbedingungen und der Finanzierungsmöglichkeiten erhebliche Hindernisse für Akteure auf diesem Gebiet. Ziel dieser Arbeit ist es, die verschiedenen erneuerbaren Energien, sowie die gängigsten Finanzierungsformen zur Realisierung dieser Projekte darzustellen. 1.2 Aufbau der Arbeit: Im Rahmen dieser Zielsetzung soll folgendermaßen vorgegangen werden: Zu Beginn der Arbeit erfolgt eine systematische Einordnung und Abgrenzung des Begriffs der erneuerbaren Energien im Vergleich zu anderen Energieerzeugungssystemen. Anschließend werden die verschiedenen Arten der regenerativen Energien aufgezeigt. Der Schwerpunkt dieser Arbeit liegt im Bereich der Wind-, Solar- und Bioenergie, da diese die führenden Sparten darstellen und aktuell die deutlichsten Zuwächse zu verzeichnen haben. Die Basis einer jeden Finanzierung bildet die Aufstellung einer Wirtschaftlichkeitsberechnung für jedes Projekt. Diese betriebswirtschaftliche Betrachtung wird in Kapitel drei dargestellt. Die unterschiedlichen Finanzierungsformen wurden in drei separate Kapitel eingeteilt. Nachdem in Kapitel vier auf verschiedene Möglichkeiten der Eigenkapitalbeschaffung eingegangen wird, beschäftigt sich Kapitel fünf mit den diversen Arten der Fremdkapitalbeschaffung bei der Finanzierung erneuerbarer Energien. Der Fokus liegt in diesem Bereich auf ausgewählten Fördermöglichkeiten, da der Ausbau der erneuerbaren Energien in Deutschland erheblich von den aktuellen Fördermechanismen abhängt. Des Weiteren wird die Projektfinanzierung behandelt, da diese Finanzierungsform bei kommerziellen Projekten am häufigsten eingesetzt wird. Neben der Eigenkapital- und Fremdkapitalbeschaffung differenzieren wir in Kapitel sechs die Mezzanine Kapitalbeschaffung. Diese stellt eine hybride Finanzierungsform dar, die je nach Ausgestaltung Eigen- bzw. Fremdkapital darstellt. Kapitel sieben zeigt verschiedene realisierte Projekte mit erneuerbaren Energien und deren Finanzierungsformen. Dabei wird insbesondere eingegangen auf die Finanzierung von Biogasanlagen. Darauf folgend werden in Kapitel acht die Perspektiven und Potentiale auf dem regenerativen Energienmarkt für die Sparkasse Hohenlohekreis erörtert. Das Kapitel 8 rundet mit einem Fazit das Ergebnis dieser Arbeit ab.Inhaltsverzeichnis:Inhaltsverzeichnis: AbkürzungsverzeichnisIII AbbildungsverzeichnisIV TabellenverzeichnisV AnhangsverzeichnisVI 1.Einführung1 1.1Problemstellung und Zielsetzung der Arbeit1 1.2Aufbau der Arbeit2 2.Begriffliche Grundlagen der regenerativen Energien4 2.1Begriff der erneuerbaren Energien4 2.2Arten von erneuerbaren Energien8 2.2.1Solarenergie8 2.2.2Windkraft10 2.2.3Biomasse12 2.2.4Wasserkraft18 2.2.5Geothermie19 3.Betriebswirtschaftliche Überlegungen der Finanzierung21 4.Eigenkapitalbeschaffung25 4.1Fonds-Modell25 4.2Emission von Aktien26 4.3Beteiligungskapital27 4.3.1Sparkassen-Beteiligungsgesellschaft28 4.3.2Mittelständische Beteiligungsgesellschaft29 4.3.3KfW-Bankengruppe30 4.4Venture Capital30 4.5Bürgerbeteiligung31 5.Fremdkapitalbeschaffung33 5.1Klassische Finanzierung über ein Bankdarlehen33 5.2Förderprogramme37 5.2.1KfW-Bankengruppe38 5.2.2BAFA41 5.2.3Förderung durch die Einspeisevergütung des EEG43 5.2.4Landwirtschaftliche Rentenbank47 5.2.5L-Bank Baden-Württemberg48 5.2.6Landwirtschaftsamt49 5.3Leasing50 5.4Projektfinanzierung52 6.Mezzanine Kapitalbeschaffung57 6.1Genussscheine58 6.2Wandelanleihe59 6.3Optionsanleihen59 6.4Nachrangdarlehen60 6.5Stille Beteiligung61 7.Finanzierungsbeispiele von erneuerbaren Energien62 7.1Beispiel Mauenheim62 7.2Beispiel Jühnde63 7.3Finanzierungsbeispiel eines Nahwärmenetzes65 8.Potentiale bei der Finanzierung erneuerbarer Energien68 9.Fazit70 Anhang72 Literaturverzeichnis79Textprobe:Textprobe: Kapitel 3, Betriebswirtschaftliche Überlegungen der Finanzierung: Vor jeder Finanzierung eines erneuerbare Energien-Vorhabens sollte eine Wirtschaftlichkeitsberechnung durchgeführt werden. Zentrales Instrument hierbei ist die Cashflow-Prognose. Sie stellt für jede Periode der Betriebsphase die Ein- und Auszahlungen, sowie die einzelnen Zahlungsströme dar. Der Cashflow ist die überschüssige Liquidität, welche für den Kapitaldienst und die Gewinnausschüttungen zur Verfügung steht. Er errechnet sich durch die Addition zahlungswirksamer Aufwendungen bzw. den Abzug zahlungswirksamer Erträge. Mit einer Sensitivitätenanalyse wird die Cashflow-Prognose einem Stresstest unterzogen. Durch die Veränderung bestimmter Eingabeparameter wie Substratkosten, Volllaststunden, Investitionskosten, Zinsaufwendungen, Personalkosten oder dem Wärmepreis können verschiedene Situationen simuliert und damit die Belastbarkeit des Projektes (Worst-Case-Szenario) bzw. die Chancen auf höhere Gewinne (Best-Case-Szenario) durchkalkuliert werden. Bei Photovoltaik- und Windkraftanlagen kann die Wirtschaftlichkeitsberechnung relativ einfach durchgeführt werden, da durch die Landwirtschaftskammern der einzelnen Bundesländer die Sonnenstunden bzw. die Windgeschwindigkeiten durch Windgutachten für jede Region nahezu exakt vorhergesagt werden können. Somit ist eine realistische Vorkalkulation möglich. Die Wirtschaftlichkeitsberechnung bei einer Biogasanlage ist sehr komplex und hängt von vielen Faktoren ab, z.B. von der Art und der Preisentwicklung der Substrate, mit der die Anlage ständig versorgt werden muss. Das verursacht schwankende Erträge. Daher wird sie meistens von Architekten oder den Herstellern durchgeführt. Im Folgenden soll auf die Besonderheiten bei der Erstellung einer Wirtschaftlichkeitsberechnung in den Bereichen Windkraft, Photovoltaik, sowie Biogas genauer eingegangen werden. Die Wirtschaftlichkeit von Windkraftanlagen ist in erster Linie davon abhängig, wie stark und häufig der Wind weht. Danach richtet sich der zu erwartende Ertrag, den die Anlage erzielt. Die meisten Kosten entstehen zu Beginn des Vorhabens für die Anlage, bestehend aus Turm, Rotor, Getriebe und Generator, sowie für die Fundamenterstellung und die Netzanschlusskosten. Hinzu kommen Anbindungskosten, Geländeerschließungskosten, Transport-, Montage- und Finanzierungskosten. Während des Betriebs der Windkraftanlage fallen regelmäßige Wartungs- und Versicherungskosten an, sowie eventuelle Pachtkosten. Die Erlöse für den eingespeisten Strom ergeben sich aus der vom Netzbetreiber zu zahlenden Einspeisevergütung gemäß EEG. Jede kWh Strom aus Windenergie wird mit einem festgelegten Betrag, der jährlich um einen Prozentpunkt gesenkt wird, vergütet. Die Erlöse einer Windkraftanlage hängen stark von deren Auslegung und den Windgeschwindigkeiten auf Nabenhöhe ab. Es gilt die Faustformel: bei einer Verdoppelung der Windgeschwindigkeit verdreifacht sich der Ertrag. Daher muss bei der Berechnung der Wirtschaftlichkeit großen Wert auf die Zuverlässigkeit des Windgutachtens gelegt werden. Der Anlagenertrag einer Photovoltaik-Anlage ist von verschiedenen Faktoren abhängig. Er schwankt entsprechend dem regionalen Sonnenstrahlungsangebot am Standort und der jeweiligen Jahreszeit. In der Region Hohenlohe beispielsweise liegt der Anlagenertrag im Durchschnitt bei 850 bis 950 kWh pro kWp installierter Leistung. Weitere Faktoren sind die Ausrichtung und Neigung des Daches. Optimal ist eine Südausrichtung bei 30 Prozent Dachneigung. Abweichende Bedingungen können zu Ertragseinbußen führen. Umgebungseinflüsse, wie z.B. Verschattung, starke Verschmutzung oder Reflexion, können sich ebenfalls negativ auf den Ertrag auswirken. Außerdem spielen anlagenspezifische Faktoren eine Rolle, d.h. der Wirkungsgrad und die Qualität der Module und Wechselrichter, Leitungsverluste und der Preis der Photovoltaikanlage. Die Wirtschaftlichkeit hängt natürlich auch von den Darlehenskonditionen ab, falls die Anlage über Fremdmittel finanziert wird. Einzige Einnahmequelle einer Photovoltaikanlage sind die Erlöse aus der Stromeinspeisung ins öffentliche Netz. Zwar kann der Strom auch für den eigenen Bedarf verwendet werden, derzeit ist jedoch die garantierte Einspeisevergütung über 20 Jahre erheblich höher, als der Strompreis selbst. Die Ausgaben errechnen sich aus den laufenden Kosten und dem Kapitaldienst. Im Anhang in der Anlage 3 befindet sich ein Beispiel für eine Wirtschaftlichkeitsberechnung einer Photovoltaikanlage mit 93,9 kWp Anlagenleistung. Die Anlage wurde zu 100 Prozent über die KfW finanziert mit einem tilgungsfreien Anlaufjahr und am 01.01.2010 in Betrieb genommen. Es wird von einer jährlichen Ertragsminderung von 0,3 Prozent ausgegangen, da die Modulleistung im Laufe der Jahre sinkt. In den Betriebskosten sind Kosten für Versicherung, Wartung, Reparaturen etc. enthalten. Weiterhin werden Rückstellungen für Wechselrichter gebildet, die nach etwa zehn Jahren ausgetauscht werden müssen. Die Berechnung zeigt, dass bereits ab dem sechsten Jahr positive Erträge generiert werden. Auch jede Investition in eine Biogasanlage verlangt eine intensive, sachkundige und neutrale Planung. Die wichtigste wirtschaftliche Planungsgröße für den Bau einer Biogasanlage ist die Stromeinspeisevergütung. Durch das EEG sind der Absatz und der Mindestpreis für den in das Netz eingespeiste Strom garantiert. Landwirtschaftliche Biogasanlagen, die neben Gülle ausschließlich nachwachsende Rohstoffe einsetzen, erhalten zusätzlich zu dem Gülle-Bonus den sogenannten NawaRo-Bonus. Wird die Abwärme in ein Nahwärmenetz geleitet, das auf Grundlage von Abnahmeverträgen die Wärme an angrenzende Haushalte liefert, können auch diese Erträge, sowie der KWK-Bonus, angesetzt werden. Die Abgabepreise von Strom und Wärme sind zwar gesetzlich bzw. vertraglich langfristig geregelt. Dennoch muss die Investition in einer Abwägung (Sensitivitätsanalyse) auch mit inflationsbedingt steigenden Kosten und leicht sinkenden Produktionsleistungen analysiert werden. Zu nennen sind auf der Ausgabenseite, neben Abschreibungen und Zinsen, die Versicherungsbeiträge, Reparatur- und Wartungskosten, sowie die Kosten der Substrate, welche benötigt werden, um die Biogasanlage permanent zu beschicken. Nicht zuletzt zählen hierzu die Investitionskosten der Anlage, der Technik und des BHKW. Darüber hinaus spielen noch weitere Einflussfaktoren eine wichtige Rolle, welche die Rentabilität einer Biogasanlage beeinflussen: Planungs- und Genehmigungskosten für den Bau der Anlage. Anlagengröße (je größer die Anlage, desto günstiger die relativen Investitionskosten). Masse und Qualität der eingebrachten Substrate. Arbeitskosten für die Einbringung der Substrate und die Wartung der Anlage. Erlöse für die Abnahme betriebsfremder Kofermente. Außerdem muss ermittelt werden, bei welchen Grenzkosten für Biomasse die eingesetzten Faktoren Arbeit und Kapital noch ausreichend entlohnt werden. Ist der Gleichgewichtspreis höher als der von der Biogasanlage ermittelte Grenzpreis, dann kann die Biogasanlage nicht wirtschaftlich betrieben werden. Aufgrund dieser Einflussfaktoren kann keine generelle Aussage über die Wirtschaftlichkeit von Biogasanlagen getroffen werden, sondern die betriebswirtschaftliche Vorteilhaftigkeit muss individuell für jedes Projekt ermittelt werden. Im Anhang befindet sich in Anlage 4 das Beispiel einer Wirtschaftlichkeitsberechnung einer Biogasanlage mit 190 kW. Aus den eingesetzten Substraten Gülle, Getreide, Gras- und Maissilage können 2.127 m³ Biogas gewonnen werden. Daraus ergibt sich eine jährliche Bruttoenergie von fast 4,2 Mio. kWh. Ein angrenzendes BHKW erzeugt aus dem Biogas etwa 1,5 Mio. kWh Strom pro Jahr, der in das örtliche Stromnetz eingespeist wird. Die Wärme nutzt der Landwirt zur Heizung seines Privathauses und der Ställe. Da in der Biogasanlage Gülle eingesetzt wird, kann der Landwirt den Gülle-Bonus in Anspruch nehmen. Nach Abzug der jährlichen Kosten für Abschreibungen, Zinsen, Versicherung, Reparatur und Wartung, sowie den Kauf und Anbau von Substraten ergibt sich ein jährlicher Gewinn von fast 88.000 Euro.
Einleitung: 'Die Mehrkosten für erneuerbare Energien von heute sind gesicherte Energie, vermiedene Umweltschäden und niedrige Energiekosten von morgen.' Nicht nur seitens der Wissenschaft, sondern auch der Politik werden die derzeit bestehenden Strukturen, gründend auf einer zentralistischen Energieversorgung mit fossilen Brennstoffen, angezweifelt. Deshalb erscheint es offensichtlich, dass in naher Zukunft fundamentale Veränderungen vorgenommen werden im Hinblick auf eine umweltbewusstere Handlungsweise. Aus diesem Grund ist es unbedingt notwendig, die Energiepolitik so zu gestalten, dass im Rahmen des energiepolitischen Dreiecks neben der Gewährleistung der Umweltverträglichkeit auch noch die Versorgungssicherheit und Wettbewerbsfähigkeit aufrechterhalten bleiben. Es ist allerdings ungewiss, ob die Versorgungssicherheit langfristig garantiert werden kann, da manche fossile Energieträger (Erdöl, Erdgas, Kohle) in nur wenigen und zum Teil politisch unsicheren Regionen vorkommen. Darüber hinaus ist die Gewährleistung eines gemeinsamen Zugangs zu Rohstoffquellen für alle Wettbewerber eine politische Herausforderung. Um diesem und anderen Risiken entgegenzuwirken, versucht man den Anteil der erneuerbaren Energieträger am gesamten Primär-Energieverbrauch auszubauen. Die künftige Entwicklung der einzelnen erneuerbaren Energieträger hängt davon ab, ob ordnungspolitische und andere Maßnahmen es möglich machen, eine wettbewerbskonforme Marktdurchdringung zu erreichen. Aus Gründen des Klimaschutzes ist eine wirtschaftliche Förderung von erneuerbaren Energien zu empfehlen. Fraglich ist jedoch, inwieweit alle erneuerbaren Ressourcen eine ökonomisch tragfähige Energieversorgung künftig sicherstellen können. Im Mittelpunkt der Analyse stehen folgende Forschungsfragen: Wie wird die bevorstehende Entwicklung ausgewählter fossiler Brennstoffe und erneuerbarer Energieträger aussehen? Mithilfe welcher energiepolitischen Rahmenbedingungen, Instrumente und Maßnahmen ist diese Entwicklung zu steuern, um die vorgegebenen Ziele zu erreichen? Bevor die aufgeworfenen Fragen beantwortet werden können, sind die einzelnen Energieträger erst einmal ihrer Art nach zu differenzieren. In den Blickpunkt rücken die fossilen Energieträger, wobei der Hinweis von Aufschluss ist, dass Uran zwar nicht dazu gehört, aber ebenso wenig ein regenerativer Energieträger ist, womit Uran unter den Energieträgern eine Sonderstellung einnimmt. Danach sind die erneuerbaren Energieträger zu beleuchten. Um einen theoretischen Einblick in die Energiepolitik zu gewinnen, wird diese zu definieren sein, was eine Beschäftigung mit deren Zielen, Rahmenbedingungen, Instrumenten und Maßnahmen mit einschließt. Die Bewertung der ausgewählten Instrumente wird ebenfalls Gegenstand der Debatte sein. Daraufhin ist die dominierende Rolle der fossilen Brennstoffe im Allgemeinen und des Erdöls im Besonderen zu erörtern. Abgesehen von der Darstellung der Kosten und Preise als auch der Nutzung des Erdöls in Deutschland, ist ein erstes Fazit in Hinblick auf Problematik und künftige Entwicklung zu ziehen. Es folgt die Windenergie, die wie das Erdöl nach ähnlichen Gesichtspunkten unter die Lupe zu nehmen sein wird. Anzumerken bleibt, dass aufgrund der mangelnden Detailrecherche in Bezug auf jede einzelne Energiequelle der Anspruch auf eine allumfassende Betrachtung entfallen muss. Dann ist die europäische Energiepolitik samt ihren Strategien, Zielen und Maßnahmen zu skizzieren und zwar nicht alleine im Rahmen der globalen Klimapolitik, sondern ebenso im Fokus des Kyoto-Protokolls. Den Abschluss bildet eine kritische Betrachtung der Energieversorgung im Spannungsfeld von politischen Vorgaben und unternehmerischen Zielen.Inhaltsverzeichnis:Inhaltsverzeichnis: Abbildungsverzeichnis4 Tabellenverzeichnis5 Abkürzungsverzeichnis6 1.Einleitung7 1.1Zielsetzung und Fragestellung der Arbeit7 1.2Aufbau der Arbeit8 2.Begriffsabgrenzung9 2.1Fossile / nicht regenerative Energien und Atomkraft9 2.1.1Erdöl9 2.1.2Erdgas10 2.1.3Kohle11 2.1.4Atomkraft12 2.2Erneuerbare / regenerative Energien13 2.2.1Windenergie14 2.2.2Sonnenenergie15 2.2.3Wasserenergie16 2.2.4Meeresenergie18 2.2.5Geothermie18 2.2.6Bioenergie19 3.Allgemeine Grundlagen der Energiepolitik20 3.1Ziele der Energiepolitik20 3.2Rahmenbedingungen für den Einsatz von energiepolitischen Instrumenten23 3.3Instrumente der Energiepolitik25 3.3.1Monetäre Instrumente27 3.3.1.1Ausschreibungsmodelle28 3.3.1.2Einspeisevergütungen29 3.3.1.3Quotenmodelle ohne und mit Zertifikationshandel30 3.3.1.4Ökologische Finanzreformen32 3.3.1.5Förderung fossiler Energien mit verringerten Emissionen34 3.3.1.6Investitionskostenzuschüsse für Privathaushalte34 3.3.1.7Vergünstigte Darlehen für gewerbliche Investoren35 3.3.1.8Das Erneuerbare-Energie-Gesetz (EEG) als Modell36 3.3.2Ordnungsrechtliche Instrumente36 3.3.3Flankierende Maßnahmen37 3.3.4Bewertung ausgewählter Förderinstrumente38 4.Dominanz fossiler Energieträger am Beispiel von Erdöl43 4.1Globale Erdölreserven / Ressourcen und deren Verteilung43 4.2Gewinnungskosten sowie Preisbildung und -entwicklung des Erdöls45 4.3Abhängigkeit des Industriestaates Deutschland vom Erdöl49 4.4Zukünftige Entwicklung und Probleme der weltweiten Erdölförderung51 5.Chance für erneuerbare Energien am Beispiel von Windenergie52 5.1Nutzung der Windenergie in Deutschland52 5.2Stromgestehungs-Kosten und Preisentwicklung für Windenergie54 5.3Zukünftige Entwicklung und Probleme der Windenergie-Nutzung56 6.Europäische Energiepolitik im Rahmen der internationalen Klimapolitik59 6.1Internationale Klimapolitik59 6.2Europäische Energie-(Außen)politik61 6.3Anforderungen an die künftige Energiepolitik64 7.Ökonomische Realität im Konflikt zu energiepolitischen Ambitionen66 8.Fazit69 Anhang71 Literaturverzeichnis75Textprobe:Textprobe: Kapitel 3.3.1.4, Ökologische Finanzreformen: Unter der ökologischen Finanzreform ist eine umweltorientierte Umstrukturierung des Finanzsystems zu verstehen. Im Fokus der ökologischen Finanzreformen stehen die Finanzbeziehungen zwischen Bürger und Staat, die unter Beachtung von Nachhaltigkeitskriterien realisiert werden. Die Einnahmen des Staates resultieren hauptsächlich aus der Besteuerung von nicht regenerativen Energien. Zusätzlich gilt es, ökologisch kontraproduktive Subventionen zu reduzieren bzw. umzuschichten und parallel dazu die Abgaben und Beiträge gemäß der ökologischen Ziele und Vorgaben zu gestalten. Zu den Ausgaben des Staates gehören die Unterstützung von Wirtschaftssektoren oder bestimmter Unternehmen, Subventionierung der Forschung, Transfers an private Haushalte, die unter Umständen geprüft werden und neu auszurichten sind. Umwelt-bezogene Ausrichtung staatlicher Programme und Ausgaben stellen eine wichtige Komponente der ökologischen Ausgabereform dar. Im Folgenden wird näher auf die genannten Aspekte einzugehen sein. 1. Internalisierung externer Kosten bei fossiler Energie: Um ein nachhaltiges, globales Energiesystem zu schaffen, bedarf es einer Internalisierung externer Effekte der fossilen und nuklearen Energiekette von der Förderung bis zur Nutzung. In der Praxis jedoch erweist sich das Herbeiführen der geforderten Internalisierung als schwierig. Denn die fossilen und nuklearen Energieträger sind bezogen auf deren Brutto-Abnahmepreis günstiger als regenerative Energiequellen, deren externe Effekte wesentlich geringer ausfallen. Dies schafft Nachteile für den Wettbewerb erneuerbarer Energiequellen. Um für alle Energiearten weltweit gleiche Wettbewerbsbedingungen zu gewährleisten, muss eine absolute Internalisierung externer Kosten stattfinden. Erst dann sind erneuerbare Energiequellen rentabler als ihre bisherigen konventionellen Konkurrenten. Die ökologische Steuerreform trägt einen wichtigen Beitrag zur Klimaschutz-Politik bei. Losgelöst von den gesellschaftlichen Klassen schafft sie Anreize für einen effizienten Umgang mit Energie. Die Kernaussage lautet: Wer Umweltkosten verursacht, soll für diese aufkommen. Betroffen von der Steuerreform sind sowohl Privathaushalte als auch Wirtschaft durch höhere Energie-, Strom- und Kraftstoffkosten. 2. Ökologische Auswirkung durch die Besteuerung nicht regenerativer Energie: Die Besteuerung fossiler Brennstoffe bewirkt deren Verteuerung, was bei unveränderten Marktbedingungen die Nachfrage zurückgehen lässt. Folge ist das Ausweichen auf andere Energieträger. Darüber hinaus werden Anreize geschaffen, was die Effizienz erneuerbarer Energie im Allgemeinen sowie ihre daran gekoppelte technologische Entwicklung im Besonderen steigert. 3. Subventionsabbau für fossile Energie: Mit dem Abbau von umweltschädigenden Subventionen lassen sich die drei Faktoren der Nachhaltigkeit optimal verbinden: • 'Die Ökologie, weil ein ökologisch kontraproduktives Verhalten nicht mehr weiter finanziell unterstützt wird. • Die Ökonomie, weil durch den Staat herbeigeführte Verzerrungen der Marktaktivitäten vermieden werden. • Das Soziale, weil durch die Einsparung von öffentlichen Haushaltsmitteln ein sozial sinnvoller Einsatz gewährleistet werden kann.' Trotz der zahlreichen volkswirtschaftlichen Vorteile, die der Abbau von Subventionen mit sich bringt, stößt man auf große Widerstände, da Subventionen in der Regel verteilungspolitische Auswirkungen haben. Deshalb werden die betroffenen Branchen versuchen, die aus ihrer Sicht betrachtet 'bremsende Reform' der Subventionspolitik zu umgehen. Um diese Blockaden zu minimieren, empfiehlt sich eine zeitlich gestaffelte Einführung der Reform, um den Beteiligten genügend Zeit zu geben, sich an die neue Situation anzupassen. 3.3.1.5, Förderung fossiler Energien mit verringerten Emissionen: Aktuell ist die Wirtschaft noch immer auf fossile Energien angewiesen. Nur die Deckung des entstehenden Versorgungsbedarfs durch erneuerbare Energien wird daran etwas ändern können. Damit einerseits die Versorgung gesichert ist und andererseits die Abhängigkeit von fossiler Energie zurückgeht, sind zwei Gesichtspunkte zu beachten: Erstens müssen Neuinvestitionen in fossile Energien gegen Null gefahren werden und zweitens müssen die im fossilen Bereich, unter sozioökonomischen Gesichtspunkten gesehen, unverzichtbaren Investitionen geringere Emissionswerte verursachen als bisher und sich darüber hinaus in eine flexible Infrastruktur einfügen. Der Ausbau von Anlagen, die noch vorübergehend mit fossilen Energieträgern betrieben werden, sollte eine spätere Umstellung auf erneuerbare Energien möglich machen. Beispielsweise kann eine Anlage zunächst mit Erdgas und danach mit Biogas gefüttert werden. 3.3.1.6, Investitionskostenzuschüsse für Privathaushalte: Investitionskostenzuschüsse sind Anreize für den Ausbau von Anlagen, dabei verpflichten sie nicht zur Rückzahlung, weshalb sie als 'verlorene Zuschüsse' bezeichnet werden. Die Höhe der Zuschüsse hängt vom Investitionsvolumen oder von der technischen Größe wie der installierten Leistung ab, beispielsweise bei solarthermischen Anlagen von der Fläche der Kollektoren. Bisweilen ergehen sie auch in Form von Festbeträgen. An die Zuschüsse ist ferner die etwaige Erlassung von Schulden geknüpft, die im Rahmen einer Darlehensfinanzierung von Anlagen über das Marktanreiz-Programm des Bundes angeboten wird. Private Haushalte haben mit Investitionszuschüssen bereits positive Erfahrungen gemacht. Ein besonders wichtiger Aspekt bei dieser Art von Förderung ist die staatliche Befürwortung und Unterstützung der Eigeninitiative der Haushalte. Dadurch entsteht ein zusätzlicher Anreiz für die Teilnahme auch von privater Seite. 3.3.1.7, Vergünstigte Darlehen für gewerbliche Investoren: Diese Maßnahme richtet sich primär an gewerbliche Investoren mit hohem Bedarf an Fremdkapital beispielsweise zur Errichtung von Windparks. Die Vergünstigung des Darlehens ist ein Instrument, um das aufgenommene Kapital billiger zu machen, was niedrigere Zinsen, längere Laufzeit der Kredite oder eine bessere Tilgungsart bedeutet. Private Kreditinstitute vergeben die Darlehen, wobei sie ihrerseits auf günstige Refinanzierungsmöglichkeiten von öffentlichen Banken wie beispielsweise der Kreditanstalt für Wiederaufbau (KFW) zurückgreifen. In der Regel wird erst durch Bürgschaften der Zugang zur Fremdfinanzierung ermöglicht, womit die Banken parallel Maßnahmen zur Kapitalverbilligung fördern. Je nach Programm ist die Finanzierungsquote recht unterschiedlich. Bei den Marktanreiz-Programmen des Bundes oder dem '100.000 Dächer-Solarstromprogramm' können die durch die Investitionen entstandenen Kosten bis zu 100% finanziert werden. Im Gegensatz dazu liegt die Finanzierungsquote beim Darlehensprogramm der KFW niedriger. Ein Investor sollte seinerseits über einen soliden Eigenkapitalanteil von 30-50 % verfügen. 3.3.1.8, Das Erneuerbare-Energie-Gesetz (EEG) als Modell: Ein weiteres in Deutschland entwickeltes und taugliches Instrument zur Förderung von Strom aus regenerativer Energie ist das Erneuerbare-Energie-Gesetz (EEG). Das Gesetz ermöglicht die Übertragung des wirtschaftlichen Risikos und dient als eine Vorfinanzierung von Ökostrom. Damit wird eine Investition in die Gewinnung regenerativer Energie etwa in Form von kleinen photovoltaischen Anlagen auf dem Hausdach für Privathaushalte bis hin zum großen Windpark für Gewerbetreibende finanziell attraktiv. Darüber hinaus beabsichtigt das Gesetz die Förderung von Strom aus erneuerbaren Energien im Hinblick auf Klima und Umweltschutz. Das EEG ist am 29. März 2000 in Kraft getreten. Dieser ökonomische Anreiz hat sich im EU-Vergleich als ein besonders effizientes Instrument zum Ausbau der erneuerbaren Energien erwiesen. Die Funktionsweise des Instruments lautet: 'Mindestpreisregelung mit Pflicht der nächstgelegenen Netzbetreiber zur Aufnahme und Vergütung des Stroms aus erneuerbaren Energien; Weiterleitung der Vergütungen an Übertragungsnetzbetreiber (Hochspannungsnetze) mit Pflicht zum bundesweiten Ausgleich der unterschiedlichen Belastungen.' Auf diese Weise wird eine Verteilung von bundesweit regional unterschiedlichen Belastungen bewirkt. Hierdurch erhöhen sich die Strom-Bezugskosten für Endverbraucher derzeit um durchschnittlich rund 0,05 Cent pro kWh. Bei den Mindestvergütungen an die Einspeiser wird die Höhe der Vergütung unterschieden nach den Sparten der grünen Energien, nach Größe der Anlagen und bei Windenergie nach dem Windstandort.
Inhaltsangabe:Einleitung: Die Gemeinderatswahlen in der Landeshauptstadt Stuttgart vom 7. Juni 2009 haben deutlich gemacht, dass in der Stuttgarter Bevölkerung immer noch große Verunsicherungen aufgrund des Großprojektes Stuttgart 21 bestehen. Parteien, wie die Grünen und die SÖS, die sich als Projektgegner aufstellten, konnten Stimmen gewinnen, Projektbefürworter, wie die CDU und die SPD, mussten massive Einschnitte verkraften. Erstmals sind die Grünen stärkste Fraktion im Stuttgarter Gemeinderat. Zuvor wurde am 2. April 2009 - nachdem im März 2009 das Gutachten 'Volkswirtschaftliche Bewertung des Projekts Baden-Württemberg 21 (BW21)' fertig gestellt wurde - zwischen Bahn, Bund, Land und Stadt eine Finanzierungsvereinbarung unterschrieben, damit das Projekt ab 2010 realisiert werden kann. Durch eine Ausstiegsklausel können die Projektbeteiligten noch bis zum 31. Dezember 2009 von dem bestehenden Vertrag zurücktreten, sofern mit einer wesentlichen Kostenüberschreitung gerechnet werden kann und keine Einigung über eine Kostendeckung erzielt wird. Beim Bahnprojekt Stuttgart – Ulm geht es um die Umgestaltung des Stuttgarter Hauptbahnhofes von einem Kopfbahnhof in einen Durchgangsbahnhof sowie um die Neubaubahnstrecke zwischen Wendlingen und Ulm. Diese Eisenbahnstrecke wiederum ist Bestandteil der Magistrale für Europa zwischen Paris und Bratislava. Bereits 1988 gab es erste Überlegungen über eine neue Bahnstrecke. 1995 wurde eine Machbarkeitsstudie vorgestellt, die die Realisierungschancen des Projektes aufzeigte. Bei der Finanzierung dieses Großprojektes gingen die Projektbefürworter davon aus, dass eine Refinanzierung durch den Verkauf der freiwerdenden ehemaligen Bahnflächen teilweise möglich sei. Hier sollten neue immobilienwirtschaftliche Projekte im Zentrum von Stuttgart entstehen. Diese Masterarbeit befasst sich mit der Umsetzbarkeit dieses Refinanzierungsansatzes für die bereits freigelegte Fläche 'A1' ('Europaviertel'), dem ehemaligen Güterbahnhof, sowie für die künftigen freiwerdenden Flächen gemäß Rahmenplan Stuttgart 21 (Flächen A2, A3, B, C1, C2, D und E). Dabei soll untersucht werden, welche Wertansätze seinerzeit unterstellt waren und wie sich der Stuttgarter Immobilienmarkt in der Zwischenzeit entwickelt hat. Insbesondere werden die Aspekte Bodenpreis- und Mietpreisentwicklung in Stuttgart, die Hintergründe, die zur Realisierung der Bauprojekte im ersten Bauabschnitt und die daraus erzielbaren Rückschlüsse auf die weiteren zu bebauenden Flächen untersucht. Zu Beginn der Masterarbeit wird das Gesamtprojekt 'Magistrale für Europa' vorgestellt, wobei während der weiteren Arbeit der Schwerpunkt auf dem Bahn- und Städtebauprojekt Stuttgart 21 selbst liegt. Innerhalb dieses Projektes geht es dem Autor um den immobilienwirtschaftlichen Bezug. Dieser ergibt sich durch die freigewordenen bzw. freiwerdenden Flächen, die der Refinanzierung des Projektes dienen sollen. Hier stehen die Annahmen im Fokus, welche zu Planungsbeginn Mitte der 90er-Jahre dazu geführt haben, dass das Projekt weiterverfolgt wurde. Diese Annahmen werden mit dem aktuellen Projektverlauf abgeglichen. So sollen neben der Auswertung von Stuttgarter Immobilienmarktberichten die Büroflächenfertigstellung, Leerstände und Leerstandsquoten, Büroflächenumsätze sowie die Spitzenmieten der Stadt zwischen 1995 und 2009 ausgewertet werden. Der ehemalige Güterbahnhof wurde abgerissen. Auf diesem Gebiet, auch als Bauabschnitt A1 bzw. als Europaviertel bekannt, wurden noch vor Projektstart von Stuttgart 21 die ersten Neubauten erstellt. Mit der Vorstellung der geplanten Bauprojekte auf diesem Gebiet, lassen sich die damals geltenden Entwicklungsprognosen mit dem damaligen und heutigen Immobilienmarkt am besten vergleichen. Auch wenn es sich bei Stuttgart 21 um ein Leuchtturmprojekt für die Region handelt sollte die Wirtschaftlichkeit im Vordergrund stehen. Volkswirtschaftliche Gutachten gehen unter gesamtwirtschaftlichen Aspekten von jährlichen positiven Erträgen aus. Projektgegner haben Gutachten erstellen lassen, die von dauerhaften Verlusten ausgehen. Die finanziellen Auswirkungen, welche das Projekt auf den Immobilienmarkt bereits hatte und hat, sollen aufgezeigt werden. Des Weiteren sollen Machbarkeitsstudien mit dem heutigen Projektverlauf verglichen werden. Bereits seit über 20 Jahren – erstmalige Diskussion 1988 – wird über das Projekt Stuttgart 21 diskutiert. Daher wurde in dieser Zeit auch eine ganze Reihe von Publikationen veröffentlicht. Hier muss bei der Auswertung der Literatur darauf geachtet werden, dass mit diesen Publikationen in der Regel bestimmte Eigeninteressen verfolgt wurden, sei es von den Gegnern, sei es von Befürwortern. So wurden etliche Gutachten und Gegengutachten erstellt, Wahlprogramme auf Stuttgart 21 abgestimmt und in der Presse erheblich diskutiert. Da es sich um ein laufendes Projekt handelt, gibt es folglich auch noch keine abschließende Projektliteratur. Daher wird die Recherche über Zeitungsauswertungen, Internetquellen, Hintergrundgespräche mit beteiligten Personen und Auswertung von (Grundstücks)-Marktberichten und Gutachten sowie Studien erfolgen. Ferner wurde eine Befragung innerhalb der Stuttgarter Immobilienwirtschaft durchgeführt, um Rückschlüsse über die Akzeptanz zum Projekt Stuttgart 21 zu ziehen.Inhaltsverzeichnis:Inhaltsverzeichnis: Executive Summary1 1.Einleitung5 1.1Problemstellung und Zielsetzung5 1.2Gang der Untersuchung6 2.Bahnprojekt Stuttgart – Ulm als der Teil der Magistrale von Paris – Bratislava Historie und Überblick8 2.1Magistrale Paris – Bratislava8 2.2Bahnprojekt Stuttgart – Ulm: 'Baden-Württemberg 21' inklusive 'Stuttgart 21'12 3.Parteien Stuttgart 21 und ihre Argumentation18 3.1Projektgegner18 3.2Projektbefürworter29 4.Umfrage zu Stuttgart 21 innerhalb der Stuttgarter Immobilienwirtschaft32 4.1Methodik32 4.2Auswertung33 5.Stadtentwicklungsprojekt von Stuttgart 21 – Immobilienwirtschaftliche Bedeutung45 5.1Städtebauliche Dimension46 5.2Teilgebiet A1 – Europaviertel50 6.Stuttgarter Immobilienmarkt 1995 bis 200960 7.Refinanzierung von Stuttgart 21 aus Grundstückserlösen68 7.1Geplante Erlöse aus freiwerdenden Flächen68 7.2Abgleich der Prognosen mit der heutigen Situation71 7.2.1Teilgebiet A2 – E71 7.2.2Teilgebiet A1 – Europaviertel75 8.Bewertung der Ergebnisse81 8.1Erlöse der Bahn durch Grundstücksverkäufe81 8.2Folgeinvestitionen durch Stuttgart 21 – Stadtentwicklung84 8.3Gesamtinvestitionen durch das Bahnprojekt Stuttgart – Ulm86 9.Schlussbemerkungen89Textprobe:Textprobe: Kapitel 3.1.6, Kopfbahnhof K21: Das Alternativkonzept Kopfbahnhof K21 sei insgesamt wesentlich besser: Seitens der Projektgegner wird als Alternative von Stuttgart 21 angeführt, dass der bisherige Kopfbahnhof saniert werden könnte. Dies wäre einerseits kostengünstiger, andererseits würde es zu ähnlichen Fahrzeitverkürzungen wie bei Stuttgart 21 kommen. Dazu wurde seitens Klaus Arnoldi ein Alternativkonzept vorgelegt mit dem Namen Kopfbahnhof K21. Beim bestehenden Bahnhof sollten die Bahnanlagen im Dreieck Nordbahnhof, Hauptbahnhof und Bad Cannstatt modernisiert werden und die Anbindung an den Flughafen über das regionale Schienennetz erfolgen. Der Verwaltungsgerichtshof Mannheim stellt in seinem Urteil vom April 2006 fest: 'Der Senat hält es für zweifelhaft, dass K21 überhaupt eine Alternative zu S21 ist.' K21 impliziert die Sanierung des bestehenden Kopfbahnhofes, die Generalsanierung des Gleisfeldes und der bestehenden Tunnel sowie den Bau weiterer Gleise bis zum Neckar und einer neuen Neckarbrücke. Ferner müsste eine neue Hochgeschwindigkeitstrasse durch Bad Cannstatt, Untertürkheim und Obertürkheim bis Wendlingen erfolgen. Als wesentlicher Nachteil wird am K21-Konzept gesehen, dass eine städtebauliche Entwicklung nur begrenzt möglich sei. So wären keine Erweiterungen des Rosensteinparks und des Schlossgartens möglich. Ferner fehlen für das K21-Projekt die Finanzierungsmittel. 3.1.7, Kommunikation des Projektes Stuttgart 21 in der Öffentlichkeit: Ferner wurde in der Öffentlichkeit angeführt, dass das Projekt Stuttgart 21 der Bevölkerung schlecht kommuniziert wurde. Die Bahn und die Stadt haben bereits vor einigen Jahren am Stuttgarter HBF eine Ausstellung im TurmForum Stuttgart 21 etabliert. Regelmäßig finden hier Führungen und Rundfahrten zu Stuttgart 21 statt. Seit einigen Monaten befindet sich im Stuttgarter Rathaus eine Ausstellung zum Projekt. In der Stuttgarter Presse wird das Projekt seit Jahren kontrovers diskutiert. Regelmäßig finden Veranstaltungen zum Thema statt. So wurde beispielsweise der Architekt Ingenhoven am 30.6.2009 von den Stuttgarter Nachrichten zur Podiumsdiskussion eingeladen. Obwohl eine Vielzahl von Kommunikationsmöglichkeiten angeboten wird, fühlen sich viele Stuttgarter nicht ausreichend über das Projekt informiert und lehnen es daher ab. Um die Aufklärungs- und Informationsarbeit zu verstärken hat Rüdiger Grube, neuer Vorstandsvorsitzender der Deutschen Bahn AG zusammen mit Ministerpräsident Günther H. Oettinger (CDU) am 24.7.2009 verkündet, dass der baden-württembergische Landtags-Vizepräsident Wolfgang Drexler (SPD) künftig als ehrenamtlicher Sprecher und 'Botschafter Stuttgart 21' (Mister Stuttgart 21) das Bahnprojekt Stuttgart 21 vertreten wird. Zusätzlich wird seitens der Landeshauptstadt Stuttgart ein Ombudsmann für die Bürger eingesetzt. 3.2, Projektbefürworter: Ein Großprojekt kann nur dann gelingen, solange ein 'Projektfenster' offen ist, bei dem die wesentlichen Rahmenbedingungen zueinander passen. Zu Beginn des Projektes sprach man von 'Schwaben-Connection', die das Projekt Mitte der neunziger Jahre auf den Weg brachte. Die Hauptakteure, Manfred Rommel (Stuttgarter Oberbürgermeister), Erwin Teufel (Ministerpräsident Baden-Württemberg), Matthias Wissmann (Bundesverkehrsminister) und Heinz Dürr (Deutsche Bahn Vorstandsvorsitzender) waren alle sehr eng mit der Region Stuttgart verbunden. Unter den Kommunalpolitikern gab es 1994 eine große Zustimmung für das 'Jahrhundertprojekt'. Ähnlich wie bei den Projektgegnern, hat sich auf der Befürworterseite auch eine ganze Reihe von Gruppierungen gebildet. Meist haben deren Initiatoren einen politischen oder einen wirtschaftlichen Hintergrund. Die Arbeitsgruppe 'Stuttgart21 – Ja bitte!' beispielsweise beantwortet die Frage nach der Notwendigkeit von Stuttgart 21 anhand der Bereiche 1) Vorteile für Städtebau und Landschaft, 2) besseres Verkehrsangebot auf der Schiene und 3) der zukünftige Hauptbahnhof. Die Argumente wurden in die Anlage 4 übernommen. Der Verein 'ProStuttgart21' setzt sich in der Öffentlichkeit mit bekannten Persönlichkeiten aus Wirtschaft, Politik, Kultur und Sport für das Projekt Stuttgart 21 ein. Die Deutsche Bahn AG und die Stadt Stuttgart haben '21 gute Gründe für Stuttgart 21' gefunden, die in der Anlage 5 aufgeführt werden. In der Bundesrepublik Deutschland müssen die öffentlichen Körperschaften Wirtschaftlichkeitsberechnungen erstellen, bevor einzelne Maßnahmen beschlossen werden können. Hier sollen im Rahmen von Kosten-Nutzen-Analysen die Kosten im Verhältnis zum Nutzen errechnet werden. Der Quotient aus Nutzen und Kosten muss positiv sein, d. h. größer 1 um zu erkennen, ob eine Maßnahme wirtschaftlich ist. Der volkswirtschaftliche Kosten-Nutzen-Faktor wurde 1999 für das Gesamtprojekt (Stuttgart 21 und NBS Wendlingen-Ulm) ohne städtebauliche Vorhaben nach Berechnungen der Deutschen Bahn AG mit 2,7 angegeben. Im Synergiekonzept Stuttgart 21 wurde im Jahre 1995 aufgrund der Berechnung des verkehrswissenschaftlichen Institutes an der Universität Stuttgart der Nutzen-Kosten-Quotient mit 2,6 angegeben. Dies entsprach einem volkswirtschaftlichen Nutzen in Höhe von 314 Mio. DM pro Jahr. Die Berechnung konnte nicht eingesehen werden. Dennoch handelt es sich um einen positiven Wert. Somit können die Befürworter den volkswirtschaftlichen Nutzen des Gesamtprojektes herausstellen. Das Innenministerium von Baden-Württemberg hat ein Gutachten über die 'Volkswirtschaftliche Bedeutung des Projekts Baden-Württemberg 21' durch die Institute IWW (Karlsruhe), SFR (Wien) und VWI (Stuttgart) erstellen lassen. Danach wurde festgestellt, dass durch das Gesamtprojekt ca. 1 Mrd. Pkw-km je Jahr eingespart werden können. Demnach werden sich die CO2-Emissionen um 177 Tonnen jährlich reduzieren. Ferner werden in dem Gutachten positive Effekte innerhalb der Bauzeit sowie Dauereffekte nach Fertigstellung durch die verbesserte Erreichbarkeit ausgemacht. Die Städtebauprojekte und die Beschäftigungseffekte werden sehr positiv gesehen. Die Amortisationszeit der öffentlichen Investitionen des Landes Baden-Württemberg wurde bei einer statischen Betrachtung (ohne Zinsen) mit 13 Jahren berechnet. Bei einer dynamischen Betrachtung unter Berücksichtigung von Zinsen in Höhe von 3,5 % p.a. beträgt die Amortisationszeit 20 Jahre. Das bedeutet, dass innerhalb von 20 Jahren die öffentlich investierten Gelder an das Land zurückfließen. Damit ist die Amortisationszeit im Vergleich zu anderen internationalen Großprojekten vergleichsweise niedrig. Zwischenfazit: Das 'Projektfenster' Stuttgart 21 hat sich durch die Finanzierungsvereinbarung vom April 2009 geöffnet: 'Die Zeit ist reif!' stellte der Ulmer Oberbürgermeister Ivo Gönner fest. Die Planungen sind weitgehend abgeschlossen, 2010 kann der Baubeginn erfolgen. Den Hauptnutzen werden hier die heranwachsenden Generationen haben. Während der knapp zehnjährigen Bauzeit werden die Stuttgarter mit Einschränkungen umgehen müssen. Bis alle freiwerdenden Flächen einer neuen Nutzung übergeben sind, werden 20 Jahre vergehen. Dennoch werden mehrere Generationen von dem 'Jahrhundertprojekt' profitieren können. Der Geschwindigkeitsvorteil für Bahnreisende in Deutschland und Europa ist enorm. München wird von Stuttgart in 1 h 35 Minuten (heute 2 h 18 Minuten) erreichbar sein, Wien in 4 h 50 Minuten. Für die Strecke von Stuttgart nach Paris werden nur noch 3 h 10 Minuten benötigt. Die Bahn wird Marktanteile gewinnen, der Flug- und Autoverkehr werden Marktanteile verlieren.