Distintas formas de populismo se han consolidado en la última década en América Latina. La génesis del fenómeno es similar: desencanto con los resultados del proceso de reforma de los 90´, auge de los precios de las commodities y baja calidad de la democracia. Las dos últimas condiciones se encuentran relacionadas.La dinámica que se ha consolidado entre altos precios de las commodities y debilidad democrática es una versión política de "la maldición de los recursos naturales" o "enfermedad holandesa". Este concepto económico fue primero desarrollado por el Semanario The Economist en 1977 a partir del descubrimiento de gas hecho por Holanda en el Mar del Norte. La mencionada publicación lo define de la siguiente manera: "…This malady involves commodity exports driving up the value of the currency, making other parts of the economy less competitive, leading to a current-account deficit and even greater dependence on commodities. This matters all the more because mining and hydrocarbons are capital-intensive businesses, generating relatively few jobs."(1)A su vez, otros analistas han introducido el concepto relacionando recursos naturales y debilidad institucional. Por ejemplo, Thomas Friedman ha estudiado la incidencia del petróleo en las autocracias de Medio Oriente. Para el autor "La primera ley de la petropolítica postula lo siguiente: el precio del crudo y el ritmo de la libertad siempre se mueven en direcciones opuestas en Estados petroleros ricos en crudo. Cuanto más alto sea su precio medio global, más se erosionan la libertad de expresión, la de prensa, las elecciones libres y justas, la independencia del poder judicial y de los partidos políticos y el imperio de la ley. Y estas tendencias negativas se refuerzan por el hecho de que cuanto más sube el precio, menos sensibles son los gobernantes con petróleo a lo que el mundo piensa o dice de ellos."(2)Paso seguido, mientras por un lado Friedman menciona la relación entre ingresos extraordinarios del petróleo y fortalecimiento de autocracias, es necesario remarcar la relación entre ingresos extraordinarios de las commodities y debilitamiento de las democracias. La diferencia es relevante: mientras que en el primer caso Friedman ha descrito un fenómeno que busca la permanencia de un régimen, los populismos describen un proceso que busca distorsionar y deteriorar otro régimen, la democracia liberal.Así, un punto analítico importante que ha introducido la versión populista basada en los ingresos extraordinarios es la paulatina distorsión en una regla básica del juego democrático: la vigencia de elecciones realmente competitivas. Definimos elecciones competitivas como la disputa en un pie de igualdad entre dos o más partidos o coaliciones. Si uno de ellos utiliza recursos públicos ordinarios para financiar su campaña estará bastardeando un precepto central de la democracia. El problema actual en distintos países de América Latina es el sistemático uso de recursos extraordinarios.¿Por qué el populismo se ha beneficiado particularmente de esta nueva dinámica? En parte porque el fracaso de las reformas de los 90´ ha contribuido a la generación de un marco donde ha sido más sencillo señalar ganadores, perdedores y los supuestos responsables de ello. Por ejemplo en Argentina, el traumático final de la convertibilidad (diciembre 2001) ha supuesto para los nuevos populistas la oportunidad de articular una coalición política de los perdedores. Sumado a ello, se ha dado posteriormente (desde 2004 en adelante) una coyuntura económica inédita en la historia contemporánea. Si concatenamos el fracaso de las reformas, la existencia de un grupo definido de perdedores, la posibilidad de señalar ganadores y culpables y los altos precios internacionales, es posible concluir que la calidad de la democracia no solo está amenazada sino que esa amenaza posee condiciones para mantenerse en el tiempo.Paso seguido, es necesario preguntarse como salir de este círculo vicioso entre ingresos extraordinarios y debilidad institucional. Siguiendo esta lógica, podríamos pensar que una caída en los precios de las materias primas debiesen repercutir en una mayor fortaleza institucional. Este razonamiento lineal es obviamente falso: la hipotética caída de los precios dejaría menos recursos para profundizar determinadas políticas pero no ayudaría a modificar prácticas anteriores consolidadas.El corto-mediano plazo posee más interrogantes que respuestas para los países envueltos en la dinámica maniquea del populismo contemporáneo. Un dato principal de las experiencias del pasado es que determinados modelos económicos tarde o temprano terminan por colapsar, pero eso no conlleva necesariamente que los actores involucrados aprendan de sus errores. Las personas o grupos aprenden de sus errores cuando poseen una referencia histórica, es decir, cuando tienen la posibilidad de comparar distintos episodios. Una de las características de los populismos contemporáneos es la capacidad que han desarrollado para re-fundar, simbólica o realmente, la vida política en países tan disímiles como Venezuela, Bolivia o Ecuador, haciendo más difícil el necesario ejercicio de la comparación. Las elecciones presidenciales en Argentina en octubre del 2011 develarán hasta que punto el neo-populismo y los ingresos extraordinarios han transformado una sociedad otrora compleja en una pobre versión del maniqueísmo.(1) El mencionado semanario ha publicado un reporte sobre las oportunidades que el inédito crecimiento económico ofrece a la región. Uno de los artículos del reporte hace mención al papel de los recursos naturales y los posibles problemas que ello conllevaria. Ver "Special Report on Latin America". The Economist. 9 de septiembre de 2010. http://www.economist.com/node/16964094(2) Friedman, Thomas. Foreign Policy. Ley de Petropolitica. 2006. Version online en español en http://www.fp-es.org/la-primera-ley-de-la-petropolitica. En este trabajo se citan libros y papers anteriores que desarrollan la relación entre recursos naturales y crecimiento. Por ejemplo, "…Daniel Yergin The Prize: The Epic Quest for Oil, Money, and Power (Simon & Schuster, Nueva York, 1991), A su vez,. Sustaining Development in Mineral Economies: The Resource Curse Thesis (Routledge, Nueva York, 1993), de Richard Auty, explica por qué los países dotados de recursos naturales con frecuencia no logran desarrollarse. Jeffrey Sachs y Andrew Warner dan cuerpo a esta tesis en Natural Resource Abundance and Economic Growth(National Bureau of Economic Research, Washington, 1995)…" *Profesor adjunto de Ciencia Política en la Universidad Abierta Interamericana de Buenos Aires.Master en Filosofía Política de London School of Economics and Political Science.
Aus der Einleitung: Einleitung: 1.1 Anstoß und Problemstellung: 'Weder haben wir die Ursachen der Krise beseitigt, noch können wir heute sagen: Gefahr erkannt, Gefahr gebannt.' Bundespräsident Christian Wulff nutzte seine Ansprache auf dem Deutschen Bankentag 2011 um an die unverändert hohen Gefahrenpotenziale im Finanzintermediationssystem zu erinnern. In der Geschichte kam es immer wieder zu schweren Finanzmarktkrisen. Doch keine ist mit dem jüngsten Zusammenbruch hinsichtlich der Gefährlichkeit und Dynamik vergleichbar. Schnell weitete sich die Krise auf andere Märkte aus und führte zum schwersten Wirtschaftseinbruch seit 1929. Heute sind direkte und indirekte Folgen bedrohlicher denn je. Extreme Kursschwankungen an den Börsen spiegeln die Unsicherheit über die gegenwärtige Situation wieder. Drohende Staatspleiten lassen das Vertrauen in funktionierende Märkte weiter sinken. Das gesellschaftliche Interesse an einer strengeren Finanzmarktregulierung zur Vermeidung zukünftiger Krisen ist auffällig gestiegen. Kein anderer Wirtschaftszweig ist traditionell so stark reguliert wie der Finanzsektor. Dennoch ist es den Behörden nicht gelungen, die Fehlausbildungen des Systems frühzeitig zu erkennen und zu verhindern. Obwohl Finanzmarktakteure ihren Tätigkeitsbereich fortlaufend über Ländergrenzen hinweg ausdehnen, ist die Finanzmarktregulierung weitestgehend auf nationaler Ebene verblieben. In der Folge sind mehrere Behörden an der Regulierung beteiligt, so dass mangelnde Zusammenarbeit und Informationslücken die Sicherstellung der Systemstabilität gefährden könnten. Die geschilderte Situation verlangt nach einer genaueren Betrachtung um die resultierenden Implikationen verstehen zu können. Multinationale Banken sind heute bedeutende Akteure auf dem globalen Finanzmarkt und besitzen großen ökonomischen Einfluss. Sie eignen sich daher als repräsentatives Untersuchungsobjekt hinsichtlich der Effizienz von Regulierungsmaßnahmen. 1.2 Zielsetzung und Organisation der Arbeit: Ziel dieser Arbeit ist es, die Regulierung von Multinationalen Banken zu analysieren und Verbesserungspotenziale zu erkennen. Aus den Wechselwirkungen der Regulierung in den Niederlassungsländern der Bank sollen Schlüsse über das Verhalten der zuständigen Instanzen gezogen und mögliche Ineffizienzen aufgedeckt werden. Das in dieser Arbeit verfolgte Ziel wird demnach unter folgende Forschungsfrage gestellt: Ist es möglich durch die Zusammenarbeit der verantwortlichen Regulatoren einer Multinationalen Bank ein wohlfahrtsoptimales Ergebnis zu erreichen? Um diese Frage zu beantworten wird wie folgt vorgegangen. Die vorliegende Arbeit gliedert sich in vier wesentliche Abschnitte. Im ersten Teil werden die Grundlagen der Regulierungstheorie erläutert und das Untersuchungsobjekt, die Multinationale Bank, vorgestellt. Zudem wird auf die Begründung von Staatseingriffen in den Bankenmarkt näher eingegangen und mögliche Maßnahmen kategorisiert. Im zweiten Teil der Arbeit wird ein Modell zur Analyse der Ausgangssituation vorgestellt. Dabei werden zwei Gesichtspunkte betrachtet. Zum einen die Situation aus Sicht der Regulierer. Zum anderen die Entscheidung der Bank über die Art der Niederlassung im Ausland. Durch die Beobachtung des Verhaltens der beteiligten Parteien werden Rückschlüsse auf die jeweiligen Verhaltensweisen und Anreize gezogen. Im dritten Abschnitt wird die internationale Kooperation der Regulierung von Multinationalen Banken untersucht. Eine Darstellung der Bemühungen hinsichtlich der international abgestimmten Aufsicht multinationaler Bankaktivitäten dient einem aktuellen Überblick über die Sachlage. Darauf folgt die Betrachtung der Kooperation in der Regulierung von Multinationalen Banken. Hierbei werden drei Situationen geschildert. Die Differenzierung erfolgt nach der Art der Niederlassung und dem Kooperationsverhalten. Es werden dabei unter anderem auch die Verhalten der Regulierer zwischen den ausländischen Niederlassungen betrachtet. Anschließend wird die Möglichkeit eine Zentralisierung der Regulierung diskutiert. Im letzten Abschnitt werden die Ergebnisse der Arbeit zusammengefasst und mögliche Lösungsvorschläge erörtert. Dabei wird zu jeder Zeit auf die Konvergenz zu international anerkannten Meinungen geachtet.Inhaltsverzeichnis:Inhaltsverzeichnis: AbstractI AbbildungsverzeichnisIV TabellenverzeichnisV Box-VerzeichnisVI SymbolverzeichnisVII AbkürzungsverzeichnisVIII Kapitel 1Einleitung1 1.1Anstoß und Problemstellung1 1.2Zielsetzung und Organisation der Arbeit7 2.Grundlagen8 2.1Finanzintermediation und Banken als Finanzintermediäre8 2.2Multinationale Banken11 2.3Gegenstand der Regulierungstheorie15 2.4Die Zwecke der Regulierung von Banken17 2.5Eine Systematisierung der Bankenregulierung24 3.Modellbetrachtung27 3.1Das Grundproblem und die Vorgehensweise27 3.2Modellrahmen und Ablauf30 3.3Die Regulierung von Subsidiary und Branch34 3.4Die Wahl der Repräsentationsform im Ausland41 3.5Modell-Zusammenfassung43 4.Harmonisierung der Regulierung44 4.1Prinzipien für die internationale Aufsicht44 4.2Kooperation in der Regulierung von multinationalen Banken47 4.3Pro und contra einer zentralen Finanzmarktregulierung56 5.Auswertung und Empfehlungen63 5.1Ergebnisse63 5.2Handlungsempfehlungen65 Literaturverzeichnis67 Anhang A: Grundlagen74 A.1 Verbriefungen74 A.2 Basel II75 A.3 Implementierung Basel II76 A.4 Kreditinstitute aus rechtlicher Sicht77 A.5 Ausländische Besitzanteile78 A.6 Ausländische Banken in Osteuropa und Lateinamerika79 Anhang B: Regulierung von Branch und Subsidiary80 B.1 Regulierungsentscheidung über Subsidiary-MNB80 B.2 Regulierungsentscheidung über Branch-MNB82 B.3 Determinanten für Branch-Repräsentation83 Anhang C: Kooperative Regulierung84 C.1 Empfehlungen der 'Cross-border Bank Resolution Group' (März 2010)84 C.2 Internationale Regelung in der Bankenaufsicht87Textprobe:Textprobe: Kapitel 2., Grundlagen: 2.1, Finanzintermediation und Banken als Finanzintermediäre: Das Funktionieren einer Volkswirtschaft ist maßgeblich von der Sicherstellung des effizienten Kapitaltransfers sowie der effizienten Allokation von Überschuss- und Defiziteinheiten abhängig. 'Mit dem Begriff Finanzintermediation werden die zahlreichen Prozesse umschrieben, die es zum Ziel haben, Nachfrage und Angebot nach Kapital zusammenzuführen und abzustimmen.' Effiziente Finanzintermediation erhöht das Wachstum und die Stabilität eines ökonomischen Systems. Im Sinne des funktionellen Erklärungsansatzes stehen folgende fünf Kernfunktionen im Mittelpunkt: Transfer-, Transformations-, Risikotransformations-, Logistik- und Informationsfunktion. Innerhalb variabler Rahmenbedingungen (zum Beispiel nationale Finanzmarktgesetzgebung) sind diese Funktionen gleichbleibend und es gilt, sie zu erfüllen. Die Grundaussagen der Kernfunktionen lauten: Transferfunktion: Der Transfer von Kapital zwischen verschiedenen Akteuren im Wirtschaftssystem verursacht Kosten und Risiken, welche durch effiziente Intermediation reduziert werden können. Transformationsfunktion: Das Volumen von Kapitalangebot und Nachfrage kann differieren. Mittels Losgrößentransformation wird ein großer Kredit durch viele kleine zusammengefasste Einlagen finanziert bzw. wird eine große Einlage in Form von vielen kleineren Krediten verliehen. Unterschiede in der Fristigkeit werden durch Fristentransformation ausgeglichen. Langfristige Kredite können durch den Finanzintermediär aus Einlagen kürzerer Laufzeiten finanziert, und umgekehrt längerfristige Einlagen in Kredite mit kürzerer Laufzeit investiert werden. Eine dritte Form der Transformationsfunktion von Finanzintermediären ist der intertemporale Ausgleich zwischen Konsum und Sparen bzw. Finanzieren und Investieren. Diese zeitliche Verschiebung der Prioritäten im Lebenszyklus wird als Life Cycle-Transformation bezeichnet. Risikotransformationsfunktion: Wirtschaftsteilnehmer besitzen eine unterschiedliche Risikoneigung und Risikotragfähigkeit. Finanzintermediation ermöglicht den direkten oder indirekten Transfer von Risiken entsprechend der Präferenzen. Ein direkter Transfer kann mittels Diversifikation, Hedging oder das Abschließen von Versicherungen erreicht werden. Der Finanzintermediär ist aber auch in der Lage, Risiken indirekt zu senken. Eine entscheidende Rolle spielen dabei Informationsvorteile, welche dem einzelnen Nicht-Intermediär gänzlich unzugänglich bzw. nur mit hohem Kostenaufwand zugänglich sind. Gegen Zahlung einer Entschädigung kann sich der Kapitalgeber Informationen über die Risiken des Investitionsobjektes beschaffen. Aber auch Eigenkapitalhaftung und Diversifikationsmöglichkeiten (welche dem Einzelnen nicht zur Verfügung stehen) sind Möglichkeiten zur Reduktion von Risiken durch Finanzintermediation. Logistik- und Servicefunktion: Für die effiziente Erfüllung der Intermediationsfunktion bedarf es bestimmter logistischer Voraussetzungen. Aufgabe ist es, diese Basis zu schaffen und sie den Marktteilnehmern zugänglich zu machen. Informationsfunktion: Die Beschaffung von notwendigen Informationen für die Investitions- oder Finanzierungsentscheidung der Wirtschaftssubjekte ist mit hohem Ressourceneinsatz verbunden. Informationsungleichgewichte zwischen Kapitalanbieter und Nachfrager erhöhen das Risiko in vielfältiger Weise. 'Im Rahmen der Informationsfunktion gewährleistet die Finanzintermediation eine permanente und effiziente Verbesserung der Informationsbasis, auf deren Grundlage die Marktteilnehmer Finanzentscheidungen treffen.' Aus diesen fünf Kernfunktionen können die drei Ziele Kapitalallokation, Transaktionskostenreduktion und Risikoreduktion abgeleitet werden. Dabei stehen diese Zielelemente nicht nur ergänzend zueinander. Unter Einbeziehung der Kosten wird das Konfliktpotenzial ersichtlich. So hat sich in der jüngsten Krise des Finanzintermediationssystems deutlich gezeigt, wie hoch Systemrisikokosten und damit die Kosten für die Volkswirtschaft sein können. Der Finanzintermediär kann als Anbieter von Finanzintermediationsleistungen bezeichnet werden. Dabei werden neun Anbieterkategorien unterschieden: Banken und bankähnliche Organisationen, Finanzgesellschaften und Gesellschaften mit Nähe zu Banken, Zentralbanken, Versicherungsgesellschaften, Beratungs- und vermittlungsorientierte Organisationen, Non-Banks, Anbieter von Marktplattformen, Informationsdienstleister und Technologieprovider. Es kann weiter zwischen Finanzintermediären im engeren und im weiteren Sinn differenziert werden. In der engeren Definition werden Finanzintermediäre als Institutionen verstanden, die Kapital von Anlegern annehmen und an Kapitalnehmer weitergeben. Eine Bank, in deren Geschäftstätigkeit dieser Vorgang berücksichtigt wird, kann als Finanzintermediär im engeren Sinn bezeichnet werden. Allerdings fallen auch andere Unternehmen, wie zum Beispiel Venture Capital Gesellschaften oder Versicherungen, in den Bereich dieser Definition. Weiterhin werden Institutionen, welche den Handel zwischen Kapitalgebern und Kapitalnehmern ermöglichen oder erleichtern, als Finanzintermediäre im weiteren Sinn bezeichnet. In diese Gruppe sind Finanzmakler, Börsendienste oder Rating Agenturen einzuordnen. 'Banken bieten heutzutage eine Fülle unterschiedlicher Produkte an und konkurrieren mit anderen Instituten, die gleiche Funktionen erfüllen.' Definitionsansätze des Begriffs 'Bank' sind daher sehr heterogen. Sie können aus einzelwirtschaftlicher, gesamtwirtschaftlicher oder rechtlicher Sicht erfolgen. Der Tätigkeitsbereich von Banken gliedert sich in Commercial Banking und Investment Banking. Im Commercial Banking nehmen Kreditinstitute Kapital entgegen und geben dieses als Kredite an Dritte weiter. Damit übernehmen diese Institute die Transformationsleistungen der Finanzintermediation in Bezug auf Risiko, Fristigkeit und Losgrößen. Im Zuge des delegated monitoring wird stellvertretend für den Kapitalgeber die Überwachung der Kreditnehmer übernommen, und dadurch Kosten eingespart. Zudem erfüllen sie Umtausch und Zahlungsleistungen und sind damit klar den Finanzintermediären im engeren Sinn zuzuordnen. Im Gegensatz dazu unterstützen Investmentbanken den Handel an den Kapitalmärkten und sind damit als Finanzintermediäre im weiteren Sinne tätig. Klar wird an dieser Stelle, dass Banken einen großen Teil des Spektrums der Finanzintermediation abdecken. Sie zählen zu den wichtigsten Finanzintermediären und nehmen eine bedeutende Position in einer Volkswirtschaft ein. 2.2, Multinationale Banken: In der vorangegangen Betrachtung wurden Banken in die Finanzintermediationstheorie eingeordnet, ohne dabei näher auf den 'geographischen' Tätigkeitsbereich der Intermediäre einzugehen. Es konnte aus der Finanzintermediation heraus auf den Finanzintermediär selbst Bezug genommen werden. Diese Vorgehensweise wird nun auf globaler Ebene fortgesetzt. Die internationale Finanzintermediation besitzt eine Reihe von Spezifika. Das Risiko internationaler Transaktionen ist höher als auf nationaler Ebene. Insbesondere tragen Fremdwährungs- und Länderrisiken zu diesem hohen Risikofaktor bei. Die Intermediationskette sowie die Intensität der Interbankenbeziehungen, sind im globalen Umfeld ausgedehnter als in inländischen Märkten. Das Argument der größeren Informationslücke, aufgrund der größeren Entfernung von Kapitalnehmer und Kapitalgeber, hat im Zeitalter des Internets und der internationalen Vernetzung kaum noch Gültigkeit. Kritisch zu betrachten sind in diesem Zusammenhang auch Aussagen über die erhöhte Wettbewerbsintensität auf dem internationalen Bankenmarkt. Die fehlende internationale Regulierung soll für diesen Zustand verantwortlich sein. In Hinsicht auf die in der jüngsten Vergangenheit abgeschlossenen internationalen Abkommen ist dieses Argument als heikel anzusehen. Ebenfalls spricht die Tatsache, dass auf internationalen Kapitalmärkten unvollkommene Marktbedingungen vorherrschen, welche Intermediären Monopolrenten verschaffen können, dagegen. Die Wettbewerbsintensität wäre somit sogar geringer. Ein internationaler Finanzintermediär ist ein Intermediär, welcher die Funktionen der Finanzintermediation in (über) mehreren Ländern erfüllt. Im Folgenden wird die Multinationale Bank (MNB) als ein Vertreter näher betrachtet. Eine MNB ist eine Bank, welche in mehr als einem Land physische Niederlassungen unterhält. Sie besitzt Elemente ausländischer Direktinvestitionen (FDI) und eines multinationalen Unternehmens (MNE). Die meisten Aktivitäten der MNB sind grundsätzlich als eine Art Verlängerung von Aktivitäten der inländischen Ebene zu verstehen. Im Gegensatz dazu, werden Internationale Banken abgegrenzt, welche zwar international operieren, aber keine physischen Niederlassungen im Ausland besitzen. Unter die Tätigkeiten Internationaler Banken fallen traditionelle grenzüberschreitende Geschäfte sowie das sogenannte Euroccurrency Banking, bei dem Transaktionen in einer Fremdwährung durchgeführt werden.
Aus der Einleitung: Es gibt wenige Themen, die in den letzten Jahren so omnipräsent waren wie der Klimawandel. Und dies ist auch nicht verwunderlich, denn die dramatischen Auswirkungen der Klimaveränderung sind nicht nur durch die Arbeitsgruppe I des Intergovernmental Panel on Climate Change (IPCC) in ihrem vierten Sachstandsbericht von 2007 nachgewiesen worden, sondern auch für jeden spürbar. So ist es heute wissenschaftlich erwiesen, dass die veränderten Temperaturen beispielsweise das Abschmelzen der Gletscher und Eiskappen verursachen, für veränderte Niederschlagsmengen sorgen und "…bei Aspekten von extremen Wetterereignissen wie Trockenheit, Starkniederschlägen, Hitzewellen und der Intensität von tropischen Wirbelstürmen" eine bedeutende Rolle spielen. Die durch extreme Wetterereignisse hervorgerufenen volkswirtschaftlichen Schäden beliefen sich im Jahr 2007 auf circa 64 Milliarden US-Dollar und forderten mehr als 15.000 Menschenleben. Unter Wissenschaftlern herrscht heute fast einstimmig die Überzeugung, dass eine der Hauptursachen für die globale Erwärmung die vom Menschen verursachte Zunahme der Treibhausgaskonzentration ist, die den sogenannten Treibhauseffekt verstärkt. Die Notwendigkeit zum Handeln ist mittlerweile nicht mehr alleine von Umweltorganisationen erkannt worden, sondern auch die internationale Staatengemeinschaft hat sich auf Maßnahmen zur Einschränkung bzw. Reduktion von Treibhausgasemissionen geeinigt. In diesem Zusammenhang werden als eines der Hauptinstrumente die, im internationalen Klimaschutzabkommen von Kyoto vereinbarten, sogenannten "flexiblen Mechanismen" eingesetzt. Die marktwirtschaftliche Konzeption dieser Instrumente erlaubt es Möglichkeiten der Emissionsreduktion zu nutzen, die der jeweiligen Situation der Staaten angepasst ist. Eine herausragende Rolle bei der Erreichung der festgelegten Treibhausgasminderungsziele spielt der flexible Mechanismus des "internationalen Emissionsrechtehandels". Dabei werden festgelegte Reduktionsziele sowohl effektiv, als auch effizient erreicht. Aber bereits vor Inkrafttreten des internationalen Klimaschutzabkommens wurde in der Europäischen Union, Anfang 2005, ein Emissionshandelssystem für Kohlenstoffdioxid (CO2) eingeführt. Dieses Emissionshandelssystem stellt, gemessen am Umsatz der gehandelten CO2-Mengen, weltweit das bedeutendste seiner Art dar. Ziel dieser Arbeit ist es den ökonomisch interessierten Leser zum Einen die umweltökonomischen Hintergründe der Klimaproblematik aufzuzeigen und die zur Verfügung stehenden umweltpolitischen Instrumente zur dessen Lösung zu vergleichen. In diesem Zusammenhang soll die theoretische Funktionsweise des Emissionszertifikatehandels bzw. Emissionshandels (EH) erläutert und dessen Hauptkritikpunkte untersucht werden. Zum Anderen, soll ein Überblick über die internationalen Klimaschutzbemühungen gegeben werden, um das EU-Emissionshandelssystem in seiner Praxisrelevanz einordnen zu können. Dabei sollen die zentralen Ausgestaltungsmerkmale dieses Handelssystems bekannt werden. Das sich ergebende Gesamtbild soll dazu befähigen die Komplexität des EH in Theorie und Praxis zu überschauen und einen Eindruck über die damit verbundenen Chancen und Probleme zu erhalten. Hierzu werden eingangs, die für die weitere Untersuchung relevanten naturwissenschaftlichen Hintergrundinformationen zum Treibhauseffekt gegeben. Daran anknüpfend folgt die Analyse der Klimaproblematik aus umweltökonomischer Perspektive. Anschließend werden in Kapitel 3 die zur Lösung des beschriebenen Problems zur Verfügung stehenden umweltpolitischen Instrumente miteinander verglichen. Dabei wird die Wirkungsweise des Emissionshandels unter wissenschaftlich-theoretischen Aspekten analysiert und die in der öffentlichen Diskussion bedeutendsten Kritikpunkte betrachtet. In Kapitel 4 werden die maßgeblichen internationalen Klimaabkommen, ihre Beschlüsse und Instrumente zum Klimaschutz vorgestellt. Darauf aufbauend werden die wichtigsten internationalen Emissionshandelssysteme präsentiert, um dann in Kapitel 5 die praktische Ausgestaltung des EH am Beispiel des EU-Emissionshandelssystems zu untersuchen. Dabei wird etwas intensiver auf den eigentlichen Handel, als Kern des EH eingegangen. In diesem Zusammenhang werden die technischen und regulatorischen Gegebenheiten und das Marktumfeld betrachtet. Zusätzlich wird in einem Exkurs ein kurzer Einblick in die durch den Emissionshandel neu entstandenen Kapitalanlagemöglichkeiten gegeben. Zur Bearbeitung des Themas werden umweltökonomisch-theoretische, als auch praxisnahe Überlegungen und Daten herangezogen. Dabei wird für den Bereich der Kapitalanlagemöglichkeiten, das Know-How der Investmentfondsmanagements der Aquila Capital Concepts GmbH und der KlimaINVEST Management GmbH genutzt.Inhaltsverzeichnis:Inhaltsverzeichnis: Tabellen- und AbbildungsverzeichnisIV AbkürzungsverzeichnisV 1.Einleitung1 2.Treibhauseffekt und Marktversagen als Begründung für die Notwendigkeit von Klimaschutzpolitik3 2.1Treibhauseffekt3 2.2Marktversagen7 3.Emissionszertifikatehandel als Instrument der Klimaschutzpolitik12 3.1Internalisierung externer Effekte durch umweltökonomischeInstrumente12 3.1.1Eine Preislösung - Das Pigou-Modell18 3.1.2Eine Verhandlungslösung - Das Coase-Theorem22 3.2Ausgestaltung des Emissionshandels30 3.3Hauptkritikpunkte am Emissionshandel37 3.3.1Gefahr von Wettbewerbsverzerrung und Carbon Leakage37 3.3.2Tatsächliche Emissionsreduktion ist fraglich41 4.Internationale Klimaschutzpolitik43 4.1Die UN-Klimarahmenkonvention43 4.2Das Kyoto-Protokoll44 4.2.1Reduktionsziele44 4.2.2Flexible Mechanismen zur Zielerreichung47 4.3Weltweite Emissionshandelssysteme52 5.Das Emissionshandelssystem der Europäischen Union55 5.1Rechtliche Rahmenbedingungen55 5.2Teilnehmerkreis und Ausgestaltung des Emissionshandels auf Anlagenebene60 5.3Allokation der Emissionsrechte - Primärmarkt65 5.4Handel mit Emissionszertifikaten - Sekundärmarkt68 5.4.1Emissionshandelsregister68 5.4.2Übersicht über die Marktsegmente und handelbarenEmissionszertifikate70 5.4.3Handelsformen, -produkte und Akteure des Emissionshandels76 5.5Banking und Borrowing von Emissionszertifikaten83 5.6Emissionsüberwachung und Sanktionsmaßnahmen86 6.Fazit88 Anhang91 Anhang 1: Ratifikation der Klimarahmenkonvention92 Anhang 2: Ratifikation des Kyoto-Protokolls99 Anhang 3: Annex I-Staaten107 Anhang 4: Annex II-Staaten108 Anhang 5: Annex A109 Anhang 6: Annex B-Staaten und deren Reduktionsziele111 Anhang 7: EU-Emissionshandelsrichtlinie112 Anhang 8: Exkurs - Kapitalanlagemöglichkeiten in einer neuentstandenen Anlageklasse127 Literaturverzeichnis133 Stichwortverzeichnis138Textprobe:Textprobe: Kapitel 5.2, Teilnehmerkreis und Ausgestaltung des Emissionshandels auf Anlagenebene: Prinzipiell ist das EU-Emissionshandelssystem nicht auf einen bestimmten Teilnehmerkreis beschränkt. Denn Artikel 19 der EH-RL räumt "jeder Person" das Recht auf Besitz und Handel von Emissionszertifikaten ein. Generell gilt wie bereits erwähnt, dass je höher die Teilnehmerzahl am Emissionshandel ist, desto mehr Handel mit Emissionszertifikaten ist zu erwarten. Dies führt zu einem liquideren Markt und dadurch zu aussagekräftigeren und schwerer manipulierbaren Zertifikatspreisen. Um aber im Speziellen festzulegen welcher Teilnehmerkreis in das EU-ETS integriert werden soll, gibt es bei dem THG Kohlendioxid zwei Ansatzpunkte. Diese unterscheiden sich durch die Überlegung, wer die Emissionsberechtigungen vorhalten muss: - Beim Upstream-Ansatz sind dies die Brennstofferzeuger, -importeure und -lieferanten. - Beim Downstream-Ansatz sind dies die tatsächlichen Emittenten, dazu zählen die Industrie, Strom- und Wärmeerzeuger, Transportunternehmen, Betreiber von Kleingewerben, die Anbieter von Dienstleistungen, PKW-Fahrer und Haushalte. Bei beiden Ansätzen muss entschieden werden, ob alle Sektoren tatsächlich integriert werden sollen, oder ob dies aus Praktikabilitäts- und Kostengründen nur auf einige beschränkt wird. Beim Downstream-Ansatz muss desweiteren noch geklärt werden, ob die CO2-Emissionen aus der Strom- und Wärmeproduktion zu einer Verpflichtung der Endverbraucher oder der Strom- und Wärmeproduzenten führen soll. Dabei treten die Endverbraucher als "indirekte" Verursacher der Emissionen auf und die Strom- und Wärmeproduzenten als "direkte" Verursacher der Emissionen. Diese Unterscheidung erklärt sich dadurch, dass Emissionen beispielsweise bei der Stromproduktion und nicht beim Strombezug erzeugt werden. Die Emissionshandelsrichtlinie berücksichtigt den Downstream-Ansatz nach dem direkten Verursacherprinzip. Das führt dazu, dass weder die Lieferanten von Brennstoffen für die Strom- und Wärmeerzeugung, noch die Endverbraucher in das EU-ETS eingebunden werden. In das EU-ETS sind bis jetzt nur "große industrielle" CO2-Emittenten und die Energiewirtschaft, dabei handelt es sich um Kraftwerke ab einer Leistung von 20 Megawatt, integriert. Im Anhang I der EH-RL sind die in den Anwendungsbereich des EU-ETS fallenden Sektoren im Detail aufgeführt. Dazu gehören die energieintensiven Bereiche: Energieumwandlung und -umformung, Eisenmetallerzeugung und -verarbeitung, Mineralverarbeitende Industrie, Sonstige Industriezweige (Papier- und Zelluloseproduktion). Mit der Richtlinie 2008/101/EG des Europäischen Parlaments und Rates vom 19. November 2008 wurde beschlossen, den Luftverkehr ab dem 01. Januar 2012 mit in den Handel mit Treibhausgasemissionszertifikaten zu integrieren. Mit Start der dritten Handelsphase werden die Sektoren Aluminum und Chemie einbezogen. Das EU-ETS ist ein sogenanntes "anlagenbasiertes" System. Das bedeutet, dass die einzelnen Produktionsanlagen und nicht gesamte Unternehmen integriert werden. Anlagen, die unter anderem zu Forschungszwecken oder zur Entwicklung und Prüfung neuer Produkte und Verfahren dienen, werden nicht unter die Bestimmungen der EH-RL gestellt. Die bisherige Beschränkung im EU-ETS auf nur einige CO2-emittierende Sektoren bzw. Anlagen ist damit zu begründen, dass die Beteiligung aller CO2-Emittenten, wie beispielsweise Haushalte, Kleinbetriebe und Verkehr mit zu hohen Transaktionskosten verbunden wäre. Die Transaktionskosten bestehen aus Einstiegs- und Teilnahmekosten am Emissionshandel und senken die Möglichkeit der Betroffenen eine CO2-Reduktion zu minimalen Kosten vorzunehmen. Allerdings sind die bisher nicht in das EU-ETS eingebundenen Sektoren für einen beachtlichen Kohlendioxidausstoß verantwortlich. Die EH-RL bietet den einzelnen Mitgliedsstaaten einen gewissen Spielraum bei der nationalen Entscheidung welche Anlagen in das EU-ETS einbezogen werden sollen. Die EU-Kommission kann aber bei allzu eigenwilligen nationalen Entscheidungen eingreifen und ihre Zustimmung verweigern. Für die erste EU-ETS Handelsperiode war es den Mitgliedsstaaten laut Artikel 27 EH-RL möglich, zertifikatpflichtige Anlagen und sogar ganze Branchen von ihrer Teilnahmepflicht zu befreien. Diese sogenannte "Opt-out" Bestimmung war aber nur nach Genehmigung durch die EU-Kommission und bei Erfüllung einer Reihe von Kriterien durchsetzbar. Im Gegensatz zum Opt-out steht die bereits im vorherigen Kapitel erwähnte Opt-in Regelung. Denn zum Recht der Integration der anderen KP-THG und deren Emittenten in das EU-ETS, ab dem Jahr 2008, ist es den Mitgliedsländern bereits ab dem Jahr 2005 auch gestattet, CO2-emittierende Anlagen bzw. Sektoren unter die Anwendung der EH-RL zu stellen, die normalerweise nicht darunter fallen würden. Allerdings müssen für die Durchsetzung der Opt-in Regel einige Kriterien erfüllt sein und die EU-Kommission muss der Ausweitung des EU-ETS zustimmen. Mit der Opt-in Regelung soll den Mitgliedsstaaten ermöglicht werden ihre Emissionsreduktionsziele zu erreichen und Wettbewerbsverzerrungen zu vermeiden. Dem EU-ETS sind aktuell mehr als 10.500 Energie- und Industrieanlagen verpflichtend angeschlossen, die laut Hochrechnung, in etwa 46 Prozent der gesamten EU CO2-Emissionen des Jahres 2010 verursachen. Allerdings ist die Zahl der von der Richtlinie betroffenen Unternehmen niedriger, denn oft gehören mehrere Anlagen zu ein und demselben Unternehmen. Diese Diskrepanz macht die Praktikabilität eines anlagenspezifischen Ansatzes gegenüber einem unternehmensspezifischen Ansatzes beim Emissionshandel deutlich. Denn sollte es bei einem Unternehmen zu organisatorischen Veränderungen, wie beispielsweise zu einer Firmenfusion oder einer Abspaltung von Unternehmensteilen kommen, ist die eindeutige Zuordnung der EUAs nicht beeinträchtigt. Unternehmen ist es dabei gestattet ihre Emissionsrechte beliebig zwischen ihren jeweiligen Anlagen zu transferieren. Durch diesen internen Übertrag wird allerdings der Emissionshandel zwischen den Teilnehmern eingeschränkt bzw. reduziert, was den Markt illiquider macht. Das europäische Emissionshandelssystem funktioniert nach einem zweistufigen Konzept aus "Genehmigung" und "Berechtigung". Das bedeutet, dass sich mit Beginn der ersten Handelsperiode die unter die EH-RL fallenden Anlagenbetreiber, eine Genehmigung für die Emission von Kohlendioxid bei der jeweils zuständigen nationalen Behörde holen müssen. Die Genehmigung wird erteilt, wenn der Anlagenbetreiber sicherstellen kann, seine Emissionen zu überwachen und darüber Bericht zu erstatten. Durch die Genehmigung entsteht dann die Berechtigung zur Emission von Treibhausgasen für die Menge des Emissionsausstoßes des vorherigen Kalenderjahres, eine entsprechende Anzahl von Emissionszertifikaten bis spätestens 30. April zu besitzen und der jeweiligen nationalen Behörde abzugeben. Den Anlagenbetreibern derselben Branche wird durch den Artikel 28 der EH-RL die Möglichkeit eingeräumt, ihre Emissionsberechtigungen in einem gemeinsamen Anlagenfonds durch einen Treuhänder verwalten zu lassen. Dieses Vorgehen wird als "Pooling" bezeichnet. Hierbei erfolgt die Zuteilung der Gesamtmenge der Emissionsberechtigungen an den Treuhänder. Dieser trägt dann aber auch die Verantwortung für die Einhaltung der Emissionsverpflichtungen und gegebenenfalls die Sanktionen bei Verstößen. Durch Pooling können den Anlagenbetreibern Transaktionskostenvorteile und steuerliche Vorteile erwachsen. Allerdings können Anlagenbetreibern durch das Pooling auch Nachteile bei der Gewinn- bzw. Kostenaufteilung entstehen, wenn sie im Verhältnis zu den anderen Poolmitgliedern über- bzw. unterdurchschnittlich viele Emissionsberechtigungen verkaufen könnten bzw. kaufen müssen.
12 páginas.-- et. al ; [EN]: Both gradual and catastrophic events have been involved on the mass extinction events on the planet Earth. Although the greatest mass extinction with currently identified fossil remains was the Great Dying, the greatest of all mass extinctions on planet Earth should have been the Great Oxygenation Event (GOE), assuming that no life was present at the time of the Moon formation. In general, and excluding the unique GOE, the climate changes have been the most common causes of mass extinctions on Earth. A comet or large meteorite may cause mass extinctions not only on land, but also on the oceans. Indeed, a bolide of a few kilometers in diameter may release as much energy as several million nuclear bombs. On the other hand, localized oceanic extinctions may arise from special events like the quasi-periodic climate pattern known as "El Niño" Southern Oscillation (ENSO). Such events may have also a significant impact on terrestrial ecosystems, causing extinctions of plants and animals. Up to five major mass extinctions have been recorded in the last 540 million years, killing an average of 50% or more of all living species at the time of the event. The fossil record suggests that mass extinctions on the planet Earth occur about every 26 million years. This is a very serious matter indeed, because if such hypothesis holds true, it is just a matter of time before the Earth is hit by a huge bolide with catastrophic consequences. It is revealing to note that 99% of all species that ever lived on planet Earth are now extinct. That includes all our hominid ancestors. Besides other considerations and factors, the human activity is significantly disrupting the planet Earth ecosystems. It should be also taken into account that now –for the first time–, the human activity can also cause mass extinctions. In fact, the current rate of species extinctions is shocking; estimated at about 10,000 times the past average as deduced from the fossil record. The conclusion is clear and definitive: our only chance to survive is to colonize the cosmos. On the other hand, we must take care of many possible causes of extinction, but particularly on those derived from the synergistic effects of human activities, in order to take action to prevent the global contamination and warming of the planet Earth. In a practical way, halting and reversing such trends requires significant changes not only in industries in general, but also in human behavior in particular (food wastefulness, unnecessary travel and pleasure tourism, fashion squandering, etc), in order to effectively reduce both the contamination and the emissions of the greenhouse gases. Obviously, that requires a global economic and marketing change. A pacific revolution involving a global social and political agreement is needed. It should be also clear that each and every one of us has the responsibility to take care of our planet Earth. ; [ES]: Tanto acontecimientos graduales como catastróficos han estado implicados a las extinciones masivas en el planeta Tierra. A pesar de que la mayor extinción masiva, según restos fósiles identificados actualmente, fue la Gran Mortandad (del inglés, "Great Dying"), la mayor de todas las extinciones masivas en el planeta Tierra debió haber sido la Gran Oxidación (del inglés, "Great Oxygenation"); también llamada crisis del oxígeno, revolución del oxígeno o catástrofe del oxígeno (suponiendo la no existencia de vida en el momento de la formación de la Luna). En general y excluyendo el suceso de la Gran Oxidación, los cambios climáticos han sido las causas más comunes de extinciones masivas en la Tierra. Un cometa o un gran meteorito pueden causar extinciones masivas, no sólo en la tierra, sino también en los océanos. De hecho, un aerolito de unos pocos kilómetros de diámetro puede liberar tanta energía como varios millones de bombas nucleares. Por otro lado, las extinciones oceánicas localizadas pueden derivarse de sucesos especiales como el patrón climático cuasiperiódico conocido como la Oscilación del Sur de "El Niño" (del inglés, "'El Niño' Southern Oscillation"; ENOS). Estos eventos pueden tener también un impacto significativo en los ecosistemas terrestres, causando la extinción de plantas y animales. Hasta cinco importantes extinciones masivas han sido registradas en los últimos 540 millones años, aniquilando a un promedio del 50% o más de todas las especies vivientes en el momento del evento. El registro fósil sugiere que las extinciones masivas en el planeta Tierra se producen aproximadamente cada 26 millones de años. Se trata, ciertamente, de un asunto muy grave, porque de ser cierta esa hipótesis, es simplemente una cuestión de tiempo que la Tierra pueda ser alcanzada por un enorme aerolito que generaría consecuencias catastróficas. Es interesante tener en cuenta que el 99% de todas las especies que alguna vez vivieron en el planeta Tierra están ahora extintas. Esto incluye a todos nuestros antepasados homínidos. Además de otras consideraciones y factores, la actividad humana está interfiriendo considerablemente en los ecosistemas del planeta Tierra. Debe tenerse también en cuenta que ahora –por primera vez–, la actividad humana puede también causar extinciones masivas. De hecho, la tasa actual de extinción de especies es alarmante; estimada en alrededor de 10.000 veces la media con respecto al pasado, como se deduce del registro fósil. La conclusión es clara y definitiva: nuestra única posibilidad de sobrevivir es colonizar el cosmos. Por otra parte, debemos preocuparnos por muchas posibles causas de extinción, pero sobre todo por aquellas derivadas de los efectos sinérgicos de las actividades humanas, a fin de tomar medidas para prevenir la contaminación y calentamiento global del planeta Tierra. De un modo práctico, detener y revertir esas tendencias requiere importantes cambios no sólo en las industrias en general, sino también en el comportamiento humano en particular (despilfarro de comida, viajes superfluos turismo de placer, derroche en moda, etc.), a fin de reducir eficazmente la contaminación y las emisiones de los gases de efecto invernadero. Indiscutiblemente, esto requiere un cambio global a nivel económico y comercial. Se necesita una revolución pacífica que implique un acuerdo global a nivel social y político. Es también evidente que todos y cada uno de nosotros tenemos la responsabilidad de cuidar de nuestro planeta Tierra. ; Supported by projects 041/C/2007, 75/C/2009 & 56/C/2010 of "Consejería de Agricultura y Pesca, Junta de Andalucía"; "Grupo PAI" AGR-248 of "Junta de Andalucía"; and "Ayuda a Grupos" of "Universidad de Córdoba" (Spain). ; Peer reviewed
I comportamenti nutrizionali stanno assumendo sempre maggiore rilievo all'interno delle politiche comunitarie e questo sottolinea che la dieta sta avendo, negli ultimi anni, una maggiore importanza come fattore di causa e allo stesso tempo prevenzione nella diffusione di malattie croniche come il cancro, malattie cardiovascolari, diabete, osteoporosi e disturbi dentali. Numerosi studi mostrano infatti che i tassi di obesità sono triplicati nelle ultime due decadi e si è stimato che, se i livelli di obesità continueranno a crescere allo stesso tasso del 1990, nel 2010 il numero di persone obese raggiungerà i 150 milioni tra gli adulti e i 15 milioni tra bambini e adolescenti. I governi nazionali stanno quindi cercando di risolvere questo problema, a cui sono inoltre legati alti costi nazionali, tramite l'implementazione di politiche nutrizionali. Analisi di tipo cross-section sono già state evidenziate da studiosi come Schmidhuber e Traill (2006), i quali hanno effettuato un'analisi di convergenza a livello europeo per esaminare la distanza tra le calorie immesse da 426 prodotti diversi. In quest'analisi hanno così dimostrato la presenza di una similarità distinta e crescente tra i paesi europei per quanto riguarda la composizione della dieta. Srinivasan et al. invece hanno osservato la relazione esistente tra ogni singolo prodotto alimentare consumato e le norme nutrizionali dell' Organizzazione Mondiale della Sanità (World Health Organization, WHO) Lo scopo di questa tesi è quello di evidenziare il problema a livello di aggregati nutritivi e di specifiche componenti nutrizionali come zucchero, frutta e verdura e non relativamente ad ogni singolo prodotto consumato. A questo proposito ci si è basati sulla costruzione di un indicatore (Recommendation Compliance Index) in modo da poter misurare le distanze tra la dieta media e le raccomandazioni del WHO. Lo scopo è quindi quello di riuscire a quantificare il fenomeno del peggioramento della dieta in diverse aree del mondo negli ultimi quattro decenni, tramite un'analisi panel, basandosi sui dati sui nutrienti consumati, provenienti dal database della FAO (e precisamente dal dataset Food Balance Sheets – FBS). Nella prima fase si introduce il problema dell'obesità e delle malattie croniche correlate, evidenziando dati statistici in diversi paesi europei e mondiali. Si sottolineano inoltre le diverse azioni dei governi e del WHO, tramite l'attuazione di campagne contro l'obesità e in favore di una vita più salutare e di una maggiore attività fisica. Nella seconda fase si è costruito un indicatore aggregato (Recommendation Compliance Index) in modo da analizzare le caratteristiche nella dieta dei diversi Paesi a livello mondiale rispetto alle norme del WHO. L'indicatore si basa sui dati ottenuti da FAOSTAT ed è calcolato per 149 paesi del database dell'FBS per il periodo 1961-2002. Nell'analisi si sono utilizzati i dati sulle percentuali di energia prodotta dalle varie componenti nutritive, quali grassi, grassi saturi e transaturi, zuccheri, carboidrati, proteine e le quantità di frutta e verdura consumate. Inoltre si è applicato un test statistico per testare se il valore del RCI è significativamente cambiato nel tempo, prendendo in considerazione gruppi di Paesi (Paesi OECD, Paesi in via di sviluppo e sottosviluppati). Si è voluto poi valutare la presenza o meno di un processo di convergenza, applicando l'analisi di σ-convergenza per osservare ad esempio se la variabilità è diminuita nel tempo in modo significativo. Infine si è applicato l'indicatore ad un livello micro, utilizzando il database del National Diet and Nutrition Survey, che raccoglie dati di macrocomponenti nutritive e misure antropometriche della popolazione inglese dai 16 ai 64 anni per il periodo 2000-2001. Si sono quindi effettuate analisi descrittive nonché analisi di correlazione, regressione lineare e ordinale per osservare le relazioni tra l'indicatore, i macronutrienti, il reddito e le misure antropometriche dell' Indice di Massa Corporea (Body Mass Index, BMI) e del rapporto vita-fianchi (Waist-hip ratio, WHR). ; The growing economic relevance of the adverse health effects of poor dietary choices is leading governments of developed and developing countries towards the implementation and calibration of nutrition policies, hence requiring a stronger quantitative basis to policy monitoring and evaluation. Quantitative research on the nutrition-health relationship is being pushed towards considering meal and dietary patterns as opposed to the traditional analysis of food consumption on a product-by-product basis. To this purpose, nationally aggregated data comparable across countries might provide support to monitor the impact of dietary guidelines and to model the health-diet relationship. In this paper we propose an indicator of distance from the WHO recommendations for an healthy diet, based on FAOSTAT time series of energy intakes for 150 countries over the period 1961-2002. Using parametric methods we explore the evolution in diet healthiness evolved over time, with a special focus on disparities and convergence in different World regions. A single aggregated indicator of distance from the key WHO recommendations for a healthy diet is built using FAOSTAT intake data, bounded between 0 (maximum possible distance from goals) and 1 (perfect adherence). Two hypotheses are tested for different country groupings: (a) whether adherence has improved over time; (b) whether cross-country disparities in terms of diet healthiness have decreased. Preliminary results show that on average diets in developed countries are becoming healthier over time, with a reduction in disparities across countries. Such trend is not confirmed in least developed countries, nor disparities seem to reduce over time. The recommendation compliance index (RCI) shows significant improvements in adherence to WHO goals for both developing and especially OECD countries. The latter group of countries show the highest levels of the RCI and the largest increase over time, especially between 1981 and 2002. No improvement is detected for least developed countries. A reduction in disparities (convergence of the RCI) is only observed within the OECD grouping. Diets are so improving and converging in advanced economies, but developing and especially least developed countries are still far from meeting WHO nutrition goals. This confirms findings on the double burden of malnutrition and suggests that economic drivers are more relevant than socio-cultural factors in determining healthiness of diets. Finally, we have applied the same index on the National Diet and Nutrition Survey database, that is about nutrient intakes and anthropometric measures of English people from 16 to 64 years old over the period 2000-2001. We have implemented correlations, linear and ordinal regression analysis to show the relationship among the index, the macronutrients, the income and the anthropometric measures of the Body Mass Index and the Waist-hip ratio.
Inhaltsangabe:Einleitung: Aus dem in der Öffentlichkeit seit Jahren immer intensiver kommunizierten Zusammenhang zwischen dem sich verändernden Klima, dessen Ursachen und Auswirkungen, entsteht die Notwendigkeit, einen Blick in die Zukunft der Immobilienwirtschaft zu werfen. Diese bietet neben dem Umweltschutzaspekt bei der Vermarktung vielfältige Möglichkeiten, die heutigen technischen Systeme und Maßnahmen für alle Beteiligten Vorteil bringend zu nutzen. Ein Großteil der heutigen Nebenkosten bei der Bewirtschaftung von Immobilien entfällt auf den Energiebedarf bzw. -verbrauch. Hier liegen neben den ökologischen Motiven zur Entlastung der Umwelt auch enorme ökonomische Potenziale zur Senkung der Kosten und bei der Vermarktung energetisch optimierter Objekte. Die energetische Optimierung von Gebäuden bzw. die Senkung des Bedarfs an fossilen Brennstoffen können und sollten nicht auf andere Sektoren wie den Verkehr oder die Industrie beschränkt bleiben. Mithilfe einer empirischen Untersuchung über den Kenntnisstand der Thematik energieeffizienten Wohnens sowie die Nachfrage nach entsprechenden Maßnahmen werden die Auswirkungen auf verschiedene Bereiche des Immobilienmarketings aufgezeigt. Des Weiteren stehen das bisherige Verhalten und die grundsätzlichen Einstellungen der Nachfrager, also Käufer und Mieter, auf dem Prüfstand. Von niedrigeren Energiekosten bei der Bewirtschaftung während des Lebenszyklus der Gebäude können - bis auf die Energieversorger - eine Vielzahl der Marktteilnehmer profitieren. Die Branche steht durch die andauernde Diskussion um Ressourcenverwendung und Klimaschutz besonders im Mittelpunkt, da bei der Nutzung von Gebäuden ein Großteil des gesamten Primärenergiebedarfs wie auch der Kohlendioxidemissionen anfällt. Im Zusammenhang mit teilweise gesättigten Märkten und den sich verändernden Ansprüchen der Kunden kommt dem Immobilienmarketing eine immer größere Bedeutung zu. Ziel dieser Arbeit ist es, die Möglichkeiten der Immobilienvermarktung unter Berücksichtigung der bestehenden und zukünftigen technischen Gegebenheiten zur energetischen Optimierung sowie rechtlicher Rahmenbedingungen darzustellen und entsprechende Empfehlungen abzuleiten. Die Grenzen der Arbeit bilden die eigenständigen Themengebiete des Umweltschutzes sowie des ökologischen Bauens, aus denen nur einzelne relevante Aspekte thematisiert werden. Grundsätzlich bezieht sich die Erarbeitung der Thematik auf den deutschen Markt und die deutsche Rechtslage, wobei es unbenommen bleibt, einzelne Aspekte auf andere Regionen anzuwenden. Des Weiteren werden nur wenige generelle Grundlagen des breit gefächerten Bereiches des Marketings behandelt; es erfolgt der praxisnahe Bezug zu wesentlichen Bestandteilen unter dem Gesichtspunkt der energetischen Relevanz von Gebäuden. Gang der Untersuchung: Nachdem im ersten Kapitel die Zielsetzung und die Grenzen der Arbeit dargestellt werden, befasst sich das zweite Kapitel mit den Merkmalen und Bestandteilen der Immobilienwirtschaft. Hierbei stehen besonders die Eigenschaften und Besonderheiten der Branche im Blickfeld, die sie von anderen Märkten und Wirtschaftszweigen unterscheidet. Es erfolgt neben elementaren Begriffserläuterungen eine Einordnung sowie Klassifizierung der Immobilien und verbundener Dienstleistungen. Weiterhin werden die Teilnehmer und Partner dieses Marktes vorgestellt. Kapitel drei befasst sich mit den Möglichkeiten zur Energieoptimierung in der Branche. Es werden neben den notwendigen Fachbegriffen auch die technischen Maßnahmen erläutert und überdies die rechtlichen Aspekte angesprochen. Bei letztgenannten sind einerseits staatliche Regelungen zu beachten, andererseits gehen von bestehenden Förderprogrammen mögliche Anreizwirkungen für die Branche aus. Auf mögliche Risiken bei der Umsetzung wird am Ende des Kapitels verwiesen. Der Aufbau, die Durchführung und Auswertung einer von mir durchgeführten Befragung von Käufern und Mietern von Wohneinheiten ist Bestandteil des vierten Kapitels. Inhaltlich nimmt sie Bezug auf den Kenntnisstand und das Nachfrageverhalten der Probanden zu der Thematik energieeffizienten Wohnens. Dabei werden die einzelnen Ergebnisse im Hauptteil zusammengefasst dargestellt und generelle Aussagen getroffen. Im Anlagenteil findet der Leser die Gesamtheit der grafisch aufbereiteten Untersuchungsergebnisse. Nachfolgend wird im fünften Abschnitt das bis dahin Dargelegte auf das Marketing der Immobilienwirtschaft angewandt. Hierbei wird in konsequenter Form zwischen den strategischen und operativen Bereichen des Marketings unterschieden. Dabei werden individuelle Empfehlungen für die Beteiligten der Branche aufgezeigt, die Vermarktung energieeffizienter Immobilien und verbundener Dienstleistungen gewinnbringend in ihr Marketing einzubeziehen. Den Abschluss der Arbeit bildet ein zusammenfassender Ausblick in die Zukunft der Branche.Inhaltsverzeichnis:Inhaltsverzeichnis: AbkürzungsverzeichnisIII AbbildungsverzeichnisV TabellenverzeichnisV 1.Einleitung1 1.1Zielsetzung und Abgrenzung der Arbeit1 1.2Aufbau der Arbeit2 2.Einführung in die Immobilienbranche3 2.1Eigenschaften der Immobilienwirtschaft3 2.1.1Physischer, wirtschaftlicher und juristischer Immobilienbegriff3 2.1.2Immobilienwirtschaftliche Tätigkeitsfelder und Marktteilnehmer6 2.1.3Anschlussmärkte der Immobilienwirtschaft und Akteure8 2.1.4Klassifizierung von Immobilien8 2.1.5Einflussfaktoren auf die Nachfrage und Wettbewerbssituation9 2.1.6Besonderheiten der Immobilienbranche12 2.2Marketing der Immobilienbranche14 2.2.1Immobilienmarketingbegriff14 2.2.2Dimensionen des Immobilienmarketings15 3.Energieeffizienzbetrachtung und Umsetzungsmöglichkeiten16 3.1Begriff, Wesen und Einordnung der Energiekosten16 3.2Entwicklung der Energiekosten und Kaltmieten16 3.3Energieeffizienzbegriff18 3.4Immobilienlebenszyklus18 3.4.1Begriff und Phasen18 3.4.2Lebensdauerdimensionen und Länge19 3.4.3Aufwand-Ertrags-Kurve während der Lebenszyklusphasen20 3.5Ausgewählte bau- und systemtechnische Details21 3.5.1Ziel der energetischen Optimierung21 3.5.2Maßnahmen zur energetischen Optimierung21 3.5.2.1Photovoltaik21 3.5.2.2Thermische Solarkollektoren23 3.5.2.3Wärmepumpenanlagen und oberflächennahe Geothermie24 3.5.2.4Wärmerückgewinnung in raumlufttechnischen Anlagen26 3.5.2.5Wärmedämmung durch Baustoffe und separate Dämmstoffe26 3.5.2.6Moderne Heizungstechnik28 3.5.2.7Kraft-Wärme-Kälte-Kopplung30 3.5.2.8Brennstoffzelle32 3.5.3Integrierte Gebäudekonzepte32 3.5.3.1Atrien und Pufferzonen32 3.5.3.2Luftkonditionierung über Erdwärmetauscher33 3.5.3.3Fassadengestaltung34 3.5.3.4Raumlufttechnik und freie Kühlung35 3.6Energieausweis für Gebäude36 3.6.1Begriff36 3.6.2Rechtliche Grundlage in der EU37 3.6.3Rechtliche Grundlage in Deutschland38 3.6.4Wesentliche Inhalte des Ausweises39 3.6.5Umsetzung in Deutschland41 3.6.6Vorteile und Nachteile des Ausweises43 3.7Staatliche Förderung energieeffizienter Investitionen44 3.8Rentabilität und Risiko von Energiesparinvestitionen46 4.Marktuntersuchung49 4.1Methodischer Teil49 4.2Auswertung Mieterbefragung50 4.3Auswertung Käuferbefragung56 5.Auswirkungen auf das Immobilienmarketing und Handlungsempfehlungen60 5.1Interessenheterogenität der Marktteilnehmer bei der Vermarktung60 5.2Auswirkung auf das strategische Immobilienmarketing62 5.2.1Marktsegmentierung63 5.2.2Zielgruppenbildung65 5.3Auswirkung auf das operative Immobilienmarketing67 5.3.1Bauträger, Projektentwickler und Bestandseigentümer68 5.3.2Makler und Vermittler76 5.3.3Verwaltungen ohne eigenen Bestand77 5.4Umsetzung eines Niedrigenergiehauses in Berlin-Lichtenberg78 5.4.1Angaben zum Objekt und technische Umsetzung78 5.4.2Kosten und Finanzierung81 5.4.3Ziele und Vermarktung82 5.5Weitere Umsetzungsalternativen84 5.6Umsetzung im Nichtwohnbereich85 5.6.1Energieeffizienz im Lebensmittelhandel85 5.6.2Stadionumbau und Energieeffizienz86 5.7Energieeffizienz als Marketinginstrument87 6.Fazit88 Quellenverzeichnis90 AnlagenverzeichnisA1Textprobe:Textprobe: Kapitel 3.7, Staatliche Förderung energieeffizienter Investitionen: Für die Kreditanstalt für Wiederaufbau (KfW) hat sich die Förderung von Energieeinsparungen und Minderung des CO2-Ausstoßes in den vergangenen 15 Jahren zu einem eigenständigen Geschäftsfeld entwickelt. Hauptgrund war vor allem nach der Wiedervereinigung der modernisierungsbedürftige bauliche Zustand der Gebäude in den neuen Bundesländern. Aber auch in Verbindung mit den europaweiten Klimaschutzzielen und der Ausbreitung der regenerativen Energietechniken wird sich die Bedeutung dieser Förderungen noch weiter erhöhen. Allein von 1990 bis 2005 vergab die KfW für rund 2,2 Mio. Wohnungen Kredite in Höhe von 34 Mrd. Euro, wobei allein die Hälfte davon auf oft baufällige Objekte in den neuen Bundesländern entfiel. Sechs verschiedene Säulen bilden die Gesamtheit der KfW-Förderung. Grundsätzlich besteht bei allen Programmen die Förderung in der Gewährung zinsgünstiger Darlehen. Im KfW-CO2-Gebäudesanierungsprogramm wird die energetische Investition in Bestandswohngebäude gefördert. Das seit 2001 existierende Programm von KfW und Bund fördert dabei Investitionen in Wohnungsbestandsbauten, die vor 1984 errichtet wurden. Inhaltlich geht es um die Verminderung des CO2-Ausstoßes. Um den Verwaltungs- und Antragsaufwand zu reduzieren, wurden Maßnahmenpakete aus einer Kombination von Einzelmaßnahmen (Wärmedämmung, Fensteraustausch, Heizungsmodernisierung, Nutzung erneuerbarer Energien etc.) erstellt, die als förderfähig gelten. Jedoch sind auch andere, nicht festgelegte Maßnahmen, die eine Einsparung von CO2 bewirken grundsätzlich förderfähig. Der jährliche Minderausstoß von mind. 40 kg je Quadratmeter Nutzfläche ist in diesem Fall durch einen Sachverständigen nachzuweisen. Neben den Zinsvergünstigungen besteht die Option der Gewährung von Zuschüssen bei Erreichung gewisser Energiebedarfswerte. Diese liegen bei 10 Prozent der maximal förderfähigen Kosten für EnEV Neubauniveau und 17,5 Prozent bei Unterschreitung des EnEV-Neubauenergiebedarfs um mind. 30 Prozent. Genutzt wird das Programm zum großen Teil durch private Eigentümer. Das KfW-eigene Programm Wohnraum Modernisieren fördert unabhängig vom Baujahr des Gebäudes einzelne Modernisierungs- und Instandsetzungsmaßnahmen (STANDARD-Maßnahmen) für Wohngebäude. Für die Umsetzung von energieeffizienten Maßnahmen (ÖKO-PLUS-Maßnahmen) zur Energieeinsparung und CO2-Minderung werden Boni gewährt. Die Zinssätze liegen über denen des CO2-Gebäudesanierungsprogramms, wobei die Zinsen für die STANDARD-Maßnahmen über den ÖKO-PLUS-Maßnahmen liegen. Analog zum ersten Programm wird auch diese Fördermöglichkeit verstärkt durch Privatleute nachgefragt. Das KfW-Programm Ökologisch Bauen fördert die Zielerreichung der bereits genannten Aspekte CO2-Reduzierung und Energieeinsparung im Neubaubereich. Hierbei soll bei der Errichtung von Energiesparhäusern 40 und 60 sowie Passivhäusern die Verbreitung neuer Technologien erreicht werden. Die Zinssätze werden beim Energiesparhaus 40 und dem Passivhaus zusätzlich zur Verbilligung durch die KfW auch noch durch den Bund subventioniert. Der Anteil der Privatleute, die diese Möglichkeit in Anspruch nehmen, liegt noch höher als bei den ersten beiden Programmen. Durch die seit dem 01.02.2006 gestartete Förderinitiative Wohnen, Umwelt, Wachstum haben der Bund und die KfW die Fördermittel nochmals drastisch erhöht. In den Jahren 2006 bis 2009 sollen allein durch den Bund von den jährlich veranschlagten 1,4 Mrd. Euro zur energetischen Verbesserung von Gebäuden jeweils 1 Mrd. Euro in die Förderprogramme der KfW fließen. Besondere Anreizwirkung für Investitionen soll vom auf einen Prozent fixierten Effektivzins für das CO2-Gebäudesanierungsprogramm sowie für den Bereich der Energiesparhäuser 40 und Passivhäuser ausgehen. In den Jahren 1990 bis 2005 konnte der jährliche Ausstoß von CO2 durch die von der KfW geförderten Investitionen um ca. 10 Mio. t reduziert werden. Das entspricht ca. 8 % des Ausstoßes von 1990. Für die Jahre 2005 bis 2010 werden in den ersten beiden Programmen weitere Senkungen von jährlich bis zu 2,5 Mio. t erwartet. Für Investitionen von Gewerbetreibenden und Freiberuflern in Neubauten oder den Bestand (Nichtwohngebäude) steht das ERP-Umwelt- und Energiesparprogramm zur Verfügung. Berlin und die neuen Bundesländer profitieren hierbei von einem Förderungshöchstbetrag von 1 Mio. Euro (alte BL: 500.000 Euro), der im Einzelfall auch überschritten werden kann. Die Zinsfestlegung erfolgt unter Bonitätsprüfung des Kreditnehmers und Berücksichtigung der gestellten Sicherheiten. Das KfW-Umweltprogramm dient der Möglichkeit der Ergänzungsfinanzierung aus Krediten des vorgenannten Programms. Mit dem Anfang 2005 ins Leben gerufenen KfW-Programm Solarstrom Erzeugen wird die Ausbreitung von Photovoltaik-Anlagen gefördert. Im Jahr 2005 wurden deutschlandweit 17.650 Kredite mit einem Volumen von 550 Mio. Euro vergeben. Die erzeugte Leistung von 139 Megawatt kann den jährlichen Strombedarf von über 30.000 Haushalten umweltschonend mit Sonnenenergie decken. Neben der Möglichkeit der Nutzung zinsgünstiger Darlehen können Eigennutzer zukünftig Handwerkerkosten für Effizienzmaßnahmen von bis zu 3.000 Euro jährlich zu 20 Prozent als direkt abzugsfähige Kosten steuerlich geltend machen. Die steuerliche Förderung beinhaltet jedoch lediglich die Lohnkosten des Handwerkers. Der Bund stellt hierfür ein Jahresbudget von 275 Mio. Euro zur Verfügung. Das KfW-Programm zur Förderung erneuerbarer Energien stellt ein Anreizprogramm dar und wird aus den Mitteln der ökologischen Steuerreform gespeist. Inhaltlich wird vor allem die Verbreitung von Biomasse-, Biogas- und Geothermieanlagen gefördert. Aufgrund des Umfangs der Anlagen wird das Programm nahezu vollständig von gewerblichen Marktteilnehmern und Kommunen nachgefragt. Neben den deutschlandweit erhältlichen Fördermöglichkeiten bestehen weiterhin regionale Angebote einzelner Kommunen oder Gemeinden.
La investigación cuyos resultados presentamos estudia el papel de los medios de comunicación con la mayor audiencia, las dos cadenas nacionales de televisión, en el proceso de debate social por la transformación del sistema político mexicano. Parte de analizar la valoración que desde los medios de comunicación se hace del principio electivo de la representación proporcional para conocer el papel que estos juicios desempeñan en la disputa por el poder del Estado en el México de hoy. Se centra en el escrutinio de la función de la proporcionalidad en la integración de la Cámara de Diputados, órgano de la representación popular a nivel nacional, en las críticas que al respecto se reiteran de manera constante desde esos medios, y en las relaciones que en torno a la posible eliminación de este mecanismo, como base de la transformación del sistema político en su conjunto, las televisoras establecen con otros actores políticos. En su primera parte se presenta la conceptualización de la investigación cuyos resultados se reportan, desde sus antecedentes fenoménicos hasta la definición de los procedimientos de obtención y análisis de información sobre el objeto de estudio. En el capítulo 1 presentamos una exposición del estudio a partir de distintos fenómenos percibidos en la realidad social de México y del interés académico en explicar los cambios en la valoración ciudadana de la representación proporcional. En el capítulo 2 exponemos las bases teóricas del análisis. Partimos de la concepción general de bloque histórico de Gramsci, identificando las relaciones principales que de este concepto resultan pertinentes para el estudio desarrollado, a fin de interpretar desde esa perspectiva la información construida desde lo empírico con la aproximación antropológica de la descripción densa propuesta por Clifford Geertz. El capítulo 3 expone los procedimientos metodológicos que se llevaron a cabo durante la investigación. Proponemos, en un primer momento, analizar, valorar y definir los elementos argumentativa y políticamente nodales de las expresiones mediáticas en contra de la representación proporcional. En un segundo momento, planteamos llevar a cabo una interpretación exegética de los textos constitucionales que definen la forma de elegir a los representantes populares a nivel nacional, los integrantes de la Cámara de Diputados, que permita encontrar los criterios axiológicos que guían el desarrollo de estos textos en el tiempo. El Tercer momento de la investigación es un análisis numérico de los resultados de todas las elecciones de diputados federales desarrolladas desde la reforma de 1996, construyendo datos que indique cómo los votos emitidos se traducen específicamente en escaños y el efecto que esta distribución tiene en el peso electivo del voto de cada ciudadano en relación con otros. Finalmente, planteamos los términos de un análisis de las implicaciones funcionales de la propuesta contra la representación proporcional hecha por los medios para la sociedad en su conjunto, así como para actores políticos clave. Finalmente, se presentan las hipótesis que se pretende comprobar y los procedimientos técnicos y metodológicos que se utilizaron en el estudio. La segunda parte del texto presenta, en el capítulo 4, el análisis de los juicios recurrentes sobre la representación proporcional que reproducen las televisoras, se valora el consenso social del que gozan esos criterios y se definen dos de ellos como ejes del estudio general de la investigación. En la tercera parte se desarrolla el análisis de la totalidad de los textos constitucionales que en la historia de México han definido los procedimientos de elección de la Cámara de Diputados, en dos etapas. El capítulo 5 atiende una primera etapa, en la que el mecanismo único de elección fue el de mayoría relativa, en tanto que en el capítulo 6 se expone lo correspondiente al período de conformación plural de la representación nacional. Se busca en cada caso desentrañar la valoración que se hace en relación a cuánto debe pesar el voto de cada ciudadano en relación con el de otros en el sistema electoral y se propone una interpretación del desarrollo de este criterio axiológico a lo largo del tiempo. Esta interpretación incluye la concepción de que el referido criterio ha encontrado condiciones de insuficiencia que en distintos momentos específicos han llevado a la reforma de los procedimientos de elección tendentes a ampliar la representatividad de los electos y el papel de los ciudadanos entre elección y elección. La cuarta parte del texto presenta los resultados de la medición del peso electivo del voto del ciudadano a partir de los resultados de las siete últimas elecciones federales, comparando el efecto orgánico de representación de los ciudadanos que votaron por candidatos uninominales que ganaron, frente al de aquellos que no lo hicieron. En cada caso, se incluye una simulación con los resultados reales de la elección bajo el supuesto de reducción del número de diputados de representación proporcional de 200 a 100. El capítulo 7 expone este análisis para los procesos desarrollados bajo el último gobierno del PRI antes de perder la Presidencia de la República (1997 y 2000), en el capítulo 8 se desarrolla este mismo proceso para las elecciones llevadas a cabo durante gobiernos panistas (2006, 2009 y 2012) y el capítulo 9 lo hace para el de 2015, llevado a cabo nuevamente bajo un gobierno priísta. De este análisis resultan cifras relevantes sobre el número de ciudadanos que representan los electos por cada una de las vías constitucionales -uninominal y plurinominal- la proporción de representantes que cada uno de los dos segmentos de electores determina en la Cámara, y la proporción en que el voto de cada ciudadano pesa en esa determinación según si votó por candidatos vencedores o no. En la quinta parte, capítulo 10, realizamos un análisis de los resultados obtenidos, en términos de sus implicaciones en la disputa por espacios de poder político tras concluir el régimen de partido de Estado. Proponemos una explicación de los vínculos que la convergencia en torno a la propuesta de reducción de plurinominales produce entre el PRI y los principales medios, y de los extremos políticos buscados por ellos, contrastándolos con sus efectos generales en el sistema político. Finalmente, ofrecemos las conclusiones del estudio, referencias bibliográficas y de material documental consultado y presentamos anexos con documentos relevantes para el objeto de estudio. La investigación cuyos resultados presentamos estudia el papel de los medios de comunicación con la mayor audiencia, las dos cadenas nacionales de televisión, en el proceso de debate social por la transformación del sistema político mexicano. Para tal efecto, analizamos la valoración social y mediática de los diputados electos por representación proporcional como elemento crítico capaz de revelar distintas concepciones sobre la forma como los ciudadanos acceden y deben acceder a los órganos del poder público, y los criterios axiológicos en que se fundan. En el presente capítulo identificaremos y definiremos el objeto de estudio de nuestra investigación, las interrogantes que sus características despiertan y las hipótesis con las que damos respuesta tentativa a las mismas. Objeto de estudio. Durante el cuarto de siglo que va de 1976 a 2000, el sistema político mexicano registró cambios de gran calado. Una primera apreciación empírica permitiría afirmar que esa etapa marcó el paso de una condición en que el Partido Revolucionario Institucional (PRI) no perdía elecciones a otra en la que podía perder, y de hecho perdía, todo tipo de éstas. Así se evidenció en el proceso federal de ese último año, cuando sufrió la primera derrota de su larga historia en una contienda presidencial. Este significativo hecho es una de las más claras evidencias de una transformación estructural en el sistema, transformación que algunos analistas (entre ellos Woldemberg, 2004, p. p. 193-7 y Cardamone y Salazar, 2010, p. p. 10-25) identifican con la transición democrática . Dentro de esta etapa tuvo lugar un activo proceso de cambio en las normas constitutivas de los congresos mexicanos, e incluso la creación de una nueva cámara de representantes, la Asamblea Legislativa del Distrito Federal. En este ciclo de reformas electorales, que abarcó casi dos décadas, entre 1977 y 1996, la forma de integración del Congreso de la Unión, y dentro de él de la Cámara de Diputados, sufrió cambios sucesivos, elevando gradualmente el nivel de proporcionalidad en su integración. El proceso llevó, como analizamos detalladamente más adelante, al establecimiento de un componente de representación proporcional de 200 diputados en la constitución de esta cámara, y al establecimiento de un límite de 8% a la sobre-representación posible de los partidos políticos. En los años posteriores a la alternancia, sin embargo, ha sido fácilmente perceptible un creciente malestar social frente al sistema electivo de representación proporcional. Éste se expresa en distintos niveles, que van desde manifestaciones personales y privadas, hasta las opiniones de los locutores más vistos de la televisión e iniciativas de ley de los últimos dos presidentes de la república. Es cierto que el desprestigio de la política, los políticos y sus instituciones no es un fenómeno particular de México, como tampoco lo es que sean los legisladores el pináculo del descrédito. En el mismo sentido, no resulta sorprendente que este descontento entre en la dinámica de los medios de comunicación, que lo verbalizan, reproducen y recrean. Sin embargo, es claramente perceptible una focalización de este malestar en los electos por el sistema de representación proporcional y una abierta oposición al sistema mismo, que se registra constantemente en los medios de comunicación. La generalidad de éstos la reproduce, enfatizándola y promoviéndola en distintas medidas, hasta alcanzar la abierta militancia política en su contra. En el culmen de esta actitud, en 2010, Pedro Ferriz de Con, a la sazón presentador de un popular noticiero radial, inició una colecta de firmas electrónicas para solicitar al Congreso la desaparición de la elección por representación proporcional. La propuesta fue en efecto entregada a la Cámara de Diputados en abril del siguiente año, a través de su presidente, el diputado Jorge Carlos Ramíez Marín, electo precisamente por esta vía (Sánchez, 2011). En su propuesta, Ferriz afirma: No queremos ya más diputados y senadores escogidos por sus propios partidos y no por la sociedad. [.] Si en otro tiempo se incrementó el tamaño del Congreso para dar espacio a corrientes políticas que no tenían acceso por la vía del voto, hoy ese tiempo está rebasado y la sociedad dispuesta a reconocerlas, adoptarlas o rechazarlas. El argumento central, es que los electos por representantes proporcional no son votados, sino escogidos por sus partidos, y en tal sentido se interpreta su inclusión en el Congreso, que considera anacrónica. Si bien el activismo de este locutor, no siendo único, está lejos de ser la norma entre los comunicadores, los argumentos que esgrime son comunes a otros opositores de la representación proporcional. Tal es el caso de la televisora con mayor audiencia, Televisa, que en sus noticieros y programas de opinión difunde estas opiniones, y donde incluso, el término "plurinominal" es utilizado como descalificación en contra de uno u otro político. Presentamos un ejemplo de esto. El programa más importante de opinión política de esta empresa fue, hasta diciembre de 2014, Tercer grado , que se desarrolla en una mesa panel integrada por presentadores de noticias de la propia cadena, con una sola excepción. En 2009, en torno a la elección del Presidente Nacional del Partido Acción Nacional (PAN), se suscitó un conflicto entre grupos internos. Éstos se encontraban identificados, de manera gruesa, con el ex-presidente Vicente Fox, uno de ello, y, el otro con el entonces presidente Felipe Calderón. El primero de estos grupos fue duramente criticado por Carlos Loret de Mola, conductor del informativo matutino Primero Noticias , quien, como argumento de cierre, afirmó (Televisa, 2009): Y además, por si fuera poco, éstos que llegan a la hora de la derrota del PAN, a recoger las migajas y a tratar de reconstruir el partido, no tienen una elección personal uninominal, salvo una, Humberto Aguilar. Todos los demás, sistemáticamente han perdido elecciones. Ellos. ¿Por qué son legisladores? Bueno, porque entran por la vía plurinominal. Todos son un grupo de pluris. Cuando se está discutiendo si debe seguir la vía plurinominal, bueno, ojalá no la quiten, porque entonces este grupo de notables desaparecería de la vida política. A lo que, Carlos Marín, director de la empresa Milenio , asociada con Televisa, añadió: Veo a un grupo de seis o siete notables, que se ve que lo que tienen no es un proyecto político, una idea de democracia, una voluntad de ganar elecciones, porque, como bien recuerdas, son más bien perdedores [.] ( ibid. ). Opiniones con el mismo contenido se encuentran también en la prensa. En su columna en el periódico Excélsior, uno de los de mayor circulación en el país, Francisco Martín Moreno (2010) afirmaba: La ciudadanía exige la segunda vuelta electoral, el plebiscito, el referéndum, la cancelación inmediata de los plurinominales, la reforma del Estado, la reducción del número de diputados y senadores [.]. Los ejemplos de este tipo son inagotables y se encuentran en todo tipo de medios de comunicación. Y si bien son esgrimidos con distintos grados de beligerancia, coinciden en sus argumentos centrales, salvo casos excepcionales. En cuanto al fondo de las críticas, éstas abarcan un amplio espectro de consideraciones, de distinta profundidad, que van desde los razonamientos políticos sobre la necesidad de que el sistema electoral produzca mayorías legislativas, hasta la expresión de argumentos valorativos y afirmaciones fácticas de distinta naturaleza. Dentro de estos últimos merece un comentario inicial la afirmación de que a los candidatos de representación proporcional no se les vota, sino que son designados por sus partidos. Esta noción se encuentra socialmente muy difundida y deriva, sin duda, de las modificaciones legales que en 1987 llevaron a utilizar una sola boleta para votar en simultáneo por diputados de mayoría relativa y de representación proporcional. Este mecanismo vino a sustituir al usado desde 1979, en que existía boleta para cada elección (Código Federal Electoral, 1986, art. 244). A partir de esta reforma, que tuvo vigencia por primera vez en las elecciones federales de 1988, la boleta exhibiría los nombres de los candidatos uninominales, junto con los emblemas de los partidos postulantes, en el anverso, en tanto que las listas de candidatos de representación proporcional irían impresas al reverso ( Ibid. ). Este mecanismo reforzaría la dinámica natural de las campañas electorales de centrarse en las contiendas uninominales, hasta hacer desaparecer del escenario las candidaturas plurinominales. Esto no significa que realmente se ignore, al menos entre el público informado, que las listas son votadas y que el acceso de los candidatos depende del porcentaje de votación obtenido por los partidos. Esto puede apreciarse con claridad en el comentario sobre los plurinominales de Calos Loret de Mola ( loc. cit. ). En ella pareciera que se ignora que los plurinominales acceden a sus posiciones en virtud de recibir votos, especialmente cuando se afirma que el grupo de políticos del que se habla son "plurinominales" y por ende "perdedores". Sin embargo, el propio comentarista especifica que los aludidos "no tienen una elección personal uninominal [subrayado nuestro] ", de donde se infiere que si tienen otro tipo de elección, la plurinominal, pese a lo cual se les identifica con la derrota. La intervención de Carlos Loret De Mola resulta particularmente reveladora de la decisión selectiva de los medios. Como cualquier espectador informado, Loret conoce el mecanismo de la elección por listas, pero opta por no hablar de él, dando paso al prejuicio de que la vía proporcional no es votada. Más allá de los medios, entre los actores políticos el tema se ha debatido intensamente, y cada vez más forma parte de los ofrecimientos de campaña de algunos partidos, destacadamente del PRI y del PAN. Tanto Felipe Calderón como Enrique Peña Nieto favorecieron públicamente la reducción de diputados plurinominales antes de ocupar la Presidencia de la República y su posición se mantuvo una vez alcanzado este cargo. Calderón, como diputado a la LVIII Legislatura, protagonizó un intenso debate sobre el tema (Cámara de Diputados, 2002, p. p. 206-36). Posteriormente, en 2009, reflejó su postura en una iniciativa de reforma constitucional presentada al Congreso, en la que propuso reducir de 200 a 160 el número de diputados de representación proporcional y de 300 a 240 el de uninominales (Calderón, 2009). Por su parte, Peña Nieto, hizo la propuesta de reducir de 200 a 100 los diputados electos por representación proporcional, enarbolándola como su Tercer compromiso de campaña (Peña, 2012). Ya como presidente electo, la presentó al Congreso en calidad de iniciativa, a través de los diputados del PRI (Cámara de Diputados, 2012). En la reforma política de 2014, presumiblemente la de mayor alcance de su gobierno, la propuesta no fue aprobada. Al debatir sobre la representación proporcional y revelar, explícita o implícitamente, lo forma como cada actor concibe que la pluralidad electoral debe traducirse en candidatos concretos, electos regularmente, se hace manifiesta también la concepción sobre la debida estructura de los órganos del poder político en México, y los fundamentos axiológicos que sustentan distintas formas de acceso y participación de la ciudadanía en esas instituciones. Las opciones de transformación del sistema político mexicano que se encuentran en debate representan, por definición, cambios en la forma y relevancia con la que los distintos actores sociales se integran a su estructura. Es decir, al debatir sobre distintas opciones de sistema político, se debate también el peso y importancia de cada actor social y sus intereses en el funcionamiento del mismo; y esto incluye tanto a la clase política como a los poderes fácticos, entre ellos, las televisoras. Y el peso que en el parlamento tenga la proporcionalidad es, como se verá a lo largo del texto, un factor crítico en las condiciones de acceso al poder del Estado de, entre otros actores sociales, las televisoras y el capital. Hipótesis. La investigación que se reporta partió de las siguientes hipótesis: 1. Las televisoras favorecen el cambio hacia un sistema político en el que dispongan de mayor capacidad de decisión en los espacios del poder público. 1.1 Se pretende que el sistema político genere mayorías legislativas a partir de minorías electorales, aumentando el peso relativo de los medios y del dinero en los procesos electorales y, consecuentemente, en los espacios del poder público. 1.2 El desprestigio social de la representación proporcional es una condición subjetiva crítica de la consolidación de un sistema político que genere mayorías legislativas a partir de minorías electorales locales. 2. La valoración predominante de la representación proporcional en el sistema electoral que los medios de comunicación hacen no se corresponde con el estado actual de desarrollo del criterio axiológico de igualdad del peso electivo del voto del ciudadano en México. 2.1 Los criterios axiológicos sobre el peso electivo del voto del ciudadano que revela la valoración predominante de los medios de comunicación hacia la representación proporcional son consistentes con etapas históricas anteriores a la actual. 2.2 La valoración predominante de la representación proporcional en el sistema electoral mexicano que los medios de comunicación hacen no se corresponde con la representatividad cuantitativa fáctica de los diputados plurinominales. 2.2.1 La vía de la representación proporcional sigue cumpliendo hoy la función de dar acceso la representación nacional a un número significativo de ciudadanos que no pueden tenerlo a través de las mayorías electorales distritales. 2.2.2 La propuesta de eliminación de plurinominales promovida desde los medios de comunicación es consistente con la concentración del poder del Estado en minorías territorialmente consolidadas. 2.2.3 El éxito de la propuesta de eliminación o reducción de los diputados electos a través de listas plurinominales generaría exclusiones sociales disfuncionales para un régimen democrático. En adelante expondremos el marco teórico y conceptual, así como los procedimientos metodológicos utilizados en el desarrollo del estudio.
Dottorato di ricerca in Diritto dei contratti pubblici e privati ; La persistente inefficienza nell'utilizzo delle risorse umane nel settore del lavoro pubblico impone l'attenzione sul come la pubblica amministrazione stia tentando di rispondere alle nuove complesse problematiche poste a livello nazionale, internazionale e globale. In un mercato del lavoro in rapido sviluppo il settore del lavoro pubblico mostra una scarsa dinamicità ed una certa resistenza ad accettare soluzioni innovative. Si parla da molto tempo della necessità di innovare il rapporto di lavoro nel settore pubblico "privatizzato" e la pubblica amministrazione in generale, ma solo da ultimo il lavoro alle dipendenze delle pubbliche amministrazioni ha conosciuto uno stimolo all'uso dei fattori premiali e flessibili grazie all'introduzione della valutazione della performance. Innovare attraverso lo strumento della flessibilità contrattuale nel settore del lavoro pubblico significa raggiungere l'obiettivo dell'efficienza. Per questo bisogna indagare se il problema della mancata efficienza sia di carattere giuridico "contrattuale" o le ragioni vadano indagate anche rispetto ad una complessità progettuale che tenga conto della cultura e dei processi sociali. L'indagine, in questa sede, è finalizzata allo studio dell'adattabilità delle tipologie contrattuali di lavoro flessibile, utilizzabili per l'organizzazione e la gestione del personale nelle pubbliche amministrazioni. L'uso di tali tipologie è divenuto, combinato con la necessità di produttività ed efficienza, fondamentale per la politica di sviluppo delle pubbliche amministrazioni, ma soprattutto indispensabile per l'attuazione delle politiche di contenimento della spesa, (così dette di spending review), per il personale che, in modo particolare a partire dalla fine degli anni novanta, ha raggiunto un livello rilevante. Ciò ha generato una serie di provvedimenti limitativi tendenti a bloccare le nuove assunzioni nel tentativo di raggiungere nello stesso momento un contenimento dei costi ed una riduzione del personale ritenuto, non sempre a ragione, eccedente il fabbisogno, il tutto, ovviamente nel tentativo di incrementare l'efficienza dei servizi erogati. Per tipologie contrattuali flessibili di lavoro si intendono tutte quelle che differiscono dal contratto di lavoro subordinato a tempo pieno ed indeterminato, disciplinato dall'art. 2094 cod. civ. e definito contratto di lavoro standard. Partendo dalle linee guida tracciate dalla legge n. 15 del 4 marzo 2009, di riforma del pubblico impiego, sono state analizzate le misure che disciplinano le modalità attraverso le quali le pubbliche amministrazioni possono avvalersi delle tipologie contrattuali di lavoro flessibile. Per meglio inquadrare l'attuale riforma del lavoro nel settore pubblico privatizzato (in questo studio indicata come Terza Riforma) è necessaria la ricostruzione storica della disciplina normativa del rapporto di lavoro nelle pubbliche amministrazioni, prendendo le mosse in un'ottica efficientistica e passando attraverso l'evoluzione dei modelli contrattuali che l'hanno caratterizzata, partendo dal modello unilaterale e autoritativo fino ad arrivare al modello contrattuale pattizio e paritario. Attraverso questa ricostruzione è possibile individuare i principi fondamentali, quali l'efficienza dell'organizzazione delle pubbliche amministrazioni, l'intangibilità dell'organizzazione e del potere datoriale e la relativa responsabilità dirigenziale, la specialità dell'accesso agli uffici pubblici (anche in attuazione del principio costituzionale di uguaglianza contenuto nell'art. 3 e dell'imposizione della stessa Costituzione all'art. 97, co. 3, del concorso pubblico, salvo i casi di deroga stabiliti dalla legge, quale forma di reclutamento a garanzia dell'imparzialità della pubblica amministrazione), che sono il presupposto essenziale posto alla base del possibile utilizzo per le pubbliche amministrazioni sia dei contratti di lavoro standard sia dei contratti di lavoro flessibile. L'uso dei contratti di lavoro flessibile rappresenta uno strumento idoneo, quando inserito tra i vari strumenti ed obiettivi primari delle pubbliche amministrazioni, a garantire la migliore organizzazione degli uffici se finalizzato a perseguire il buon andamento della pubblica amministrazione, così come previsto dall'art. 97 della Costituzione. Grazie ad un opportuno utilizzo delle risorse umane diviene possibile raggiungere anche l'ulteriore obiettivo, primario per le pubbliche amministrazioni, del controllo delle risorse finanziarie. Una conoscenza approfondita della gestione delle risorse umane (dipendenti con contratto di lavoro standard e non) ed una attenta analisi del contesto di riferimento possono favorire una efficiente razionalizzazione delle risorse, non solo in merito all'organizzazione degli uffici e del lavoro, ma anche sul piano politico, economico e sociale, piani con cui fino ad oggi si è dovuto scontrare il datore di lavoro pubblico nell'uso delle tipologie contrattuali di lavoro flessibile inserite nella gestione del personale e delle risorse delle pubbliche amministrazioni. Non a caso l'art. 36 del decreto legislativo n. 165 del 2001, Testo Unico del Pubblico Impiego, ed in particolare il comma 3, così come da ultimo modificato dall'art. 17, comma 26, del decreto legge n. 78 del 2009, ha evidenziato che un sistema che preveda l'uso delle predette tipologie contrattuali come strumento di gestione per le pubbliche amministrazioni deve essere finalizzato a combattere gli abusi derivanti dal suo uso distorto. L'abuso e l'uso distorto delle tipologie contrattuali flessibili ha dato vita ad un intenso precariato, sanato ciclicamente dalle norme dette di "stabilizzazione" (norme che sono state oggetto di valutazione di legittimità costituzionale). Attraverso una attenta analisi dell'attuale contenuto dell'art. 36 del d.lgs. n. 165 del 2001 è possibile individuare, tenendo a mente la disciplina che regola il rapporto di lavoro nel settore privato, da una parte gli aspetti critici dell'impianto regolativo che consentono di verificare la distanza tracciata tra le discipline che permettono l'uso delle tipologie contrattuali di lavoro flessibile da applicarsi al datore di lavoro privato con quelle riservate al datore di lavoro pubblico, e dall'altra individuare quanto sia ancora presente nel rapporto di lavoro alle dipendenze delle pubbliche amministrazioni del modello unilaterale ed autoritativo che caratterizzava il rapporto di pubblico impiego prima della privatizzazione del rapporto di lavoro. Partendo dalla prima versione contenuta nel decreto legislativo n. 29 del 1993, dei primi due commi del citato art. 36, è possibile individuare il campo di applicazione dei rapporti giuridici derivanti dalla stipulazione dei contratti di lavoro flessibile ivi elencati. Sono così messe in risalto le diversità esistenti tra la disciplina prevista per i rapporti di lavoro alle dipendenze del privato datore di lavoro e la disciplina prevista per il pubblico impiego privatizzato. Grazie alla comparazione tra il contenuto delle norme che disciplinano ciascuna tipologia contrattuale flessibile inclusa nel contenuto dell'art. 36 d.lgs. n. 165/2001 ed il suo valore precettivo è stato possibile verificare la specialità che caratterizza il rapporto di lavoro nelle pubbliche amministrazioni e l'uso delle tipologie contrattuali flessibili. Il rinvio inserito nel secondo comma dell'art. 36 del d.lgs. n. 165/2001 al contenuto dei contratti collettivi nazionali di lavoro, che hanno il compito di disciplinare la materia dei contratti di lavoro a tempo determinato, dei contratti di formazione e lavoro, degli altri rapporti formativi e della somministrazione di lavoro, del lavoro accessorio e dei lavoratori socialmente utili, mette in luce la possibilità per l'autonomia collettiva di regolare ed integrare i singoli schemi contrattuali, realizzando, se così fosse, lo schema del modello contrattuale pattizio, ed evidenziando, in realtà, il limite costituito dall'essere circoscritta alla sola individuazione dei contingenti di personale da utilizzare. Una piccola parte dell'indagine è dedicata al lavoro a tempo parziale ed agli incarichi dirigenziali del personale inquadrato con contratto standard che, seppur inseriti nel contesto del rapporto a tempo indeterminato, sono anch'essi espressione di flessibilità del lavoro nelle pubbliche amministrazioni considerati nell'ottica efficientistica dell'organizzazione amministrativa. Gli incarichi di collaborazione coordinata e continuativa e gli incarichi dirigenziali a tempo determinato conferiti a dipendenti sia interni sia esterni all'amministrazione che pubblica il bando presentano degli aspetti critici che hanno avuto spazio per un breve sviluppo. L'analisi del comma 5, dell'art. 36 del d.lgs. n. 165/2001, ha permesso di sviluppare il tema della violazione delle disposizioni imperative; ipotesi che nel passato ha trovato scarsa applicazione ma oggi, grazie alla recente versione introdotta dalla legge n. 102 del 2009, ribadisce, con più forza, la misura disciplinare che prevede il recupero nei confronti dei responsabili dirigenti inosservanti delle somme erogate dall'Amministrazione per l'impiego di lavoratori assunti con contratti di lavoro flessibile illegittimi. Interessante, considerata l'abrogazione della conciliazione obbligatoria in materia lavoro, anche per gli esigui risultati ottenuti, risulta la possibile applicazione al settore pubblico privatizzato delle forme irrituali di deflazione del contenzioso quali l'arbitrato e la conciliazione alla luce delle recenti innovazioni introdotte con la legge n. 183 del 2010, cd. Collegato Lavoro e dalla disciplina emanata, da ultimo, in materia di mediazione con il D.Lgs. n. 28 del 2010 e il D.M. n. 180 del 2010, così come modificato ed integrato dal D.M. n. 145 del 2011. Ulteriori considerazioni giungono dalla previsione obbligatoria, per tutte le amministrazioni, di redigere ogni anno un rapporto informativo da trasmettere ai nuclei di valutazione nonché alla Presidenza del Consiglio dei Ministri sulle tipologie di lavoro flessibile utilizzate relativamente alla quantità numerica ed alla spesa relativa per tipologia. Tale rapporto informativo è uno strumento avente duplice finalità: la prima è quella di permettere di individuare il dirigente responsabile dell'irregolare utilizzo delle tipologie contrattuali non standard, attraverso la verifica degli atti gestionali posti in essere; la seconda si avvale della possibilità, offerta da una rapida conoscenza del fenomeno, di adottare misure mirate a migliorare sia l'aspetto normativo, sia quello organizzativo che di controllo della gestione delle risorse umane e finanziarie. Aspetti che rilevano la necessità di insediare in maniera efficace la cultura della buona amministrazione della cosa pubblica. Questa linea di condotta rappresenta la migliore politica per realizzare i principi di trasparenza ed imparzialità propri delle pubbliche amministrazioni. Principi idonei ad evitare che l'uso dei contratti di lavoro non standard degenerino in forme di precariato o realizzino una alternativa modalità di accesso ai ruoli professionali delle pubbliche amministrazioni, elusiva, grazie al collaudato ricorso a norme che introducono le procedure di stabilizzazione, dei previsti concorsi pubblici di accesso all'impiego pubblico per contratti di lavoro a tempo indeterminato. Alla luce dei recentissimi interventi normativi e giurisprudenziali, merita una trattazione il "caso" rappresentato dai rapporti di lavoro flessibili utilizzati dal Ministero della Pubblica istruzione, sia per il personale docente sia per il personale amministrativo definito ATA. Prendendo spunto dai testi normativi (legge n. 124 del 1999 e D.P.R. n. 430 del 2000), la ricerca ha evidenziato alcuni aspetti critici rispetto all'applicabilità della direttiva comunitaria in tema di contratti a termine. Nelle conclusioni vengono messi in luce i caratteri del modello contrattuale neo-autoritatio, attualmente utilizzato, nella Terza Riforma, dalle pubbliche amministrazioni. Ulteriori considerazioni finali sono orientate ad indagare gli effetti che la imminente riforma del mercato del lavoro, attualmente in discussione in Parlamento, avrà anche nel settore pubblico "privatizzato" ed in particolar modo quali novità introdurrà rispetto all'uso delle tipologie contrattuali di lavoro flessibile; e quali di queste saranno sviluppate nel tentativo di fornire una soluzione circa l'opportunità che la pubblica amministrazione utilizzi - ancora una volta - uno schema negoziale previsto nel settore privato ma "riadattato" alle esigenze di specialità, insite nel rapporto di lavoro del settore pubblico, comunque insuperabili. ; The persistent inefficiency in human resources management in the public sector draws our attention on how the public administration is currently trying to face the new, complex issues raised on a national, international and global level. In a fast-developing labour market, the public sector is showing a scarce dynamism and a certain resistance to accepting innovative solutions. The discussion about the need to innovate the "privatised" working relationship and the public administration in general has been going on for quite some time; still, only recently performance evaluation has been introduced for "privatised" jobs within public administrations. Contractual flexibility in the public sector is an innovation that typically equals to more efficiency. That is why it seems necessary to us to investigate the reasons behind the lack of efficiency: is it only due to contractual issues or are there more complex causes, linked to cultural and social processes? Our study aims to investigate the adaptability of flexible employment contracts – that could be used to handle the organisation and management of personnel in public administrations – within the neo-authoritative contract model's framework. The use of these types of contracts, together with the need for improved productivity and efficiency, has become fundamental to the development policy of public administrations. It is also essential for the implementation of cost containment policies - the so-called spending review – for the personnel who, starting from the late 1990s, reached high levels in the organization. Control measures have been previously taken: aiming at improving the efficiency of the services provided, by containing costs and reducing personnel – wrongly deemed redundant –, new employments were blocked. By flexible employment contracts we mean all those types of contracts which are different from a full-time, permanent contract of employment, disciplined by the Article 2094 of the Italian civil code and defined as standard employment contract. Starting from the guidelines outlined in law n.15 of 4th March 2009 – which reformed public employment – we analyse the measures which discipline the way public administrations can avail themselves of flexible work contracts. To better understand the third reform of labour in the privatised public sector, it is necessary to examine the historical reconstruction of the normative discipline that regulates the working relationship within the public administrations: starting from the assumption of performance improvement, through the evolution of contract types which characterised it, from the unilateral and authoritative model to the pactional and equal one. Thanks to this reconstruction it is possible to identify the fundamental principles which are the basis of a possible use, by public administrations, of both standard employment contracts and flexible ones. This principles are "the efficiency of public administrations' organizations", "the intangibility of the organization, of the employer's power and its relative managerial responsibility", "the access to public offices" (relating to the application of the constitutional principle of equality, included in art.3, and to the imposition with the art.97 co.3 of the Constitution of public competitive examinations as the hiring method, except for dispensations stated by the law, in order to guarantee the public administration's impartiality). When included among the several instruments and primary objectives of public administrations, the use of flexible employment contracts represents a suitable tool to guarantee an improved organization of the offices, especially if it is aimed at pursuing the overall public administration's good performance (according to art.97 of the Constitution). Thanks to an appropriate management of human resources, it also becomes possible to reach a further target of primary importance for public administrations: the control of financial resources. An in-depth knowledge of human resources management (be them either employed through a standard contract or a flexible one), combined with a detailed analysis of the relevant context could support an efficient rationalisation of resources, not only on an organizational level but also on a political, economical and social one. The latter ones being so far the most complicated to deal with when managers tried to use flexible types of contracts within public administrations. It is not a coincidence that art. 36 of legislative decree n.165 of 2001 (Testo Unico per il Pubblico Impiego) and especially paragraph 3, eventually modified by art. 17 paragraph 6 of legislative decree n.78 of 2009, highlights that a system which foresees the use of the above-mentioned types of contracts as a management instrument for public administrations must be aiming at fighting the abuse deriving from its own distorted use. The abuse and distorted use of flexible employment contracts generated a large number of temporary employees, who are being cyclically helped by the so-called "stabilization norms" (norms which themselves have been under scrutiny for their legal validity). Through a detailed analysis of article 36 of legislative decree n.165 of 2001, and bearing in mind the norms that regulate the working relationship within the private sector, it is possible to pinpoint all the critical aspects of the legislative apparatus, thus verifying the separation between disciplines which allow the application of flexible employment contracts by private employers and public ones. This analysis also shows that the "unilateral and authoritative model", which regulated the working relationship within public administration before its privatisation, is still very much applied in that context. Starting from the first revision of the first two paragraphs of the already mentioned article 36, included in legislative decree n.29 of 1993, we can determine the field of application of legal relationships deriving from the stipulation of flexible employment contracts here listed. All the discrepancies between the discipline that regulates the working relationship with a private employer and the one with a privatised public administration are easily highlighted. By comparing the contents of the norms which regulate every single type of flexible contract, included in article 36 of legislative decree n. 165/2001, and its perceptive value, it is possible to verify the specification that characterizes the working relationship within public administrations and how flexible contracts are there applied. The cross-reference - included in the second paragraph of article 36 of legislative decree n. 165/2001 - to the content of the National collective labour agreements, which regulate temporary contracts, "paid apprenticeships" (contratti di formazione e lavoro), other vocational training and supply contracts (altri rapporti formativi e somministrazione del lavoro), ancillary casual labour (lavoro accessorio) and socially useful workers (lavoratori socialmente utili), highlights the possibility for the "collective autonomy" to regulate and integrate single contractual schemes thus realizing the scheme of the pactional contract model and at the same time emphasizing its limit in indicating only the categories of employees to whom that can be applied. A small part of this analysis is dedicated to part-time jobs and managerial assignments for personnel employed through standard contracts which, although falling under the category of permanent jobs, are nevertheless an expression of a certain labour flexibility within public administration on the basis of improved performance and administrative organization. The analysis of article 36, paragraph 5 of the legislative degree n. 165/2001 develops the topic of violation of imperative provisions: rarely applied in the past, a new revision has been re introduced with law n. 102/2009 and now strongly reasserts the application of disciplinary measures against non compliant managers in order to recover funds used to hire employees through illegal types of flexible contracts. Further considerations come from the mandatory requirement, for all public administrations, to present every year to their relevant evaluation board and to the Presidenza del Consiglio dei Ministri an informative report on all the types of flexible employment contracts applied in relation to the number of personnel and the relevant expenditure per type. This informative report has a double purpose: on one side it allows the board to easily locate the manager responsible for misusing non-standard contract types, by checking the managerial decisions taken; on the other side - and on a more general level - it offers the opportunity to adopt measures aimed at improving the legislative and organizational management of human resources and finances. As if to say, it is essential to effectively promote a culture that encourages a good management of the res publica. This trend represents, in our opinion, the best strategy to fulfill the principles of transparency and impartiality peculiar to public administrations. These principles will help avoiding that the implementation of non-standard employment contracts either degenerates into new forms of temporary employment or creates a new, elusive method to access professional jobs within public administrations thanks to the proven resort to the so-called "stabilization norms" and public competitive examinations for permanent positions. In light of the recent regulatory and jurisprudential interventions, we will separately analyze the case of flexible employment contracts applied by the Ministry of Education both for teachers and administrative personnel (called ATA). Starting from law n.124/1999 and D.P.R. n.430/2000, this section highlights the relationship between school employees and the applicability of the EU directive concerning temporary contracts. In the conclusions, we will describe the main characteristics of the neo-authoritative contract model, now used in public administrations. Further final reflections consider the effects that the imminent reform of the labour market, currently being discussed in Parliament, will produce also in the privatised public sector and especially what innovations will introduce in the flexible contractual typologies, in the attempt to provide a solution about whether or not the public administration should or could once again use a contractual scheme different from the one implemented in the private sector.
Los chicos y chicas aprenden a interaccionar y comunicarse con sus iguales a partir de las relaciones interpersonales que mantienen en la escuela. Relaciones que pueden verse enturbiadas o alteradas por situaciones de desequilibrio y abuso entre los iguales que llegan a afectar a su propio desarrollo psicosocial. El acoso escolar es un fenómeno que quebranta la convivencia positiva entre los escolares que ha llamado la atención de las familias, profesores, políticos, investigadores y de la sociedad en general durante las últimas décadas. El acoso escolar puede definirse como una agresión intencional y repetida en el tiempo que uno o más individuos hacen sobre otro igual (Olweus, 1993). Entre víctima y agresor se establece un desequilibrio de poder sostenido del que la víctima se encuentra indefensa y sin posibilidades de parar la situación de abuso (Ortega-Ruiz, 2010). La intencionalidad de la agresión refleja que esta conducta puede ser una estrategia instrumental para el logro o mantenimiento del estatus y del dominio social (Hawley, 1999; Pouwels et al., 2018). El acoso escolar también se caracteriza por su naturaleza inmoral, pues atenta contra los valores de respeto y afecto hacia los demás (Ortega & Mora-Merchán, 1996). Este tipo de violencia entre iguales viola los principios éticos y fomenta la injusticia, el desprecio, la coacción y la soledad. A través del desarrollo de la tecnología y el acceso a Internet, el ciberacoso ha emergido como una nueva forma de acoso. El ciberacoso se define como un comportamiento agresivo intencionado y repetido en el tiempo mediante dispositivos digitales a cargo de uno o varios individuos contra alguien que no puede protegerse (Campbell & Bauman, 2018). Si bien el ciberacoso comparte características del acoso escolar, es necesario matizar algunas distinciones (Smith, 2016). En el ciberespacio la repetición en el tiempo está vinculada con la posibilidad de que una sola conducta de agresión puntual puede multiplicarse en la red, más que con la repetición de la conducta por parte del agresor (Olweus & Limber, 2018). El hecho de quedar almacenada y ser accesible hace que pueda ser reenviada por terceras personas. En el ciberacoso el desequilibrio de poder se vincula con el dominio de las habilidades tecnológicas (Kowalski et al., 2014), así como con el anonimato, que facilita la deshibibición de la agresión, además de dificultar su identificación (Nickerson et al., 2018). Si bien la intencionalidad en el cara a cara tiene por objetivo dañar a la víctima, en el ciberespacio la reducida comunicación hace que el daño causado no sea directamente percibido por el agresor. Además, la accesibilidad permanente hace que la víctima sea vulnerable 24/7 (24 horas los 7 días de la semana), lo cual puede agudizar sus consecuencias psicosociales (DePaolis & Williford, 2019). Numerosos programas de prevención e intervención han emergido para tratar de reducir la implicación de los escolares en acoso escolar y ciberacoso. No obstante, la investigación psicoevolutiva respalda la necesidad de continuar profundizando en los mecanismos que explican por qué algunos escolares se implican en conductas de agresión. A través de la presente tesis se desarrollan tres estudios independientes—aunque relacionados entre sí—con la finalidad de contribuir al avance científico que permita comprender cómo diferentes variables de naturaleza individual y grupal se vinculan con la implicación de los escolares en acoso escolar y ciberacoso. En el primer estudio se analiza la relación entre la desconexión moral, la necesidad de popularidad y el acoso escolar en los escolares. Vinculado con la naturaleza inmoral de la agresión, uno de los factores asociados con la implicación de los escolares en el acoso escolar es la desconexión moral, entendida como el conjunto de estrategias cognitivas que permiten eludir las emociones asociadas al incumplimiento de las normas morales interiorizadas (Bandura, 2002). A través de la desconexión moral los escolares pueden desactivar selectivamente su proceso de autorregulación y llegar a considerar que la agresión puede ser legítima. La desconexión moral se ha analizado como un factor de riesgo en la agresión del acoso escolar principalmente de forma transversal (véase meta-análisis; Gini et al., 2014; Killer et al., 2019). Un menor número de estudios longitudinales han evidenciado cómo aquellos escolares con mayor desconexión moral se involucran posteriormente en la agresión entre iguales (Bjärehed et al., 2021; Falla et al., 2020, 2021; Georgiou et al., 2021; Teng et al., 2019, 2020; Wang et al., 2017). Sin embargo, no existen resultados concluyentes que permitan afirmar que el acoso escolar puede predecir la desconexión moral (Georgiou et al., 2021; Teng et al., 2019; Visconti et al., 2015; Wang et al., 2017). La relación longitudinal entre desconexión moral y acoso escolar se ha analizado teniendo en cuenta que este mecanismo cognitivo es una característica estable del individuo (Thornberg et al., 2021). No obstante, aún se necesitan estudios que aborden la desconexión moral como un estado o un proceso que puede cambiar y derivar o ser el resultado de un aumento o disminución de la implicación en acoso escolar a corto plazo. El acoso escolar, además de ser definido como un fenómeno inmoral también se caracteriza por su marcado carácter social pues surge y se mantiene en el seno del grupo de los iguales. En ese sentido, se ha demostrado que la popularidad tiene una gran influencia en las conductas de los escolares. La popularidad otorga a los chicos y chicas el acceso a los recursos del grupo (visibilidad, prestigio y atención), lo que les permite tener cierto dominio social. Estos beneficios posibilitan que muchos de ellos desempeñen conductas destinadas a ser reconocido como popular, movidos precisamente por lo que se denomina necesidad de popularidad (Santor et al., 2000). En algunos casos, la agresión se convierte en una estrategia efectiva para acceder a ese deseado estado de dominio e influencia sobre los demás (Malamut et al., 2020). La necesidad de popularidad se ha reconocido como un factor de riesgo del acoso escolar (Caravita & Cillessen, 2012; Duffy et al., 2017; Garandeau & Lansu, 2019; Romera et al., 2017; Sijtsema et al., 2009) e incluso, en menor medida, se ha considerado como un resultado del acoso escolar (Dumas et al., 2019; Malamut et al., 2020). Aunque la necesidad de popularidad y la desconexión moral no se han vinculado previamente, determinadas perspectivas teóricas apuntan a una posible asociación entre motivación y moralidad. En la desconexión moral, las motivaciones personales constituyen un elemento clave en la desactivación selectiva de las estrategias de autorregulación de la conducta social. En base a ello, las motivaciones de naturaleza egoísta, como puede ser la necesidad de ser popular, pueden determinar el juicio moral de los escolares (Thomas, 2021). La necesidad de popularidad se ha analizado en estudios previos como un rasgo estable a lo largo del tiempo (Dawes & Xie, 2017). No obstante, se necesitan estudios longitudinales que aborden la necesidad de popularidad como un estado, es decir, como una característica que puede variar a corto plazo y que puede influir o ser influenciada por un aumento o disminución del acoso escolar y la desconexión moral (McDonald & Asher, 2018). ; Boys and girls learn to interact and communicate with their peers from the interpersonal relationships they maintain at school. These relationships can be disturbed or altered by situations of imbalance and abuse among peers, which can affect their psychosocial development. Bullying is a phenomenon that interrupts the positive convivencia among schoolchildren and has attracted the attention of families, teachers, politicians, researchers, and society in general during the last decades. Bullying can be defined as intentional and repeated aggression over time that one or more individuals carry out against another peer (Olweus, 1993). A sustained imbalance of power is established between victim and aggressor, in which the victim is defenseless and cannot put an end to the situation of abuse (Ortega-Ruiz, 2010). The intentionality of the aggression shows that this behavior can be an instrumental strategy to achieve or maintain social status and dominance (Hawley, 1999; Pouwels et al., 2018). Bullying is also characterized by its immoral nature, as it violates the values of respect and affection for others (Ortega & Mora-Merchán, 1996). This type of peer violence violates ethical principles and fosters injustice, contempt, coercion, and loneliness. Through the development of technology and Internet access, cyberbullying has emerged as a new form of bullying. Cyberbullying is defined as aggressive behavior, intentional and repeated over time through digital devices by one or more individuals against someone who cannot protect themselves (Campbell & Bauman, 2018). Although cyberbullying shares bullying characteristics, some distinctions need to be qualified (Smith, 2016). In cyberspace, repetition over time is linked to the possibility that a single behavior of punctual aggression can multiply in the network, rather than the repetition of the behavior by the aggressor (Olweus & Limber, 2018). The fact that it is stored and accessible means that it can be forwarded by third parties. In cyberbullying, the imbalance of power is linked to the mastery of technological skills (Kowalski et al., 2014), as well as anonymity, which facilitates the disinhibition of aggression, also making it difficult to identify the bully (Nickerson et al., 2018). Whereas face-to-face intentionality aims to harm the victim, in cyberspace, reduced communication means that the damage caused is not directly perceived by the bully. Further, permanent accessibility makes the victim vulnerable 24/7 (24 hours a day, 7 days a week), which can exacerbate the psychosocial consequences (DePaolis & Williford, 2019). Numerous prevention and intervention programs have emerged to try to reduce the involvement of schoolchildren in bullying and cyberbullying. However, psychodevelopmental research supports the need to continue delving into the mechanisms that explain why some schoolchildren engage in aggressive behaviors. Through this thesis, three independent—albeit related—studies are performed, to contribute to the scientific advance that allows to understand how different variables of a motivational, moral, emotional, and cognitive nature are linked to schoolchildren's engagement in bullying and cyberbullying. The first study analyzes the relationship between moral disengagement, the need for popularity, and bullying perpetration in schoolchildren. Linked to the immoral nature of aggression, one of the factors associated with schoolchildren's involvement in bullying is moral disengagement, understood as the set of cognitive strategies that allow avoiding the emotions associated with the breach of internalized moral norms (Bandura, 2002). Through moral disengagement, schoolchildren can selectively deactivate their self-regulation process and come to consider aggression as legitimate. Moral disengagement has been analyzed mainly transversally as a risk factor in aggression in school bullying (see meta-analyses; Gini et al., 2014; Killer et al., 2019). A smaller number of longitudinal studies have shown how schoolchildren with greater moral disengagement subsequently engage in peer aggression (Bjärehed et al., 2021; Falla et al., 2020, 2021; Georgiou et al., 2021; Teng et al., 2019, 2020; Wang et al., 2017). However, there are no conclusive results that allow to affirm that bullying can predict moral disengagement (Georgiou et al., 2021; Teng et al., 2019; Thornberg, Wänström, Pozzoli, et al., 2019; Visconti et al., 2015; Wang et al., 2017). The longitudinal relationship between moral disengagement and bullying has been analyzed considering that this cognitive mechanism is a stable characteristic of the individual (Thornberg et al., 2021). However, studies are still needed that address moral disengagement as a state or process that can change and derive from or be the result of an increase or decrease in involvement in bullying in the short term. Bullying, in addition to being defined as an immoral phenomenon, is also characterized by its marked social nature because it arises and is maintained within the peer group. In that sense, it has been shown that popularity greatly influences schoolchildren's behaviors. Popularity gives boys and girls access to the group's resources (visibility, prestige, and attention), which allows them to have some social dominance. These benefits allow many of them to perform behaviors that are considered popular, driven precisely by the so-called need for popularity (Santor et al., 2000). In some cases, bullying becomes an effective strategy to access that coveted state of dominance and influence over others (Malamut et al., 2020). The need for popularity has been recognized as a risk factor for bullying (Caravita & Cillessen, 2012; Duffy et al., 2017; Garandeau & Lansu, 2019; Romera et al., 2017; Sijtsema et al., 2009) and, to a lesser extent, it has even been considered an outcome of bullying (Dumas et al., 2019; Malamut et al., 2020). Although the need for popularity and moral disengagement have not been previously linked, certain theoretical perspectives point to a possible association between motivation and morality. In moral disengagement, personal motivations constitute a key element in the selective deactivation of the self-regulatory strategies of social behavior. In this sense, selfish motivations, like the need to be popular, can determine schoolchildren's moral judgment (Thomas, 2021). The need for popularity has been analyzed in previous studies as a stable trait over time (Dawes & Xie, 2017). Nonetheless, longitudinal studies are needed that address the need for popularity as a state, that is, a characteristic that may vary in the short term and that may influence or be influenced by an increase or decrease in bullying and moral disengagement (McDonald & Asher, 2018).
En el actual panorama académico, donde escasean las auténticas polémicas, acaba de iniciarse una sobre la Guerra Fría Latinoamericana que nos obliga a revisar los aciertos y límites de ese nuevo campo de estudios. En marzo de 2019 el historiador Gilbert Joseph, expresidente de la red estadounidense más importante de historia latinoamericana, la Latin American Studies Association (LASA), publicó en la revista inglesa Cold War History, órgano de la London School of Economics, un balance historiográfico titulado "Border crossings and the remaking of Latin American Cold War Studies". Tres números después, la revista publicó la respuesta polémica del joven historiador chileno Marcelo Casals. Su cuestionamiento del balance de Joseph se tituló "Which borders have not yet been crossed? A supplement to Gilbert Joseph's historiographical balance of the Latin American Cold War". A ello Joseph respondió en el mismo número con "The continuing challenge of border crossing: a response to Marcelo Casals' commentary".1 Tres piezas polémicas que avivan la discusión sobre las condiciones sociohistóricas de la emergencia de esa historia mundial que refiere Marx en la cita del epígrafe. Desde 1945 y durante más de cuatro décadas, la disputa entre los Estados Unidos y la Unión Soviética por la hegemonía militar, económica, política y cultural dio lugar a lo que lo que se conoce como Guerra Fría, alcanzando también al continente latinoamericano. Joseph, en el balance que dispara la polémica, revisa la producción historiográfica de las últimas dos décadas para detectar los problemas y conceptos que permitieron avanzar en el conocimiento de la "Guerra Fría en América Latina". Los expertos en relaciones internacionales venían ocupándose del modo en que las dos superpotencias proyectaron sobre América Latina y el resto del "Tercer Mundo" la confrontación que mantenían entre sí. Como subraya Joseph, la actual producción no deja dudas de las limitaciones de ese enfoque ceñido a las políticas exteriores de la Unión Soviética y de los Estados Unidos. Las nuevas reconstrucciones y análisis impiden reducir la historia de la Guerra Fría en nuestro continente al estudio de "una playa cubana". El fecundo intercambio de ideas que se viene desarrollando entre los estudiosos de las relaciones internacionales y las ciencias sociales permite identificar una "larga" Guerra Fría Latinoamericana, en la que el conflicto entre las superpotencias operó incluso sobre procesos endógenos latinoamericanos, iniciados incluso a comienzos de siglo XX. Asimismo, los cruces entre académicos/as del "Norte global" y del "Sur global" ha dado lugar a innovadores estudios transnacionales que lograron, por ejemplo, precisar la injerencia estadounidense durante 1973 en la destrucción de la democracia chilena y que iluminaron el rol de actores estatales y no estatales en los genocidios perpetrados desde la década del setenta en Guatemala y otros países latinoamericanos. Entre las "fronteras a cruzar" por el emergente campo de estudios se encontraría una mayor indagación de las instancias ideológicas, especialmente del rol de los expertos e intermediarios culturales. Casals responde a ese balance reconociéndole a Joseph su distancia con los estudios provenientes de las relaciones internacionales que borraban la agencia de los sujetos latinoamericanos, al punto de reducirlos a meras piezas de ajedrez en el juego de las superpotencias. Coincidiendo con Joseph, la historiografía sobre la Guerra Fría logró renovarse tanto por su atención a los flujos multidireccionales en la circulación transnacional de ideas y recursos como por la superposición de estos flujos con los avances y retrocesos de las lógicas imperialistas hacia América Latina. Pero Casals también advierte en el balance de Joseph una reformulada persistencia de ese borramiento de la agencia latinoamericana. Un repaso de la bibliografía que compone el balance de Joseph arroja el siguiente porcentaje: de las 264 obras citadas, el 92% fue publicado en inglés mientras que sólo el 8% apareció en español y no se consigna ninguna obra en portugués. A ello Casals contrapone la sólida base de investigaciones en español que "complementa, complica y a veces desdibuja el consenso explícito e implícito sobre el cual avanza la historiografía de la Guerra Fría". En primer lugar, los estudios chilenos, uruguayos y argentinos sobre la historia de la cultura de izquierdas y la recepción de sus ideas durante el siglo XIX y XX (como los de Olga Ulianova, Sergio Grez, Gerardo Leibner y Horacio Tarcus) ofrecerían potentes ejemplos de la conformación de actores políticos en la intersección entre recepción de la dinámica global y adaptación a las luchas locales. En segundo lugar, las investigaciones sobre las izquierdas, los populismos y las derechas (como las de Rodrigo Patto Sa Motta, Ernesto Bohoslavvsky, Joao Fabio Bertonha, Sthépane Boisard y Ernesto Semán) permitirían identificar otras relaciones y múltiples "zonas de contacto" que matizarían la centralidad de la diputa con los Estados Unidos, o que incluso invertirían la relación de influencia entre los actores latinoamericanos y los europeos, africanos y asiáticos. En tercer término, los estudios sobre historia reciente, aunque centrados en experiencias políticas locales y sin enmarcarse necesariamente en la Guerra Fría o en el protagonismo de los Estados Unidos, contribuyen al análisis de los procesos populistas y de la radicalización político-ideológica extendida a nivel continental. Finalmente, el balance de Joseph omite un libro que sí recupera la amplia bibliografía en español y algo de la editada en portugués y que, según Casals, ofrece una perspectiva distante a la del estadounidense, la Historia mínima de la Guerra Fría en América Latina del italiano Vanni Pettinà, editada en 2018 por el Colegio de México. Pettinà propone que en la Guerra Fría Latinoamericana fue decisiva la intersección de dos rupturas producidas entre 1946 y 1948. Mientras que la "ruptura externa" implicó que los Estados Unidos reordenaran el sistema internacional interamericano con el objetivo de inscribirlo en la batalla anticomunista, la "ruptura interna" afectó a las políticas industrialistas y estatistas latinoamericanas en beneficio de los sectores conservadores de cada país. Los estudios de la Guerra Fría Latinoamericana se encontrarían ante el desafío de precisar, por un lado, el modo en que esas dos rupturas se inscribieron en las situaciones locales y, por otro, el ritmo que imprimieron a los procesos de cambio político, social y cultural. En suma, la referencia a Pettinà y especialmente a numerosas obras editadas en Sudamérica le permite a Casals concluir que si los centros anglófonos dejaran de una vez de ignorar la investigación latinoamericana calificada, sería posible levantar esa clásica barrera lingüística —y sociocultural— que viene obstaculizando el "diálogo intelectual franco" en un nivel de igualdad. En la tercera pieza de la polémica, Joseph revisa las críticas de Casals para proponer que, en realidad, se trata de cuestiones abordadas. En efecto, su balance no realizaría una impugnable selección idiomática, sino que atendería únicamente a las "obras de alto perfil" que marcarían una tendencia por apoyarse en nuevos archivos, renovar las preguntas y ofrecer análisis transnacionales. A la "cuota idiomática" reclamada por Casals, responde Joseph que varias de las obras citadas provienen de autores latinoamericanos que vienen participando de reuniones académicas realizadas en Estados Unidos, Europa o América Latina y que decidieron publicar sus investigaciones en inglés y en revistas del "Norte global" frente al viejo problema de la carencia de un campo editorial en español. Es más, no habría que obsesionarse con una supuesta "narrativa hemisférica hegemónica", ya que la mayoría de los jóvenes investigadores incluidos en el balance reconocería los problemas que formula Casals. El historiador estadounidense intenta acordar con el historiador chileno, pero sus omisiones bibliográficas y los efectos en las relaciones académicas siguen allí. A distancia de los estudios de los flujos multidireccionales de la historia global, el reconocimiento de los historiadores latinoamericanos es unidireccional: la única dirección para lograr ese reconocimiento señalaría a los nuevos espacios del LASA. Y ello es confirmado cuando se revisan los tres volúmenes de The Cambridge History of the Cold War, aparecidos en 2010 bajo la coordinación de Odd Arne Westad —a quien Pettinà retoma en el citado libro— y Melvyn P. Leffler. No cabe duda, por un lado, de que es fundamental la apertura y mantenimiento de un espacio de discusión como el LASA para construir un campo con investigaciones de alto perfil y, por el otro, de que las vastas desigualdades globales en el acceso a los recursos académicos ofrecen una convincente explicación de la ubicación estadounidense de ese espacio. Pero reducir las investigaciones de ese tipo a las que circulan —en inglés— en ese espacio implica un escaso reconocimiento a los latinoamericanos, escasez en la que la perspectiva decolonial encontraría una prueba del colonialismo desde el que el Norte viene imponiéndole al Sur su producción y circulación de saber, entre otros órdenes. Ello nos conduce a la cuestión con que quisiéramos cerrar estas reflexiones. No se trata sólo de ampliar la bibliografía, sino sobre todo de revisar la narrativa que subyace al balance de Joseph para buscar una mayor historización en el estudio del amplio continente latinoamericano. En ese sentido, al registro de "un único proceso con una cronología unificada y definida para toda la región", la historiadora argentina Marina Franco y la italiana Benedetta Calandra, en La guerra fría cultural en América Latina (Buenos Aires, Biblos, 2012), contraponen la posibilidad de diversas cronologías operantes en distintas regiones. A la circulación latinoamericana del esquema bipolar de la Guerra Fría, el historiador uruguayo Eduardo Rey Tristán, en su colaboración en aquel libro y en otros trabajos, suma la vitalidad que adquirió el esquema bipolar cuando, articulado con el panamericanismo, el antiimperialismo y otras matrices ideológicas previas, dio lugar a una peculiar Guerra Fría Cultural en América Latina. A la presión de las superpotencias sobre la cultura y los intelectuales latinoamericanos, Karina Jannello y Vania Markarian agregan el análisis de la autonomía desde la que intelectuales de distintos países latinoamericanos decidieron incorporarse al Congreso por la Libertad de la Cultura y a otras redes financiadas por la CIA o por los soviéticos.2 Finalmente, a la supuesta omnipresencia de la Guerra Fría en los procesos político-culturales latinoamericanos de la segunda mitad del siglo XX, diversos estudios sobre la nueva izquierda y la radicalización católica en América Latina enrostran la circulación y eficacia de ideas de izquierda europeas y tercermundistas. En efecto, como precisaron hace varios años, entre otros, Oscar Terán en el caso argentino, Marcelo Ridenti en el brasileño y Claudia Gilman a escala latinoamericana, las ideas del francés Jean-Paul Sartre y del argelino Frantz Fanon fueron centrales en la radicalización político-cultural de importantes franjas de las clases medias y populares.3 Pero la atención a esta radicalización no desplaza sino que reubica a la Guerra Fría. Fue para contrarrestar al entusiasmo revolucionario abierto por la Revolución Cubana y el tercermundismo que las derechas nacionalistas retomaron el esquema bipolar de la Guerra Fría como legitimación de la represión estatal y paraestatal que marcó la década del setenta de la mayoría de los países latinoamericanos. Otro descentramiento de la Guerra Fría para pensar la cultura política de los países latinoamericanos emerge del renovador programa de estudio de las ediciones comunistas en Brasil y Francia que coordinaron Jean Yves Mollier y Marisa Midori Deaecto y dio lugar a Edição e Revolução: Leituras Comunistas no Brasil e na França (Minas Geraes, Atelie Editorial-Editora UFMG, 2013). Y el descentramiento también se advierte, por un lado, en las investigaciones de Alejandro Dagfal, Hugo Vezzetti y Luciano García sobre el "campo psi" argentino, resultado de complejos flujos ideológicos con Francia y la Unión Soviética y, por otro, en la reconstrucción de la imagen de Oriente cuya circulación descubre Martín Bergel —desde una original lectura de Edward Said— en un amplio campo de publicaciones y de intelectuales argentinos y latinoamericanos que buscaron una alternativa a la crisis civilizatoria occidental.4 En el libro de 2018 destacado por Casals, Pettinà invoca a la historiadora inglesa Tania Harmer para sostener que la historia latinoamericana de la Guerra Fría "sigue esperando a ser escrita". Son indudables la concentración de los archivos en el Norte global así como las asimetrías entre el Norte y el Sur en cuanto a recursos financieros para investigar y al mercado editorial para difundir las investigaciones. Pero ello no ha impedido el mantenimiento de programas de investigación, la fundación de archivos y la edición de obras significativas. De ahí que tampoco debiera impedir a los historiados anglófonos cruzar las fronteras idiomáticas y socioculturales para recuperar las diversas investigaciones latinoamericanas que permiten descubrir el peso específico que tuvo la Guerra Fría en América Latina. Adrián Celentano 1 Gilbert M. Joseph, "Border crossings and the remaking of Latin American Cold War Studies", en Cold War History, Vol. 19, n° 1, 2019, pp. 141-170; Marcelo Casals, "Wich borders have not yet been crossed. A supplement to Gilbert Joseph's historiographical balance of the Latin American Cold War", en Cold War History, Vol. 20, n° 3, 2020, pp. 367-372; Gilbert M. Joseph "The continuing challenge of border crossing: a response to Marcelo Casals' commentary", en Cold War History, Vol. 20, n° 3, 2020, pp. 373-377. 2 Karina Jannello, "Los intelectuales de la GuerraFría. Una cartografía latinoamericana (1953-1961)" en Políticas de laMemoria, nº 14 (verano 2013/2014), pp. 79-101; Vania Markarian, Universidad, revolución y dólares. Dos estudios sobre la Guerra Fría cultural en el Uruguay de los sesenta, Montevideo, Debate, 2020. 3 Oscar Terán, Nuestros años sesentas, Buenos Aires, Punto sur, 1991; Marcelo Ridenti, O fantasma da revolução brasileira, Sao Paulo, UNESP, 2010 (2005); Claudia Gilman, Entre la pluma y el fusil. Debates y dilemas del escritor revolucionario en América Latina, Buenos Aires, Siglo XXI, 2003. 4 Alejandro Dagfal, Entre París y Buenos Aires. La invención del psicólogo (1942-1966), Buenos Aires, Paidós, 2008; Luciano García, La psicología por asalto. Psiquiatría y cultura científica en el comunismo argentino (1935-1991), Buenos Aires, Edhasa, 2016; Hugo Vezzetti, Psiquiatría, psicoanálisis y cultura comunista. Batallas ideológicas en la Guerra Fría, Buenos Aires, Siglo XXI, 2016; y Martín Bergel,El Oriente desplazado. Los intelectuales y los orígenes del tercermundismo en la Argentina, Bernal, UnQui, 2015.
Dottorato di ricerca in Ecologia e gestione sostenibile delle risorse ambientali ; L'utilizzo dei satelliti a supporto degli studi oceanografici è consolidato ormai da anni, mediante l'impiego di sistemi remoti operativi a risoluzioni spaziali intermedie (SeaWifs, MODIS, MERIS), incentrati principalmente sull'acquisizione di dati di Ocean Color, che permettono di ottenere come prodotto finale la distribuzione di temperatura superficiale, clorofilla e solido sospeso, sulla base di algoritmi già sviluppati per le acque di largo. I recenti progressi nella progettazione di sensori satellitari ad alta risoluzione spaziale e spettrale e nelle tecniche di analisi dati, hanno reso i sistemi di telerilevamento più efficaci e utili anche per lo studio degli ambienti marino-costieri, dimostrandosi quindi un valido strumento di indagine a supporto delle misure di politica ambientale della Comunità europea (Cristina et al., 2015). Tali misure mirano ad ottenere il "Buono stato ecologico" GES delle acque costiere europee secondo la Direttiva Quadro sulla Strategia Marina (MSFD) (2008/56/ Commissione Europea). La MSFD indica e descrive Descrittori ed indicatori ambientali da considerare ai fini delle misure di monitoraggio per la valutazione del GES nelle aree costiere europee. Le immagini multispettrali da satellite, opportunamente corrette per i rumori atmosferici e calibrate utilizzando le misurazioni in situ, sono riconosciute come efficaci strumenti multiscala per il monitoraggio della qualità dei mari e delle acque poco profonde (Dazhao et al., 2010, Blondeau-Patissier et al., 2014). In linea con tali riferimenti, questo progetto di dottorato si pone l'obiettivo di valutare, in maniera tempestiva, efficace e a scala sinottica lo stato di qualità ecologica degli ecosistemi marino-costiero, attraverso nuove tecniche di remote sensing (RS) secondo le linee guida della Direttiva Marine Strategy. In questo contesto, sono oggetto di studio alcuni indicatori, riferiti principalmente al Descittore 1 MSFD per la Biodiversità Biologica, che prevede la stima dello stato qualitativo delle praterie di fanerogame marine e misure sulla Torbidità dell'acqua marina identificabile con il solido sospeso superficiale; infine, la clorofilla è stata osservata in riferimento al Descrittore 5 MSFD per il fenomeno dell'Eutrofizzazione. Tali variabili possono essere rilevate e mappate mediante telerilevamento per ottenere stime quantitative di distribuzione superficiale al fine di valutare l'integrità ecologica e lo stato di salute degli ecosistemi marino-costieri (Shetty et al., 2015). I sensori RS devono necessariamente soddisfare determinati requisiti per il loro utilizzo in ambiente costiero, soprattutto in termini di risoluzione radiometrica e spazio-temporale, diversi rispetto a quelli per gli studi in mare aperto. Questo è dovuto a vari fattori: l'elevata variabilità delle scale spazio-temporali dei processi ecologici costieri richiede un'alta risoluzione spaziale del sensore satellitare (1-30 m); le acque sono otticamente più complesse, acque di Caso 2 (Morel and Prieur,1977) e richiedono numerose bande spettrali per discriminare i vari tipi di segnali, legati alle diverse componenti otticamente attive dell'acqua marina e dei bassi fondali; il segnale dell'acqua che viene rilevato dal satellite è maggiormente influenzato dagli strati atmosferici rispetto al segnale terrestre e quindi è 2 richiesta un'accurata correzione atmosferica; infine la vicinanza di superfici terrestri altamente riflettenti, come le spiagge, può indurre un ulteriore disturbo (denominato "fattore di adiacenza") al segnale uscente dall'acqua. Sulla base di queste problematiche, le piattaforme satellitari utilizzate in questo studio sono state Landsat 8 Operational Land Imagery (L8OLI) per uno studio ad alta risoluzione (30 m- High Resolution HR) per la mappatura della prateria di PO (Caso Studio 1) e della distribuzione di clorofilla a (Caso Studio 3) e MODIS (Caso Studio 2) con la media risoluzione (250 m) per un'indagine su scala regionale e a lungo termine delle dinamiche di distribuzione del solido sospeso, attraverso un approccio multidisciplinare. La metodologia affrontata in tutti e tre i casi studio presentati, ha previsto l'abbinamento temporale dei dati raccolti per la verità a mare con le immagini satellitari scaricate dal sito NASA, che rende liberamente accessibili i dati satellitari compresi nel suo sistema osservativo globale della Terra. Questi dati spettrali sono stati corretti adeguatamente per il rumore atmosferico per mappare su opportune scale spaziali/temporali la distribuzione dei parametri biofisici discreti e continui (associati all'ambiente acquatico o del fondo marino) per valutare adeguatamente le distribuzioni delle variabili in esame, sulla base di diversi approcci di modellazione. In particolare, Landsat 8 OLI ha permesso di stimare le condizioni di qualità delle praterie di Posidonia oceanica lungo più di 40 km della costa settentrionale tirrenica, a sostegno di un metodo innovativo d'indagine non invasiva e quindi in linea con una gestione sostenibile delle risorse marino-costiere. Questo sensore è stato anche utilizzato per mappare la distribuzione della clorofilla a, per una caratterizzazione efficace della distribuzione del fitoplancton nelle acque del Mar Piccolo di Taranto, attraverso modelli statistici regressivi e algoritmi bio-ottici. Da questi due studi, è emersa quindi, la validità dei dati multispettrali HR, forniti dalla nuova generazione di sensori della famiglia NASA Landsat (cioè Landsat 8 OLI, Sentinel 2 MSI) per un'osservazione efficace, integrata ed operativa degli ecosistemi marino-costieri. Per quanto riguarda la media risoluzione con MODIS, questo sensore ha permesso di raccogliere 630 immagini dal 2013 al 2017 nel golfo di Gaeta, per ottenere informazioni sinottiche e continue sulla componente della colonna d'acqua superficiale di solido sospeso, strettamente connessa alle dinamiche meteo-marine su scala regionale anch'esse studiate. La risoluzione media delle immagini RS è risultata un valido strumento di supporto, all'interno di un approccio integrato per lo studio marino costiero, al fine di migliorare la strategia di gestione ambientale a lungo termine dal punto di vista delle attività umane sostenibili per gli ecosistemi costieri. Come prospettiva futura, si può considerare di pianificare una più ampia raccolta di misure in situ per i dati di colonna d'acqua, per implementare il dataset necessario all'applicazione di un modello di inversione bio-ottica, utile alla rimozione più efficace dei disturbi della componente otticamente attiva della colonna d'acqua sul segnale spettrale del fondale marino oggetto di studio. Questo fattore apporterebbe anche ulteriori informazioni a sostegno di una maggiore comprensione degli ambienti acquatici otticamente complessi e, di conseguenza, la mappatura degli ecosistemi bentonici costieri risulterebbe ancora più accurata. Sulla base delle considerazioni e dei risultati soddisfacenti ottenuti in questo lavoro di tesi, tradotti nello specifico in tre pubblicazioni, si può affermare che le nuove tecniche di telerilevamento si mostrano efficaci per lo studio operativo degli ecosistemi marini di basso fondale e della biodiversità in ambiente costiero, fornendo un utile contributo alle misure indicate dalle Direttive comunitarie per arrestare il declino della biodiversità e per garantire la conservazione degli ecosistemi marini. ; The use of satellites to support oceanographic studies has been consolidated for years, through the use of remote systems operating at intermediate spatial resolutions (SeaWifs, MODIS, MERIS), mainly focused on the acquisition of Ocean Color data, which to obtain as a final product the distribution of chlorophyll and suspended solid, based on algorithms already developed for the offshore waters. Recent advances in the design of satellite sensors with high spatial and spectral resolution and in data analysis techniques, have more effective remote sensing systems also useful for the study of marine-coastal environment, thus proving to be a valid investigation tool to support policy measures. Environment of the European Community (Cristina et al., 2015). These measures aim to achieve the "Good ecological status" GES of European coastal waters according to the Marine Strategy Framework Directive (MSFD) (2008/56/European Commission). The MSFD indicates and describes Environmental descriptors and indicators to be considered for the purpose of monitoring measures for the evaluation of the GES in the European coastal areas. Multispectral satellite images, appropriately corrected for atmospheric noise and calibrated using in situ measurements, are recognized as effective multiscale instruments for monitoring the quality of seas and shallow waters (Dazhao et al., 2010, Blondeau-Patissier et al., 2014). In line with these references, this PhD project aims to evaluate, in a timely, effective and synoptic way, the ecological quality status of marine-coastal ecosystems, through new remote sensing (RS) techniques according to the guidelines of the Marine Strategy Directive. In this context, some indicators are being studied, mainly referring to the MSFD Descriptor 1 for Biological Biodiversity, which provides for the estimation of the qualitative status of marine phanerogams and measures on the turbidity of the marine water that can be identified with the surface suspended solid; finally, the chlorophyll has been observed with reference to the MSFD Descriptor 5 for the phenomenon of Eutrophication. These variables can be detected and mapped by remote sensing to obtain quantitative estimates of surface distribution in order to evaluate the ecological integrity and health status of marine-coastal ecosystems (Shetty et al., 2015). RS sensors must necessarily meet certain requirements for their use in coastal environments, especially in terms of radiometric and spatio-temporal resolution, different from those for offshore studies. This is due to poor factors: the high variability of the spatio-temporal scales of coastal ecological processes requires a high spatial resolution of the satellite sensor (1-30 m); the waters are optically more complex, Case 2 waters (Morel and Prieur, 1977) and require numerous spectral bands to discriminate the various types of signals, linked to the different optically active components of sea water and shallow waters; the water signal that is detected by the satellite is more influenced by the atmospheric layers than the terrestrial signal and therefore an accurate atmospheric correction is required; finally, the proximity of highly reflective terrestrial surfaces, such as beaches, can induce a further disturbance (called "adjacency factor") to the signal coming out of the water. Based on these issues, the satellite sensors used in this study were Landsat 8 Operational Land Imagery (L8OLI) for a high resolution study (30 m- High Resolution HR) for mapping the PO prairie (Case Study 1) and of the chlorophyll a distribution (Case Study 3) and MODIS (Case Study 2) with the average resolution (250 m) for a regional and long-term investigation of the distribution dynamics of the suspended solid, through a multidisciplinary approach. In all three case studies presented, it provided for the combination of temporal data collected for the sea truth with satellite images downloaded from the NASA site, which makes freely available the satellite data included in its global observational system of the Earth. These spectral data have been adequately corrected for atmospheric noise to map the distribution of discrete and continuous biophysical parameters (associated with the aquatic environment or the seabed) to suitably assess the distributions of the variables under examination, on different bases. modeling approaches. Landsat 8 OLI has allowed to estimate the quality conditions of seagrass meadows supporting an innovative method of non-invasive investigation based on the sustainable management of marinecoastal resources. Using its acquisition channels, improved in terms of spectral and radiometric features and with the introduction of the new coastal band, it was possible to produce suitable PO LAI and sea beds substrate distribution maps in a significant portion of the middle Tyrrhenian coast: more than 40 km along the coast. The effectiveness of the use of new remote sensors was demonstrated for an ecological study of seagrass grasslands with various advantages: limitation of destructive sampling for PO; cost reduction with respect to sea-truth measurement campaigns; evaluation of the plant distribution on a synoptic scale to estimate the ecological quality, and a potentiality for classifying substrate types of the seafloor in the entire study area. The results achieved by the Landsat OLI sensor suggest their effectiveness for seabed/PO/chlorophyll mapping and monitoring in the optically complex shallow water, evidencing also the specific atmospheric correction relevance for reflectance data pre-processing. The complexity and variability of coastal marine environments highlights, in fact, the need to apply appropriate investigation tools and methodologies to develop an integrated and multidisciplinary study method that allows an effective assessment of the good environmental status of marine ecosystems. As a future perspective, we can consider setting up a larger collection of in situ measurements for water column and seabed data, to apply the bio-optical inversion model, which can more effectively remove the disturbances of the water column on the spectral signal of the seabed. It is also needed for continuous progress in the understanding of complex optical aquatic environments and, as a result, the mapping of benthic coastal ecosystems may be more accurate. On the basis of all these considerations and the satisfactory results achieved in this work, it can be stated that innovative and effective remote sensing technique for the operational study of the seabed coastal ecosystems could significantly contribute to the attempts of Community legislation, to halt the decline of biodiversity and to ensure the marine ecosystems preservation. Functioning ecosystems are essential for maintaining the oceans in a healthy state (Tett et al., 2013) and while being healthy, they provide numerous and diverse goods and services that contribute "for free" to the general well-being and health of humans (Van Den Belt and Costanza, 2012).
Banks perform important functions for the economy. Besides financial intermediation, banks provide information, liquidity, maturity- and risk-transformation (Fama, 1985). Banks ensure the transfer of liquidity from depositors to the most profitable investment projects. In addition, they perform important screening and monitoring services over investments hence contributing steadily to the efficient allocation of resources across the economy (Pathan and Faff, 2013). Since banks provide financial services all across the economy, this exposes banks (as opposed to non-banks) to systemic risk: the recent financial crisis revealed that banks can push economies into severe recessions. However, the crisis also revealed that certain bank types appear far more stable than others. For instance, cooperative banks performed better during the crisis than commercial banks. Different business models may reason these performance-differences: cooperative banks focus on relationship lending across their region, hence these banks suffered less from the collapse of the US housing market. Since cooperative banks performed better during the crisis than commercial banks, it is quite surprising that research concerning cooperative banks is highly underrepresented in the literature. For this reason, the following three studies aim to contribute to current literature by examining three independent contemporaneous research questions in the context of cooperative banks. Chapter 2 examines whether cooperative banks benefit from revenue diversification: Current banking literature reveals the recent trend in the overall banking industry that banks may opt for diversification by shifting their revenues to non-interest income. However, existing literature also shows that not every bank benefits from revenue diversification (Mercieca et al., 2007; Stiroh and Rumble, 2006; Goddard et al., 2008). Stiroh and Rumble (2006) find that large commercial banks (US Financial Holding Companies) perceive decreasing performance by shifting revenues towards non-interest income. Revenues from cooperative banks differ from those of commercial banks: commercial banks trade securities and derivatives, sell investment certificates and other trading assets. Concerning the lending business, commercial banks focus on providing loans for medium-sized and large companies rather than for small (private) customers. Cooperative banks rely on commission income (fees) from monetary transactions and selling insurances as a source of non-interest income. They generate most of their interest income by providing loans to small and medium-sized companies as well as to private customers in the region. These differences in revenues raise the question whether findings from Stiroh and Rumble (2006) apply to cooperative banks. For this reason, Chapter 2 evaluates a sample of German cooperative banks over the period 2005 to 2010 and aims to investigate the following research question: which cooperative banks benefit from revenue diversification? Results show that findings from Stiroh and Rumble (2006) do not apply to cooperative banks. Revenue concentration is positive related to risk-adjusted returns (indirect effect) for cooperative banks. At the same time, non-interest income is more profitable than interest income (direct effect). The evaluation of the underlying non-interest income share shows that banks who heavily focus on non-interest income benefit by shifting towards non-interest income. This finding arises due to the fact, that the positive direct effect dominates the negative indirect effect, leading in a positive (and significant) net effect. Furthermore, results reveal a negative net effect for banks who are heavily exposed to interest generating activities. This indicates that shifting to non-interest income decreases risk-adjusted returns for these banks. Consequently, these banks do better by focusing on the interest business. Overall, results show evidence that banks need time to build capabilities, expertise and experience before trading off return and risk efficiently with regard on revenue diversification. Chapter 3 deals with the relation between credit risk, liquidity risk, capital risk and bank efficiency: There has been rising competition in the European banking market due to technological development, deregulation and the introduction of the Euro as a common currency in recent decades. In order to remain competitive banks were forced to improve efficiency. That is, banks try to operate closer to a "best practice" production function in the sense that banks improve the input – output relation. The key question in this context is if banks improve efficiency at a cost of higher risk to compensate decreasing earnings. When it comes to bank risk, a large strand of literature discusses the issue of problem loans. Several studies identify that banks hold large shares of non-performing loans in their portfolio before becoming bankrupt (Barr and Siems, 1994; Demirgüc-Kunt, 1989). According to efficiency, studies show that the average bank generates low profits and incorporates high costs compared to the "best practice" production frontier (Fiordelisi et al., 2011; Williams, 2004). At first glance, these two issues do not seem related. However, Berger and DeYoung (1997) show that banks with poor management are less able to handle their costs (low cost-efficiency) as well as to monitor their debtors in an appropriate manner to ensure loan quality. The negative relationship between cost efficiency and non-performing loans leads to declining capital. Existing studies (e.g. Williams, 2004; Berger and DeYoung, 1997) show that banks with a low level of capital tend to engage in moral hazard behavior, which in turn can push these banks into bankruptcy. However, the business model of cooperative banks is based on the interests of its commonly local customers (the cooperative act: § 1 GenG). This may imply that the common perception of banks engaging in moral hazard behavior may not apply to cooperative banks. Since short-term shareholder interests (as a potential factor for moral hazard behavior) play no role for cooperative banks this may support this notion. Furthermore, liquidity has been widely neglected in the existing literature, since the common perception has been that access to additional liquid funds is not an issue. However, the recent financial crisis revealed that liquidity dried up for many banks due to increased mistrust in the banking sector. Besides investigating moral hazard behavior, using data from 2005 to 2010 this study moves beyond current literature by employing a measure for liquidity risk in order to evaluate how liquidity risk relates to efficiency and capital. Results mostly apply to current literature in this field since the empirical evaluation reveals that lower cost and profit-efficiency Granger-cause increases in credit risk. At the same time, results indicate that credit risk negatively Granger-causes cost and profit-efficiency, hence revealing a bi-directional relationship between these measures. However, most importantly, results also show a positive relationship between capital and credit risk, thus displaying that moral hazard behavior does not apply to cooperative banks. Especially the business model of cooperative banks, which is based on the interests of its commonly local customers (the cooperative act: § 1 GenG) may reason this finding. Contrary to Fiordelisi et al. (2011), results also show a negative relationship between capital and cost-efficiency, indicating that struggling cooperative banks focus on managing their cost-exposure in following periods. Concerning the employed liquidity risk measure, the authors find that banks who hold a high level of liquidity are less active in market related investments and hold high shares of equity capital. This outcome clearly reflects risk-preferences from the management of a bank. Chapter 4 examines governance structures of cooperative banks: The financial crisis of 2007/08 led to huge distortions in the banking market. The failure of Lehman Brothers was the beginning of government interventions in various countries all over the world in order to prevent domestic economies from even further disruptions. In the aftermath of the crisis, politicians and regulators identified governance deficiencies as one major factor that contributed to the crisis. Besides existing studies in the banking literature (e.g. Beltratti and Stulz, 2012; Diamond and Rajan, 2009; Erkens et al., 2012) an OECD study from 2009 supports this notion (Kirkpatrick, 2009). Public debates increased awareness for the need of appropriate governance mechanisms at that time. Consequently, politicians and regulators called for more financial expertise on bank boards. Accordingly, the Basel Committee on Banking Supervision states in principle 2 that "board members should remain qualified, individually and collectively, for their positions. They should understand their oversight and corporate governance role and be able to exercise sound, objective judgement about the affairs of the bank." (BCBS, 2015). Taking these perceptions into consideration the prevailing question is whether financial experts on bank boards do really foster bank stability? This chapter aims to investigate this question by referring to the study from Minton et al. (2014). In their study, the authors investigate US commercial bank holding companies between the period 2003 and 2008. The authors find that financial experts on the board of US commercial bank holding companies promote pro-cyclical bank performance. Accordingly, the authors question regulators view of more financial experts on the board leading to more banking stability. However, Minton et al. (2014) do not examine whether their findings accrue due to financial experts who act in the interests of shareholders or due to the issue that financial experts may have a more risk-taking attitude (due to a better understanding of financial instruments) than other board members. Supposed that their findings accrue due to financial experts who act in the interests of shareholders. Then financial experts on the board of banks where short-term shareholder interests play no role (cooperative banks) may prove beneficial with regard on bank performance during the crisis as well as in normal times. This would mean that they use their skills and expertise to contribute sustainable growth to the bank. Contrary, if this study reveals pro-cyclical bank performance related to financial experts on the board of cooperative banks, this finding may be addressed solely to the risk-taking attitude of financial experts (since short-term shareholder interests play no role). For this reason, this chapter aims to identify the channel for the relation of financial experts and bank performance by examining the following research question: Do financial experts on the board promote pro-cyclical bank performance in a setting where short-term shareholder interests play no role? Results show that financial experts on the board of cooperative banks (data from 2006 to 2011) do not promote pro-cyclical bank performance. Contrary, results show evidence that financial experts on the board of cooperative banks appear to foster long-term bank stability. This suggests that regulators should consider ownership structure (and hence business model of banks) when imposing new regulatory constraints for financial experts on the bank board. ; Banken nehmen wichtige Funktionen innerhalb einer Volkswirtschaft wahr. Innerhalb ihrer Rolle als Finanzintermediär stellen sie Liquidität bereit und übernehmen elementare Aufgaben der Fristen- und Risikotransformation (Fama ,1985). Sie stellen sicher, dass die Liquidität der Depotinhaber den profitabelsten Investitionsprojekten zukommt. Darüber hinaus übernehmen Banken wichtige Prüfungs- und Überwachungsfunktionen über ihre Investitionsprojekte und sorgen damit für eine stetig effiziente Ressourcenallokation innerhalb einer Volkswirtschaft (Pathan and Faff, 2013). Da jedoch Banken ihre Finanzdienstleistungen der gesamten Volkswirtschaft zur Verfügung stellen, erzeugen sie damit auch (im Gegensatz zu Firmen) ein gewisses Systemrisiko: die Finanzkrise 2007 – 2008 hat gezeigt, dass Banken ganze Staaten in eine Rezession ziehen können. Gleichzeitig hat die Krise allerdings auch gezeigt, dass bestimmte Banktypen deutlich stabiler sind als andere. So sind beispielsweise die genossenschaftlichen Volks- und Raiffeisenbanken deutlich besser durch die Krise gekommen als nahezu alle Universalbanken. Genossenschaftsbanken existieren in allen größeren westlichen Volkswirtschaften und nehmen innerhalb dieser oft eine bedeutende Rolle ein. Aufgrund der einerseits hohen Bedeutung von Genossenschaftsbanken in den genannten Volkswirtschaften und der andererseits vergleichsweise geringen Beachtung in der Literatur, ist es das Ziel dieser Dissertation mit den folgenden drei empirischen Studien die bestehende Forschung der Genossenschaftsbanken voranzutreiben. Die drei empirischen Studien beschäftigen sich mit jeweils unabhängigen Forschungsfragen, die für den Bankensektor in jüngster Zeit von hoher Relevanz sind. Kapitel 2 beschäftigt sich mit der Frage, welche Genossenschaftsbanken von einer Einnahmendiversifikation profitieren können: bestehende Literatur offenbart den Trend innerhalb des Bankensektors, wonach Banken nach Diversifikation streben, indem sie ihre Einnahmen immer stärker im zinsunabhängigen Geschäft generieren. Jedoch zeigt sich in der Literatur ebenfalls, dass längst nicht alle Banken durch die Einnahmendiversifikation profitieren (Mercieca et al., 2007; Stiroh and Rumble, 2006; Goddard et al., 2008). Bei der Untersuchung von Genossenschaftsbanken ergibt sich folgendes Bild: es profitieren diejenigen Banken von einer weiteren Einnahmendiversifikation, welche bereits einen hohen Anteil ihrer Einnahmen durch das zinsunabhängige Geschäft generieren. Des Weiteren zeigt die Untersuchung einen negativen Nettoeffekt für diejenigen Banken, welche den Großteil ihrer Einnahmen durch das Zinsgeschäft generieren. Insgesamt deuten die Hinweise der empirischen Untersuchung darauf hin, dass Banken eine gewisse Zeit benötigen um entsprechende Expertise und Erfahrung aufzubauen damit eine Einnahmendiversifikation eine konkurrenzfähige risikoadjustierte Rendite erzeugt. Kapitel 3 beschäftigt sich mit der Beziehung zwischen dem Risiko, der Kapitalausstattung und der Effizienz einer Bank. Das Geschäftsmodell von Genossenschaftsbanken beruht auf der Förderung der Interessen der Mitglieder (§ 1 GenG). Das legt die Vermutung nahe, dass die in der Literatur weit verbreitete Ansicht des moralischen Risikoverhaltens nicht auf Genossenschaftsbanken zutrifft. Darüber hinaus könnten die besonderen Governance-Strukturen von Genossenschaftsbanken diese These stützen: kurzfristige Eigentümerinteressen als mögliche Ursache für moralisches Risikoverhalten spielen bei Genossenschaftsbanken keine Rolle. Die Ergebnisse der empirischen Untersuchung von Genossenschaftsbanken zeigen, dass eine niedrigere Kosten- und Gewinneffizienz zu einem höheren Kreditrisiko führt. Gleichzeitig bestätigen die Ergebnisse, dass ein negativer Zusammenhang zwischen dem Kreditrisiko von Banken und deren Kosten- und Gewinneffizienz besteht. Als zentraler Unterschied zu bestehenden Studien zeigt sich jedoch, dass ein positiver Zusammenhang zwischen der Eigenkapitalposition und dem Kreditrisiko besteht. Das bedeutet, dass moralisches Risikoverhalten ("moral hazard") bei Genossenschaftsbanken, wie bereits vermutet, nicht stattfindet. Insbesondere der Zweck der Genossenschaftsbanken (§ 1 GenG) und die damit einhergehenden besonderen Governance-Strukturen sind nach Ansicht der Autoren die wesentliche Begründung für diese Erkenntnis. Kapitel 4 widmet sich den Governance-Strukturen von Genossenschaftsbanken. Speziell wird in diesem Kapitel die Forschungsfrage behandelt, ob Finanzexperten im Aufsichtsrat von Genossenschaftsbanken zu einer prozyklischen Bankperformance führen. Dieser Zusammenhang wurde in der Studie von Minton, Taillard und Williamson (2014) bei kapitalmarktorientierten Banken aufgezeigt. Die Ergebnisse der Genossenschaftsbanken hingegen zeigen, dass Finanzexperten in den Aufsichtsräten von Genossenschaftsbanken im Zeitraum von 2006 bis 2011 keine prozyklische Bankperformance erzeugen. Im Gegenteil, die Ergebnisse weisen darauf hin, dass Finanzexperten in den Aufsichtsräten von Genossenschaftsbanken eine langfristige Stabilität der Banken gewährleisten. In der Konsequenz bedeutet das, dass Regulatoren die Eigentümerstrukturen (und damit das Geschäftsmodell) von Banken berücksichtigen sollten, wenn sie neue regulatorische Anforderungen hinsichtlich Finanzexperten in den Aufsichtsräten von Banken einführen.
Relevance of research topic. Recent decades have seen a growing concern for the prospects of today's youth. Major problems of young people are related to pervasive destructive and inappropriate behaviour: delinquency, aggression, bullying, drug abuse etc. (Holt, Jones, 2008; Strachan, Côté, Deakin, 2011). These problems are the result of changing social factors: both parents work full-time, single-parent families, unattended children at home (Strachan et al., 2011). Successful personality development depends on a number of external factors: family, school, positive role models, purposefully and deliberately chosen way of self-realization and leisure time activities. The role of a family for the child's positive personality development is in particular highlighted (Vierimaa et al., 2012). Close and solid relationships between children and parents ensure the consistent feeling of security and confidence (Carr, 2014). Affectionate relations between parents and children influence the formation of close links with other people (Holt, Knight, 2014; Steinberg, 2014). The importance of attachment becomes apparent in adolescence – the period of psychological and social transition from childhood to adulthood (Nawaz, 2011). Early parent–child relationship plays a vital role in this period. Attachment and relationship with parents change in the period of adolescence, young people becoming more independent from their parents. In this period the parent–child attachment weakens as young people are faced with new challenges; they seek independence and self-sufficiency, develop their self-identity. Researchers have noted that secure attachment to family gives adolescents a more secure emotional basis which they can always rely on. Gained self-confidence and affectionate relations help adolescents in developing and maintaining relationships with peers (Nawaz, Gilani, 2011). As adolescents spend most of the time without parents, their personality development is strongly influenced not only by parents, but also by peers (Arnon et al., 2008). Therefore, it is important for adolescents to establish or strengthen the existing relationships with friends (Nawaz, 2011). The time spent with peers enables them to develop and maintain social relationships outside the family, to be independent from their parents, to build their future adult identity, express their needs and develop their culture in a group of peers (Arnon et al., 2008). Communication and time spent with peers is not just having fun in one's leisure time but also an important part of socialization process (Arnon et al., 2008). Meaningful leisure activities have a positive impact on adolescents' development: prevent risky behaviour with negative consequences for the future; ensure better academic achievements; involve into community activities and help to pursue a career in adulthood (Fredricks, Eccles, 2010). Meaningful leisure activities include participation in sporting activities, which, according to scientific research, is one of the most popular after-school activities among adolescents (Šukys, 2008; Tomik et al., 2012). Parental mission is to guide the child into activities that, through continuous participation, would build the child's self-confidence and ability to solve problems, teach aim setting and instil values (Warner et al., 2015). Deliberate practice and its advantages have been widely researched (Strachan et al., 2011; Vierimaa et al., 2012). Participation in sports is one of social activities that has a positive effect on a child's development. This attractive activity with respectable image can lead to positive social changes. Participation in sporting activities gives children the opportunity to enjoy high-quality leisure time; children become more disciplined and active in many different spheres (Rottensteiner et al., 2013). Although organized youth sports provide meaningful activities to millions of children, sociological studies suggest that the number of children engaged in sporting activities is constantly decreasing, and children's negative attitude towards sports, alienation and passiveness is becoming a serious problem (Smoll et al., 2011). Most of researchers acknowledge that parents have the greatest influence in sporting activities of their children (Lavoi, Stellino, 2008; Dorsch et al., 2009; Sapieja et al., 2011; Nunomura, Oliveira, 2013; Holt, Knight, 2014; Knight, Holt 2014; Dorsch, Smith, 2016), that participation in youth sport is the process where parents play the most important role (Sanchez-Miguel et al., 2013). Initially children enjoy sports for small achievements; later on sport becomes a motivating factor, an interesting and meaningful activity that eventually becomes a lifestyle (Wells et al., 2005; Perrotta, Pannelli, 2014; Prichard, Deutsch, 2015; McMillan et al., 2016) passed on to children and grandchildren, i.e. to the next generations. In order to involve children into sporting activities from the early age and to achieve progress in fully disclosing their talents it is necessary to create a favourable environment in the early years of the child's personality development and parents play a very important role in this process (Sánchez-Miguel et al., 2013; Legg et al., 2015; Dorsch et al., 2015; Dorsch, Smith, 2016). The child's success in sports can be regarded as the parents' merit too (Bailey et al., 2013). Parents can shape the child's behaviour and give the right direction (Lavoi, Stellino, 2008; Arthur-Banning et al., 2009; Smoll et al., 2011). Parents are involved in disclosing and recognizing the child's talent (Côté, Vierimaa, 2014), experienced joy from participation in sporting activities (McCarthy, Jones, 2007), understanding the athletic competence (Lee et al., 2008), competition anxiety and stress management experience (Gould et al. 2012), and development of psychological skills (MacNamara et al., 2010). Family relations is the context where answers to questions how and why participation in sporting activities changes the child's thinking and behaviour. Such issues as the role of parents in this process and how they cope with this role, how sporting activities modify not only children's but also parents' personality orientations, behaviour and communication in the family. Research problem. The analysis of Lithuanian and foreign studies in the context of research topic revealed the following problem aspects: only very few athlete children can remain in sports without emotional and financial support from their family (O'Connor, 2011); not all parents are interested in sports and not all parents understand the importance of education through sports (O'Rourke et al., 2014); little is known about the influence of children's participation in sports on parents, their motivation and experience (Wiersma, Fifer, 2008) little is known about the relationship between children's participation in sport and their communication in the family and with peers. Therefore, there is a need to find out how parental involvement in youth sport could be strengthened and supported by recognizing the prospects of children and respecting parental experiences. Research object – educational interaction between parents and adolescents in sports. Research goal – reveal the educational interaction between parents and adolescents in sports. Research objectives: 1. Theoretically ground the educational interaction between parents and adolescents in sports. 2. Disclose the links between participation in sporting activities and attachment to parents and peers among athlete and non-athlete adolescents. 3. Disclose parental experiences related to the involvement into children's sporting activities. 4. Disclose adolescents' experiences related participation in sporting activities and relationship with parents. Expected outcomes of research (hypotheses): 1. A hypothesis that the relationship of athletic children with parents is more affectionate compared to that of non-athletic peers is proposed. 2. A hypothesis that adolescents with longer athletic experience are more attached to parents compared to adolescents with less athletic experience is proposed. Scientific novelty and practical significance of the dissertation The findings of scientific studies done in Lithuania and abroad on family involvement into adolescents' activities are significant in terms of importance of attachment to parents in the period of adolescence. However, integrated research into children's attachment to parents and peers in the context of sport is scarce, and no studies analysing parent–child experiences related to sport and revealing the educational interaction were done in Lithuania. Thus there is insufficient scientific information in this area. Therefore the scientific novelty of the dissertation is grounded on three levels: theoretical, empirical and practical. On the theoretical level this dissertation presents and substantiates the expanded concepts and interpretations of attachment to parents, attachment to peers and educational interaction between parents and children. Until now the constructs representing attachment to parents, attachment to peers, adolescents' participation in sporting activities were analysed in scientific studies as separate issues. In this dissertation these constructs are united into an integral and continuous process of educational interaction between parents and children. A modern theoretical model of educational interaction between parents and children developed and theoretically grounded in this dissertation is significant for its scientific novelty. On the empirical level a quantitative survey of adolescents was conducted in this dissertation in order to analyse the importance of attachment and communication within the family in the period of adolescence. The experiences of parents stemming from the involvement in their children's sporting activities and the experiences of adolescents related to the participation in sporting activities and relations with parents were disclosed in the qualitative survey. Both surveys were combined by a mixed method. These complementing surveys enabled to get a deeper and clearer understanding of parent–adolescent relations and attachment to family in the background of sporting activities. It is not only new approach in the context of Lithuanian research but also expands the available results of empirical research from foreign countries. This approach was used not only with the aim to find out how different variables related to sporting activities (attachment to family, attachment to peers, coaches' input) acting together may add to the expression of positive educational interaction between parents and children in sporting activities. Another new thing is that for the first time in research literature adolescents' attachment to parents is operationalized by two variables (attachment to parents and attachment to peers) reflecting their participation in sporting activities in order to find out, which variable is more important in the period of adolescence. On the practical level the results and conclusions of this dissertation may first of all help managers of sport clubs, organizations, school staff and educators to better understand how parents – by creating positive and supporting relations in sporting activities of their teenage children – may add to the achievement of the goals and objectives and in this way educate democratically minded youth ready to actively engage in social and public life. Secondly, this dissertation is relevant and has a practical value for the promotion of positive development of adolescents and responsible parenting. It opens a new view for professionals (coaches, sport educators, sport psychologists) working with athletes and their parents to the variety of experiences and through the knowledge gained increase the wellness of athletes and their parents. Thus, the clearer aspects of family attachment and experiences of athlete adolescents in their relations with parents may help to improve the skills not only of athlete adolescents but also of their parents and coaches. It should be noted that the findings of this dissertation were implemented in practice – a new intervention programme facilitating the parental involvement in children's sporting activities has been developed. More information about this educational programme is available at www.lisinskiene.com. CONCLUSIONS 1. Scientific literature analysis revealed that parent–child educational interaction in sport is a bi-directional system. Parents influence children: they learn to be emphatic, self-disciplined, self-respected, they build communication skills, and plan their daily routine. Children influence parents because involvement in the child's sport naturally changes parents and modifies their lives: parental daily routine alters, their cognition, knowledge and emotions change, their circle of contacts increases, interpersonal relations with the child, in the family, with other participants in sports also change. Marital relations of parents also alter through the child's participation in sport, some parents start playing sports. Parent–child educational interaction in sport depends on financial and psychological support from parents, the child's physical and emotional security, the coach's positive education strategy, competence and authority. Educational interaction in sport is possible by more active attraction of parents into children's sport; not making pressure on athletic children; motivating them to play sports through psychologically supporting environment; providing continuous training possibilities for coaches. 2. The investigation into the relationship between the adolescents' sporting activities and attachment to family and peers revealed that athlete adolescents' relations with parents are more intensively expressed in all scales: communication, trust and alienation compared to non-athlete adolescents. No relationship was found between adolescents' participation in sport and attachment to peers. 3. Interviews with parents revealed the importance of the coach's role for strengthening parent–child interaction in sport. Parent–child educational interaction in sport depends on the coaching strategy selected by the coach and the degree and form of parental involvement in children's sport. Parents of athlete adolescents acknowledge the benefit of positive coaching and education strategy selected by the coach. This understanding confirms the importance of positive tri-dimensional interaction among parents, children and coaches. However, a phenomenon that has a negative effect on this interaction: parents find it difficult to admit the children's growing attachment to coach. The contraposition to close relations between the child and the coach demonstrated by parents may encourage the alienation between parents and children in sport. 4. Interviews with athlete adolescents revealed that parental involvement into children's sport is more important in the early period of sporting life and becomes less appreciable or unwelcome when children gain sporting experience. In the background of parent–child interrelations in sporting activities adolescents alienation from parents is more common than communication and trust. Alienation of older adolescents from parents in sports has several causes: growing children seek to be independent from their families in sports, some parents behave inappropriately in youth sport and embarrass their children. Interviews with athlete adolescents revealed that some parents demonstrate substandard behaviour in relation to their children, have no loyalty towards other participants of the sporting activity. However, financial support remains and important factor of parental support in all levels of sporting experience. The degree and form of parental involvement into children's sport influences the effectiveness of parent–child educational interaction. The degree and form of involvement chosen by the parents are not always appropriate and encouraging, and not always acceptable to adolescents.