In dem Beitrag werden einige empirische Methoden zur Schätzung von Wählerübergangswahrscheinlichkeiten vorgestellt, weil diese Frage ein möglicher Ausgangspunkt für die sogenannte Wechselwähleranalyse und ihre Relevanz für die Wahlanalyse von daher evident ist. Nach der Modellbeschreibung wird mit relativ kursorischen Überlegungen die Genauigkeit dieser Schätzungen beurteilt. Die beschriebenen Verfahren werden dann auf die letzten beiden österreichischen Nationalratswahlen von 1975 und 1979 angewendet. Dabei zeigt sich der Ansatz als geeignet, plausible Ergebnisse zu produzieren. (KW)
Kühnen hat vor knapp einem Jahr seine Überlegungen zur Schätzung der Kartellschadensersatzhöhe in dieser Zeitschrift veröffentlicht (NZKart 2019, 515). Das Landgericht Dortmund (NZKart 2020, 612) greift in einer jüngeren Entscheidung diese Ausführungen auf und schätzt - soweit ersichtlich - als erstes deutsches Gericht den kartellbedingten Preisaufschlag nach § 287 ZPO.1 Dies bietet Anlass, die Überlegungen Kühnens nachzuzeichnen und anhand der praktischen Umsetzung des Landgerichts Dortmund behutsam weiterzuentwickeln.
Als im Jahre 1930 die Ökonometrie in den USA als wissenschaftliche Disziplin etabliert wurde, ging man von einer relativ breiten Forschungsaufgabe aus (Analyse ökonomischer Phänomene mit mathematischen Methoden). Heute wird der Aufgabenbereich der Ökonometrie im allgemeinen sehr viel enger gesehen (Test und numerische Spezifizierung von ökonomischen Hypothesen durch Konfrontation mit ökonomischen Daten). Anhand der historischen Entwicklung der Ökonometrie zeigt der Verf., wie es zu dieser verengten Konzeption kam. Die meisten Ökonometriker sind weitgehend auf bestimmte ökomomische Makromodelle fixiert. Der Verf. untersucht die Beziehungen zwischen ökonomischen und statistischen Methoden und zeigt, daß sich die ökonomischen Ansätze meist auf rein statistische zurückführen lassen. Zusammengefaßt wird festgestellt, daß das statistische Testen ökonomischer Hypothesen noch immer sehr wenig entwickelt ist. Die Schätztheorie, die für die übliche Art des Testens Voraussetzung ist, stellt sich als ein Nebeneinander von verschiedenen Schätzmethoden dar. Eine mögliche Entwicklung einer umfassenden Schätzmethode wird skizziert: die Theorie der impliziten Funktionen muß mit der Zeitreihenanalyse verbunden werden. (JL)
Die vorliegende Arbeit stellt das neue Verfahren der Deutschen Bundesbank zur Schätzung von Zinsstrukturkurven vor. Sie beschreibt dessen methodische Grundlagen (Nelson und Siegel (1987) und Svensson (1994)) und einige grundlegende Konzepte, die ftir die Schätzung und Interpretation solcher Kurven bedeutsam sind. Weiterhin dokumentiert die Arbeit die Anwendung des Verfahrens auf die Preise von deutschen Bundeswertpapieren auf monatlicher Basis von September 1972 bis Dezember 1996. Das Verfahren genügt den Ansprüchen der geldpolitischen Analyse. Und zwar stellt es einen guten Kompromiß zwischen der möglichst genauen Beschreibung der Daten auf der einen und der Glätte und damit der Interpretierbarkeit aus geldpolitischer Sicht auf der anderen Seite dar.
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
Die vorliegende Arbeit stellt das neue Verfahren der Deutschen Bundesbank zur Schätzung von Zinsstrukturkurven vor. Sie beschreibt dessen methodische Grundlagen (Nelson und Siegel (1987) und Svensson (1994)) und einige grundlegende Konzepte, die ftir die Schätzung und Interpretation solcher Kurven bedeutsam sind. Weiterhin dokumentiert die Arbeit die Anwendung des Verfahrens auf die Preise von deutschen Bundeswertpapieren auf monatlicher Basis von September 1972 bis Dezember 1996. Das Verfahren genügt den Ansprüchen der geldpolitischen Analyse. Und zwar stellt es einen guten Kompromiß zwischen der möglichst genauen Beschreibung der Daten auf der einen und der Glätte und damit der Interpretierbarkeit aus geldpolitischer Sicht auf der anderen Seite dar. ; The present paper introduces the new procedure of the Deutsche Bundesbank for estimating the (spot) yield curve. It explains the methodological approaches (Nelson and Siegel (1987) and Svensson (1994)) and some of the basic concepts which are important for estimating and interpreting this curve. It also describes the results of the application of the procedure to the prices of German Federal securities on a monthly basis from September 1972 to December 1996. The new procedure is appropriate for monetary policy purposes. On the one hand, it is sufficiently flexible to reflect the patterns of the data observed in the market. On the other the estimated curves are relatively robust with respect to individual observations and thus relatively easy to interpret in monetary policy terms.
Im vorliegenden Beitrag werden Schätzungen des makroökonomischen Bildungsvermögens, das als die wichtigste Komponente des Humankapitals einer Volkswirtschaft verstanden wird, in Deutschland für die Jahre 1992 bis 1999 vorgenommen. Das dabei verwendete Berechnungsmodell kann als ein Ex-post-Ansatz gemäß den Prinzipien der Volkswirtschaftlichen Gesamtrechnungen (VGR) bezeichnet werden. Dabei wird die Anzahl der in der Bevölkerung vorhandenen Bildungsabschlüsse mit den Wiederbeschaffungskosten der einzelnen Abschlüsse bewertet und neben dem Bestand an Bildungsvermögen werden konsistente Zeitreihen für die gesamtwirtschaftlichen Bildungsinvestitionen und Abschreibungen auf Bildungsvermögen berechnet. Die Ergebnisse zeigen, dass der Bestand an Bildungsvermögen im untersuchten Zeitraum zwar leicht zunimmt, dass er aber deutlich langsamer wächst als der makroökonomische Sachvermögensbestand. Vor dem Hintergrund der zunehmenden Wissensintensivierung sämtlicher ökonomischer Prozesse muss dieser Befund mit Blick auf die zukünftige Leistungsfähigkeit Deutschlands als beunruhigend bezeichnet werden. Der Autor plädiert für eine feste Institutionalisierung der Berechnungen in einem umfassenderen "Berichtssystem Bildung", z.B. im geplanten Bildungsbericht der Bundesregierung. Es sollte dabei eine Verknüpfung mit Qualitätsindikatoren angestrebt werden, wie sie beispielsweise aus der PISA-Studie verfügbar sind. (ICI2)
Im vorliegenden Beitrag werden Schätzungen des makroökonomischen Bildungsvermögens, das als die wichtigste Komponente des Humankapitals einer Volkswirtschaft verstanden wird, in Deutschland für die Jahre 1992 bis 1999 vorgenommen. Das dabei verwendete Berechnungsmodell kann als ein Ex-post-Ansatz gemäß den Prinzipien der Volkswirtschaftlichen Gesamtrechnungen (VGR) bezeichnet werden. Dabei wird die Anzahl der in der Bevölkerung vorhandenen Bildungsabschlüsse mit den Wiederbeschaffungskosten der einzelnen Abschlüsse bewertet und neben dem Bestand an Bildungsvermögen werden konsistente Zeitreihen für die gesamtwirtschaftlichen Bildungsinvestitionen und Abschreibungen auf Bildungsvermögen berechnet. Die Ergebnisse zeigen, dass der Bestand an Bildungsvermögen im untersuchten Zeitraum zwar leicht zunimmt, dass er aber deutlich langsamer wächst als der makroökonomische Sachvermögensbestand. Vor dem Hintergrund der zunehmenden Wissensintensivierung sämtlicher ökonomischer Prozesse muss dieser Befund mit Blick auf die zukünftige Leistungsfähigkeit Deutschlands als beunruhigend bezeichnet werden. Der Autor plädiert für eine feste Institutionalisierung der Berechnungen in einem umfassenderen "Berichtssystem Bildung", z.B. im geplanten Bildungsbericht der Bundesregierung. Es sollte dabei eine Verknüpfung mit Qualitätsindikatoren angestrebt werden, wie sie beispielsweise aus der PISA-Studie verfügbar sind. (ICI2). Die Untersuchung enthält quantitative Daten. Die Untersuchung bezieht sich auf den Zeitraum 1992 bis 1999.
Der Autor stellt Idee und Realisierung der Methode am Beispiel eines Einstellungsindikators zur Volkszählung 1987 vor. Durch die FQL-Methode wird die Dichtefunktion einer Stichprobe bei gegebenen Daten als Funktion der Verteilungs- bzw. Modellparameter maximiert. Diese Schätztechnik führt zu korrekten Ergebnissen, wenn fehlende Daten völlig zufällig auftreten. Am Anwendungsbeispiel, das Paneldaten mit Querschnittdaten kombiniert, wird demonstriert, daß die Methode darüber hinaus auch die Integration unterschiedlicher Datenquellen erlaubt. Zur Schätzung der unbekannten Parameter des Strukturgleichungsmodells werden LISREL-Durchläufe durchgeführt. Die im Vergleich zu einer konventionellen Analyse erheblich vergrößerte Informationsbasis bei der FQL-Methode wirkt sich positiv in der Präzision der Parameterschätzung aus, da kleinere Standardfehler zu verzeichnen sind. Die Methode erweist sich aufgrund des Informationsgewinns und der zusätzlichen Kontrollmöglichkeiten durch den Vergleich der Ergebnisse bei fallweisem Ausschluß fehlender Werte als wichtige Weiterentwicklung der Methodologie der Momentstrukturanalyse, vor allem bei Paneluntersuchungen. (HN)