Chapter 1. Introductory Developments -- Chapter 2. The Simple Regression Model -- Chapter 3. The Multiple Regression Model -- Chapter 4. Heteroskedasticity and Autocorrelation of Errors -- Chapter 5. Problems With Explanatory Variables -- Chapter 6. Distributed Lag Models -- Chapter 7. An Introduction to Time Series Models -- Chapter 8. Simultaneous Equations Models.
In: La revue internationale et stratégique: revue trimestrielle publiée par l'Institut de Relations Internationales et Stratégiques (IRIS), Band 104, Heft 4, S. 91-100
This book provides new insights on nonlinear cointegration and error correction models. It seeks to bring together recent developments on the subject that are, up until today, scattered throughout the literature. The authors demonstrate the importance of NECM models for studying partial adjustment problems in macroeconomics and the efficient market hypothesis in finance. Even though papers on nonlinear cointegration are numerous a survey can still be made on the topic. This book is accessible to a large audience that includes academics working on applied econometrics, practitioners of financial markets and econometric modelling and all persons interested in time series analysis
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
Abstract. The aim of this paper is to investigate the impacts of oil prices on the Chinese economy. To this end, we rely on the factor‐augmented vector autoregressive methodology, which allows us to evaluate the response of various macroeconomic variables to an oil price shock. Our results suggest that an oil price shock leads to: (i) a contemporaneous increase in consumer and producer price indexes, inducing a rise in interest rates; (ii) a delayed negative impact on GDP, investment and consumption; and (iii) a postponed increase in coal and power prices.
National audience. This article provides a summary of the literature on unitary root panel tests. Two main developments can be highlighted in this research path since the founding work of Levin and Lin (1992). On the one hand, there has been a trend since the late 90s to take account of the heterogeneity of the dynamic properties of the series studied, in particular with the work of Im, Pesaran and Shin (1997) and Maddala and Wu (1999). On the other hand, a second type of recent developments in this literature tends to introduce a dichotomy between two generations of tests: the first generation is based on an assumption of independence between individuals, which seems implausible, particularly in the case of certain macroeconomic applications. The second generation, currently under development, incorporates various possible forms of interpersonal dependencies (Bai and Ng (2001), Phillips and Sul (2003a), Moon and Perron (2004), Choi (2002), Pesaran (2003) and Chang (2002)). These two generations of tests are presented in this literature review. ; This article proposes an overview of the recent developments relating to panel unit root tests. After a brief review of the first generation panel unit root tests, this paper focuses on the tests belonging to the second generation. The latter category of tests is characterized by the rejection of the cross-sectional independence hypothesis. Within this second generation of tests, two main approaches are distinguished. The first one relies on the factor structure approach and includes the contributions of Bai and Ng (2001), Phillips and Sul (2003a), Moon and Perron (2004a), Choi (2002) and Pesaran (2003) among others. The second approach consists in imposing few or none restrictions on the residuals covariance matrix and has been adopted notably by Chang (2002, 2004), who proposed the use of nonlinear instrumental variables methods or the use of bootstrap approaches to solve the nuisanceparameter problem due to cross-sectional dependency. ; National audience. This ...
Dans le cadre du modèle de revenu permanent avec anticipations rationnelles, les variations de la consommation sont plus importantes que celles du revenu. Cette implication du modèle théorique semble cependant difficilement s'accorder avec l'observation empirique mettant en évidence un excès de lissage de la consommation par rapport au revenu. Un tel phénomène est connu sous le nom de paradoxe de Deaton. L'objet de notre article est d'appréhender de manière détaillée ce paradoxe en retenant une approche en termes de mémoire longue (voir aussi Diebold et Rudebusch [1991]). Une telle démarche présente un double intérêt. Elle nous permet en premier lieu de spécifier de manière plus fine la dynamique sous-jacente au revenu des ménages. Cet aspect est fondamental dans la mesure où la mise en évidence empirique du paradoxe de Deaton dépend de façon cruciale du processus générant le revenu. En second lieu, l'approche en termes de mémoire longue nous permet d'établir un lien entre le paradoxe de Deaton et la formation d'habitudes de consommation. Les résultats que nous obtenons suggèrent que le paradoxe de Deaton découle uniquement d'une mauvaise spécification du processus de revenu en Allemagne et au Canada alors qu'il semble être présent en France, au Royaume-Uni et aux États-Unis. En outre, cet excès de lissage de la consommation par rapport au revenu semble résulter de la formation d'habitudes de consommation en France et aux États-Unis.
Résumé L'objet de cet article est de tester le type de la structure de dépendance des séries financières d'indices boursiers et de taux de change. A cette fin ont été mises en œuvre les procédures de détection de la mémoire longue que sont les analyses R/S et les diverses techniques ARFIMA. Le résultat particulièrement intéressant concerne les marchés canadiens pour lesquels nous décelons des phénomènes de persistance sur le marché des changes ($/$ canadien) et d'anti-persistance sur le marché boursier (TSE 300).