Louis O. Quam, highly respected geologist/geographer, academician, and government science administrator, died on 25 July 2001 at age 95. He was best known in the United States and Canada, but widely recognized in several other countries for his many contributions to the advancement of the field of geography, for his influence on expenditure of significant government resources to fund geographic and other research, and for his broad administrative support of research in both the Arctic and the Antarctic. . He attended public schools in Boulder, Colorado, graduating from high school in 1925, and later attended the University of Colorado there, earning Bachelor of Arts (1931) and Master of Science (1932) degrees in geology. Numerous recognitions acclaimed his achievements in earth sciences and science administration . he decided to complete his formal education at Clark University in Worcester, Massachusetts. There, holding the Libby Fellowship, he completed requirements for his doctorate in Physical Geography (1938). Next, he returned to the University of Colorado as Assistant Professor of Geography (1938-42). At this point, his promising career was interrupted by a period of service in the United States Navy (1943-46). Honorably discharged from the Navy with the rank of Lieutenant Commander, Quam quickly returned to university life as Associate Professor of Geography at the University of Virginia at Charlottesville (1947-50). . Several events in the immediate post-war years would dominate Louis' career. These included the founding of the Office of Naval Research (ONR) (1946) and the establishment of its Arctic Research Laboratory (later renamed Naval Arctic Research Laboratory (NARL) at Barrow, Alaska (1947) and then, the most dominating of all, the founding of the U.S. National Science Foundation (NSF) (1950). . Quam accepted appointment to the ONR as Head, Geography Branch, Earth Sciences Division in 1950 . In the ONR, Quam was drawn into membership of many committees and panels of other organizations that were related in diverse ways to his fields of responsibility. . Shortly after his arrival at ONR, the Environmental Sciences Branch, Biological Sciences Division, elected to give up support of its Arctic research program, including NARL in Alaska. ONR management had to determine quickly whether to let the program lapse or to find another administrative entity within the organization willing to take it over. . The Chief of Naval Research agreed to transfer the program, along with the pertinent budget, and Louis took over (1951). For four years, he was the sole manager of the Arctic Program . These functions were, of course, additional to his other duties as Head of the Branch. . Dr. Quam would have been pleased to know that some specific instances of his distinguished accomplishments are recorded here, not to be forgotten. . In the opinion of the author, Quam's greatest single policy decision on behalf of Arctic research was his action to operate NARL as a Navy-funded laboratory, and also to recognize it as a national asset that should be made available for the use of others besides the ONR contractors or subcontractors (e.g., AINA [Arctic Institute of North America] under the terms of the ONR contract) for whom it existed. . By 1967, Quam had enjoyed major successes in the field of Arctic research. At age 61, he was capable of further challenges, and a notable challenge was at hand: the NSF offered him the prestigious position of Chief Scientist of its Office of Antarctic Programs. . Louis accepted the offer and served two years in the Chief Scientist position (1967-69). At this point, the office was renamed in recognition of its total responsibilities, becoming the Office of Polar Programs. Louis was designated Acting Head of the office, a position he held for two years (1969-71); he then served as Chief Scientist for two more years, until his retirement in 1972. . He was a good and decent man, whether at home or in the office, and he will be affectionately remembered and missed by all who knew him.
Este texto trata o processo de descentralização e de desenvolvimento regional, começando por analisar, com base na experiência portuguesa, as condições em que o mesmo assenta. A perspectiva é a de que esse processo necessita de apoios institucionais e de actores que possam ser os sujeitos e os objectos dessa dévolution, ou seja, é, em grande parte, consequência do desenvolvimento e da democratização. Num segundo nível, este processo é analisado como meio de modernização política, social e institucional: a) enquanto mecanismo que favorece a autonomia da sociedade civil e a modernização dos procedimentos administrativos; b) enquanto instrumento de potenciação do desenvolvimento regional e de dinamização social e espacial. Por último, o processo de decisão política, a nível regional, é estudado segundo: 1) a descentralização de competências locais; 2) as instâncias desconcentradas - as CCR - e os programas susceptíveis de contribuir para a coesão económica e social; 3) os programas municipais e intermunicipais de dinamização das aglomerações e cidades intermédias consideradas como factores de desenvolvimento local. ; Les conditions du processus de décentralisation et des politiques de développement régional sont au centre de ce texte. La perspective envisagée, a partir de l'expérience portugaise, c'est que le processus de régionalisation et de décentralisation nécessite préalablement des supports et des agents qui puissent être sujet et objet de cette dévolution, autrement dit, ce processus de régionalisation et de décentralisation est, en grande partie, une conséquence du processus de développement et de démocratisation. Le processus de décentralisation est aussi analysé comme un moyen de modernisation politique, sociale et institutionnelle et comme un mécanisme de dynamisation du développement régional et un mobilisateur social et spatial. Finalement, le processus de décision politique au niveau régional, est étudié d'après trois aspects: 1) la décentralisation des compétences locales; 2) des instances déconcentrées et des programmes visant à favoriser la cohésion sociale et économique - les commissions de coordination régionales/CCR et 3) des programmes municipaux et inter-municipaux en ayant pour base une politique de dynamisation des agglomérations de taille moyenne et de valorisation de villes considérées comme facteurs de développement local. ; This article looks at the process of decentralisation and regional development. It begins by using the Portuguese experience as the basis for an analysis of the conditions on which this process is founded. The author's view is that it requires both institutional support and the backing of actors who can be both the subjects and the objects of devolution - in other words, to a large extent it is itself a consequence of development and democratisation. On a second level the same process is seen as a means of political, social and institutional modernisation: a) as a mechanism that favours the autonomy of civil society and the modernisation of administrative procedures; and b) as an instrument that facilitates regional development and enhances social and spatial dynamics. Finally, the author studies three aspects of the political decision-making process at regional level: 1) the decentralisation of local competences; 2) the devoluted forums and bodies and the programmes that are capable of contributing to economic and social cohesion- the CCR's; and 3) the municipal and inter-municipal programmes which essentially aim to give a boost to the intermediate-level towns and cities that are considered to be factors in local development. ; El objetivo de este texto es reflexionar sobre el proceso de descentralización y de desarrollo regional. La perspectiva adoptada, a partir de la experiencia portuguesa, es que ese proceso necesita previamente de apoyos institucionales y de actores que puedan ser los sujetos y los objetos de esa devolución. Dicho de otra forma, el proceso de regionalización y de descentralización es en gran parte, una consecuencia del desarrollo y de la democratización. El proceso de descentralización es, de esta manera, analizado como un medio de modernización política, social e institucional, como un instrumento de dinamización del desarrollo regional y como creador de dinámicas sociales y espaciales. Por último, el proceso de decisión política a nivel regional, se estudia según tres aspectos: 1) la descentralización de competencias locales; 2) las instancias descentralizadas y los programas susceptibles de contribuir a la cohesión económica y social - las comisiones de coordinación regional / CCR; y 3) los programas municipales e intermunicipales que tienen como base la dinamización de las aglomeraciones en ciudades intermedias consideradas como factores de desarrollo local.
Tutkimuksen kohteena on kolmen maailmanhistorian perusrakennetta käsitellen metahistorijoitsijan Yhdysvalloissa saama vastaanotto. Amerikkalaisen Brooks Adamsin pääteos The Law of Civilization and Decay ilmestyi 1896, saksalaisen Oswald Spenglerin Der Untergang des Abendlandes 1918-22(engl. The Decline of the West I-II 1926-28) ja englantilaisen Arnold J.Toynbeen 12-osainen A Study of History 1933-61. Tutkimus perustuu laajaan aikalaiskirjallisuuteen, erityisesti käsiteltävistä teoksista johtavisssa tieteellisissä ja kulttuurilehdissä julkaistuihin arviointeihin. Työ jakautuu yhdeksään päälukuun jossa esitellään kunkin globaaalihistorijoitsijan teoriat sekä aikalaisreseption avulla selvitetään em. historianfilosofien vaikutusta Yhdysvaltalaisen liberaalin eliitin tulkintaan Amerikan roolista maailmanhistoriassa. Tutkimus osoittaa, yleisellä tasolla, että aina Puritaanien maailmanreformaation ajatuksesta Francis Fukuyaman Historian loppu - teoriaan saakka globaalista historiaa koskevilla teorioilla on ollut suurempi merkitys Yhdysvalloissa kuin Euroopassa. Yhdysvaltain poliittisen eliitin piirissä erityisesti debatilla sivilisaatio-käsitteen sisällöstä on ollut keskeinen sija Amerikan maailmanpoliittisen roolin hahmottamisessa. Yhdysvaltain liberaalien näkökannan mukaan Valistuksen aatteisiin perustuva nykyaikaistuminen tuli suorittaa Yhdysvaltain johdolla ja Amerikkalaisen sivilisaation periaatteet vallitseviksi koko maailmassa. Aihe on tutkimuksen ja nykyisen maailmantilanteen ymmärtämisen kannalta ajankohtainen. Yhdysvalloissa on syntynyt laaja maailmanhistoriaa kokonaisuutena käsittelevä globaalisen historian koulukunta. Tämä oppiala on noussut yleisen historian erääksi merkittävimmäksi osa-alueeksi. (Globaalinen historia pohtii senkaltaisia kysymyksiä, kuin mitkä olivat maailmanhistorian yhdistävät teemat? johtiko kadonneiden sivilisaatioiden tuhoon valloittajien sotakoneet, vai heidän mukanaan tuomansa mikrobit? johtavatko suuriksi uskonnoiksi muodostuneet aatteet sivilisaatioprosessia?. etc.) Väitöskirja selvittää osin Adamsin, Spenglerin ja Toynbeen osuutta globaalisen historian oppialan syntyyn Yhdysvalloissa. Brooks Adamsin (1848-1927) merkitys globaalisen historian ja globalisaatioteorian pioneerina on jäänyt hänen kuuluisamman historijaveljensä Henryn varjoon. Brooks Adams, Bostonilainen patriisi ja presidentti Theodore Rooseveltin taustavaikuttaja hahmotteli 1900-luvun alkuvuosikymmeninä Yhdysvaltain maailmanvallan ympärille luotavaa maailmanjärjestystä: korporaatioiden ja kovan tieteen hallitsemaa maailmaa, vapaakauppaa, sekä arvoista ja ympäristöstä riippumatonta hallintotapaa, joka on eksakti ja tehokas. Ensimmäisen maailmansodan jälkeen sivilisaatio ja kulttuuri käsitteiden uudelleenarviointi oli maailmanhistorian kirjoituksessa sen keskeisin teema. Tutkimus osoittaa myös, ensi kertaa transatalanttisessa kontekstissa, että Oswald Spenglerin Europassa 1919 kohua herättänyt Länsimaiden perikato saavutti myös Yhdysvalloissa 1920-luvun Jazz-kaudella New Yorkin älymystön piirissä suorastaan kulttimaineen New Yorkin lehdistössä Spenglerin uhkaava preussilainen hahmo oli kuin modernin aikakauden Cato, joka lupasi tuhoa amerikkalaistyyliselle massakulttuurille. Mutta 1930-luvun poliittisessa ympäristössä Yhdysvaltain johtavat liberaalit leimasivat Spenglerin yksimielisesti fasismin profeetaksi. Toisen maailmansodan jälkeen merkittävä englantilainen historiantutkija ja kansainvälisen politiikan vaikuttajan Arnold Toynbeen laaja uskonnollissävyinen sivilisaatiohistoria sekä Toynbee henkilönä nousi maineeseen ja asemaan, jota kenelläkään historioitsijalla Yhdysvalloissa ei ole ollut. Tutkimus osoittaa, että tämän Toynbee-ilmiön taustana oli toisaalta kylmän sodan alkuvaiheen uhkaava tilanne ja toisaalta Timen ja Lifen mahtavan kustantajan Henry L. Lucen innostus Toynbeeen selitykseen maailmanhistoriasta spirituaalisena prosessina eli Lucen luentana Toynbeen teoriasta Amerikasta kristillisen sivilisaation esitaistelijana. Arvostetun The Survey of International Affairs-julkaisun päätoimittajan Toynbeen vihamieliset lausunnot Yhdysvaltain ylimielisestä roolista maailmanpolitiikassa 1950-luvulla käänsivät kuitenkin amerikkalaisten uusliberaalien mielipiteet Toynbeetä vastaan. Tutkimus näyttää myös, että Toynbee on oppilaansa Chicagon yliopiston professori William McNeillin koulukunnan kautta keskeinen globaalisen historian oppi-isä. ; This dissertation deals with three metahistorians and their reception in the United States. American Brooks Adams published his main work The Law of Civilization and Decay 1896, German Oswald Spengler, Der Untergang des Abendlandes 1918-1922 (The Decline of the West, in English, 1926, 1928) and Englishman Arnold Toynbee A Study of History (12.vols. 1934-1961). The study is based on an extensive material dealing with the three world-historians, mainly in the leading scholarly [a majority in history and social sciences] and highbrow magazines, such as The New Republic and The Atlantic Monthly. The book is organized in nine main chapters, which include a summary of each thinker s theory of global history and their assessment of America s role in world-history; the chapters also explore through reception-analysis the American reaction to the major works of the three world-historians and the zeitgeist that informed the reviews. The study, in its general theme, demonstrates how world historical ideas from the Puritan idea of world reformation to Francis Fukuyama s End of History -hegemonic liberalism have been conceptualized by the American political and scholarly elite. The text argues that the liberal consensus of the definition of the term civilization consists in the United States mainly of modernization and Enlightenment values which are expected to bring positive changes to the world through emancipation, freedom, and material affluence. This progressive description of the liberal paradigm which the pessimistic metahistories, and the prophets of decline, in spite of their brief popularity in the U.S. tried to depose could not, in the final analysis, be defeated. The study also argues that, because of its perennial concern for civilization [the American political elite from Franklin D.Roosevelt to George W. Bush use the term, in defining their world-political agendas] the United States has been more receptive to world historical explanations than Europe. Furthermore the study is important, because in the United States world-history, as an academic discipline, has returned to university curriculums. World history draws its basic agenda partly from the metahistorians, by asking questions, like: why did great civilizations collapse? what is the role of the great religions in world history? what is the role of technological modernization in the global change?. As a pioneer of global history and globalization theory Brooks Adams (1848-1927) has not received up-dated attention from contemporary scholarship. The dissertation demonstrates how the Boston patrician partly outlined technocratic and activist policies, which his friend president Theodore Roosevelt used in order to create the American superpower. The book also demonstrates how Adams was also a pioneer in the field of global history and globalization theory, who paved the way for subsequent efforts. After the First World War the revaluation of the concepts of civilization and culture was the central theme of world-history. The breakthrough from Victorian optimism to a modernist post-war gloom focused attention to Oswald Spengler s famous world-historical interpretation The Decline of the West. The argument demonstrates in the transatlantic context, that also the cynical and disillusioned Jazz Age, Smart Set New Yorkers accepted Spengler as the prophet, who doomed the 1920s American spending spree and its mass- culture. When the political context changed in the 1930s the same New York liberals condemned Spengler as a precursor of the Nazi-movement. After the Second World War British historian, and respected expert in international politics, Arnold Toynbee and his large, spiritually flavoured, world historical synthesis A Study of History rose to the status in the United States that hardly any historian, or theory of history, has achieved. The study shows that behind this Toynbee phenomenon was, on the other hand the threatening situation at beginning of the Cold War 1947, on the other hand the enthusiasm of the Time-Life-Fortune publisher Henry Luce, who presented him as a prophet of the American Century and in Luce s American reading of Toynbee s theory also as a defender of the Christian civilization. When Toynbee s opinions turned against American foreign policy, in the1950 s, and his religiosity into syncretism, American New Liberals opinion turned heavily against the superhistorian. The study shows also that through his pupil William McNeill, and his Chicago school of world- historians, Toynbee is one of the founders of the contemporary discipline of world-history writing.
Agua, harina, sal, una pizca de levadura, mozzarella y tomate. Estos son los ingredientes básicos e imprescindibles de cualquier pizza italiana. Sin alguno de ellos no existe la vera pizza italiana. Conforman la denominada pizza margherita. Cualesquiera otros ingredientes que se deseen suponen un extra que se añade a dicha base. Según los ingredientes que cada comensal vaya añadiendo en función de su gustó surge una u otra pizza, con tantas combinaciones como posibilidades ofrezca la riqueza de las materias primas existentes en la pizzeria elegida para la degustación. Esta pequeña introducción gastronómica sirve para ilustrar perfectamente la relación que los terceros Estados que quieren adherirse a la Comunidad tienen, de una parte, con el acervo comunitario en sentido estricto y, de otra, con el acervo que surge de la integración diferenciada practicada en el interior de la Comunidad; igualmente ilustra la relación de los Estados miembros con el acervo de la integración diferenciada. Como veremos, desde la introducción de la integración diferenciada en la Comunidad, el acervo comunitario se ha convertido en el mínimo común denominador que los terceros Estados deben aceptar para adherirse a la Comunidad; una especie de pizza margherita. Sobre él, los nuevos Estados pueden elegir, además, participar o no en ámbitos concretos en los que se practica una mayor integración por sólo algunos Estados miembros; nace así un elenco variado de derechos y obligaciones para los nuevos Estados miembros en función de su elección; una especie de pizza formada por una base margherita con ingredientes añadidos. Del mismo modo, los que ya son Estados miembros pueden elegir en un determinado momento participar o no en una mayor integración en un ámbito concreto en la Comunidad, componiendo a la carta su particular pizza de derechos y obligaciones dentro de la Comunidad.____________________________________De l'eau, de la farine, du sel, une pincée de levure, de la mozzarella et de la tomate. Tels sont les ingrédients de base de n'importe qu'elle pizza italienne. Si quelqu'un d'eux manque, ce n'est plus une vera pizza italiana. lis conforment la pizza margherita. Tout un autre ingrédient qu'on veuille y ajouter serait un extra. Selon les ingrédients que chacun des convives ajoutera á son grée, on obtiendra des différentes pizzas, resultantes d'autant de combinaisons que des possibilités nous offrent les matiéres premieres fournies par la pizzeria en question. L'auteur s'est servie de cette introduction gastronomique pour illustrer le rapport des États tiers candidats á l'adhésion a l'Union Européenne avec, d'une part l'acquis communautaire stricto sensu et, d'une autre avec l'acquis résultant de l'intégration différenciée. L'image montre également la relation des États membres avec l'intégration différenciée actuellement pratiquée au sein de la Communauté. Depuis 1'introduction de Pintégration différenciée dans la Communauté, l'acquis communautaire est devenu le plus petit dénominateur commun que les États tiers candidats devront accepter pour devenir membres (une pizza margherita). Une fois celui-ci accepté, ils pourront choisir participer ou pas aux autres circuits oü il existe deja une plus grande integration entre certains États membres: de cette sorte, il naítra toute une varíete de droits et d'obligations pour chaqué nouveau État membre, d'aprés son propre choix (une pizza avec une base de margherita plus les ingrédients extra ajoutés). D'une fafon analogue, les États membres actuéis peuvent choisir participer ou pas á une plus grande integration au sein de la Communauté, composant á la carte leur propre pizza de droits et d'obligations dans la Communauté. L'auteur revise aussi les différents concepts du terme «acquis communautaire» et ses rapports avec l'acquis de l'intégration différenciée et celui de l'Union.____________________________________________Water, flour, a pinch of yeast, mozzarella and tomato. These are the basic and essential ingredients of any Italian pizzza. They compose the so-called pizza margherita. Any other ingredient that we wish to add would be an extra to that base. Depending on the ingredients that any of the guests at the table would like to add, there would result as many pizzas as combinations could be created with the possibilities offered by that the raw materials available at the pizzería. This short gastronomic introduction serves us to illustrate the relationship between the Candidate States to the European Union and, on one side the acquis communautaire stricto sensu and, on the other side, the acquis resulting from the differentiated integration that have been practiced within the European Community. It also shows the relationship between the current Member States and the acquis on differentiated integration. As we will see, since the introduction of the differentiated integration in the European Community, the acquis communautaire has become the lowest common denominator that the Candidate States must accept should they want to enter in the European Community; it is, then, like the aforementioned pizza margherita. On this basis, the new Member States would be able to chose whether they wish to take part or not on specific áreas where a deeper integration is exercised by only certain Member States. Thus, a wide variety of rights and obligations arises for the new Member States, according to their own choice: like a pizza made of a margherita basis where several ingredients had been added on the top. In the same way, the current Member States are able to chose to particípate or not in a deeper integration within the Community. In so doing, they créate a la carte their own particular pizza on rights and obligations within the European Community. The author shows the different concepts of acquis communautaire and their relationship with the acquis of differentiated integration and the acquis of the Union as well. ; Publicado
El presente trabajo analiza la actividad profesional realizada por el arquitecto mexicano Carlos Obregón Santacilia. La premisa sobre la cual se desarrolla desconoce las posiciones tradicionales de la historiográfia mexicana ya que considera sólo se han dedicado a encajonarlo dentro de rígidos marcos estilísticos que poco han aportado para atrapar la esencia de la historia. La incursión a la microhistoria es el camino tomado por el autor a fin de acercarse a los acontecimientos en los cuales se desenvuelve el personaje estudiado. En un primer apartado se adentra en la ruta recorrida dentro de la enseñanza y actividad constructiva de los arquitectos mexicanos. De la mano de eso nos muestra el acontecer político, social y cultural así como a los personajes que van transformando el paisaje de las ciudades. La revolución mexicana crea nuevas necesidades de representación de grupos humanos que reniegan de su pasado inmediato y buscan en el pasado colonial o prehispánico referentes formales con los cuales identificarse, es ese el momento en el cual se forma profesionalmente Carlos Obregón Santacilia quien se relaciona con los nuevos grupos emergentes del quehacer cultural y político. Su incursión en la revista Azulejos y el triunfo en el concurso para el pabellón de México en la exposición de Rió de Janeiro le permiten mostrar a los intelectuales que es capaz de incursionar en el lenguaje formal buscado por estos. El llamado neocolonial va ha aparecer como motor que aglutine a los mexicanos quienes tras de la revolución requieren de una representación que cubra sus expectativas y con las cuales se identifiquen. Los acontecimientos armados precipitan la llegada de nuevos vocabularios en los cuales la nueva nación se busca nuevamente con la finalidad de encontrarse a la altura de sus vecinos: desean el reconocimiento de los gobiernos extranjeros y desean demostrarles que el México bárbaro ha sido superado. El promotor del neocolonial queda fuera de la escena al tener la pretensión de alcanzar la silla presidencial, Carlos Obregón se acerca a los ideólogos que buscan un nuevo código que muestre una nación en auge, les es necesaria otra representación la cual sume a los diferentes grupos y que a su vez se aleje del vocabulario de quien había pretendido la presidencia de la republica. Busca e incursiona en nuevas manifestaciones que respondan a las necesidades del Estado. Parte siempre del reconocimiento de materiales y esquemas en los cuales identifica la tradición mexicana. Incursiona en las técnicas desarrolladas e impulsadas por considerar que la fusión de técnica y tradición consecuentemente le llevara a un vocabulario ideal en el cual se reconocerá la manufactura mexicana. El vocabulario moderno será retomado por Carlos Obregón y se mantendrá en la adelante en sus obras aunque desde luego jamás abandonara lo que él ha comprendido como elementos necesarios para capturar la tradición y que entrar a formar parte de una tradición que ahora será la suya. Ese recorrido es mostrado paralelo al desarrollo de los avatares nacionales, al quehacer de pintores y políticos, a la actividad de sus contemporáneos y a las teorías arquitectónicas que los mueven, todos ellos se conocen y reconocen, se encuentran trabajando en la invención de un mundo diferente. Trabajan juntos en más de una ocasión y compiten por ser los mejores en sus áreas, tienen querellas que llevan al ámbito gremial, buscan ser los personajes que del lado del Estado construyan un México diferente. En suma un trabajo que nos aproxima de la mano de uno de sus representantes a la invención de la tradición arquitectónica mexicana. ; This article presents the professional activity of the mexican architect Carlos Obregon Santacilia. The point in wich it develops, doesn't recognize the traditional positions of the mexican historiography, because he considers it has been closed inside hard stylistic patterns that had even aported to get the essence of the history. The incursion into the microhistory is the way taken by the author to get close in the sucess among is this character studied. In a first part, this work, comes in along the way walked on the teaching and constructing activity of the mexican architecs. Beside this, it shows us the political, social and cultural, and the characters were perfoming the city landscape too. The mexican revolution creates new necessities of representation from some human communities, that denie their inmediat past and look in the colonial or prehispanic past some formal referents in wich identify theirselves. That is the moment in wich Carlos Obregón Santacilia is forming professionaly and relating himself to the new emergent cultural and political groups. His incursion in the Azulejos magazinne and the success in the concurse of the mexican pavillion on the Rió de Janeiro Exposition, allows him to show the intelectuals his capacity to get into the formal language by them searched. The neocolonial call will appear as the integrating motor of the mexicans, who after the revolution want a hole expectations satisfing and identificable representation of themselves The armed sucess hurried the income of new vocabularies in wich the nation search to get to the level of the neighboors: they want the foreing Goverment recognizement and want to show that the barbarian Mexico is passed. The colonial promotor stays outside the scene when he pretends to get the presidential chair. Carlos Obregón get close to the ideologs that look for a new code of the rising nation. It is them necessary another representation that adds the differents groups and at the same time get away of the presidential chair pretender vocabulary. He looks and works in new manifestations that answer the Goverment necesities. He departs always from the material and patterns recognition on them is the mexican tradition identified. He works in the developed and supported technics thinking that the fusion of technic and tradition will consecuently take him to the ideal vocabulary in wich the mexican manufacture will be recognized. The modern vocabulary will be retaked by Carlos Obregón, who keept ahead on theirs works; but, never leaving what he has understood as necessary elements to capture the tradition and incorpore himself in a tradition that will then become his. This walk is shown parallel to the national avatars, the work of politics and painters, the activity of theirs contemporaries and the architectonical theories that move them. All of them get to know themselves, recognize themselves, find each other working in the invention of a different world. They worked together more than once and compite to be the best of his area, fighting until getting to the gremial ambit, look to be the characters who beside the Goverment will build a different Mexico. In sume, a work that near us, in the hand of one of his representants, to the invention of the Mexican architectonic tradition. ; Postprint (published version)
El presente trabajo analiza la actividad profesional realizada por el arquitecto mexicano Carlos Obregón Santacilia. La premisa sobre la cual se desarrolla desconoce las posiciones tradicionales de la historiográfia mexicana ya que considera sólo se han dedicado a encajonarlo dentro de rígidos marcos estilísticos que poco han aportado para atrapar la esencia de la historia. La incursión a la microhistoria es el camino tomado por el autor a fin de acercarse a los acontecimientos en los cuales se desenvuelve el personaje estudiado. En un primer apartado se adentra en la ruta recorrida dentro de la enseñanza y actividad constructiva de los arquitectos mexicanos. De la mano de eso nos muestra el acontecer político, social y cultural así como a los personajes que van transformando el paisaje de las ciudades. La revolución mexicana crea nuevas necesidades de representación de grupos humanos que reniegan de su pasado inmediato y buscan en el pasado colonial o prehispánico referentes formales con los cuales identificarse, es ese el momento en el cual se forma profesionalmente Carlos Obregón Santacilia quien se relaciona con los nuevos grupos emergentes del quehacer cultural y político. Su incursión en la revista Azulejos y el triunfo en el concurso para el pabellón de México en la exposición de Rió de Janeiro le permiten mostrar a los intelectuales que es capaz de incursionar en el lenguaje formal buscado por estos. El llamado neocolonial va ha aparecer como motor que aglutine a los mexicanos quienes tras de la revolución requieren de una representación que cubra sus expectativas y con las cuales se identifiquen. Los acontecimientos armados precipitan la llegada de nuevos vocabularios en los cuales la nueva nación se busca nuevamente con la finalidad de encontrarse a la altura de sus vecinos: desean el reconocimiento de los gobiernos extranjeros y desean demostrarles que el México bárbaro ha sido superado. El promotor del neocolonial queda fuera de la escena al tener la pretensión de alcanzar la silla presidencial, Carlos Obregón se acerca a los ideólogos que buscan un nuevo código que muestre una nación en auge, les es necesaria otra representación la cual sume a los diferentes grupos y que a su vez se aleje del vocabulario de quien había pretendido la presidencia de la republica. Busca e incursiona en nuevas manifestaciones que respondan a las necesidades del Estado. Parte siempre del reconocimiento de materiales y esquemas en los cuales identifica la tradición mexicana. Incursiona en las técnicas desarrolladas e impulsadas por considerar que la fusión de técnica y tradición consecuentemente le llevara a un vocabulario ideal en el cual se reconocerá la manufactura mexicana. El vocabulario moderno será retomado por Carlos Obregón y se mantendrá en la adelante en sus obras aunque desde luego jamás abandonara lo que él ha comprendido como elementos necesarios para capturar la tradición y que entrar a formar parte de una tradición que ahora será la suya. Ese recorrido es mostrado paralelo al desarrollo de los avatares nacionales, al quehacer de pintores y políticos, a la actividad de sus contemporáneos y a las teorías arquitectónicas que los mueven, todos ellos se conocen y reconocen, se encuentran trabajando en la invención de un mundo diferente. Trabajan juntos en más de una ocasión y compiten por ser los mejores en sus áreas, tienen querellas que llevan al ámbito gremial, buscan ser los personajes que del lado del Estado construyan un México diferente. En suma un trabajo que nos aproxima de la mano de uno de sus representantes a la invención de la tradición arquitectónica mexicana. ; This article presents the professional activity of the mexican architect Carlos Obregon Santacilia. The point in wich it develops, doesn't recognize the traditional positions of the mexican historiography, because he considers it has been closed inside hard stylistic patterns that had even aported to get the essence of the history. The incursion into the microhistory is the way taken by the author to get close in the sucess among is this character studied. In a first part, this work, comes in along the way walked on the teaching and constructing activity of the mexican architecs. Beside this, it shows us the political, social and cultural, and the characters were perfoming the city landscape too. The mexican revolution creates new necessities of representation from some human communities, that denie their inmediat past and look in the colonial or prehispanic past some formal referents in wich identify theirselves. That is the moment in wich Carlos Obregón Santacilia is forming professionaly and relating himself to the new emergent cultural and political groups. His incursion in the Azulejos magazinne and the success in the concurse of the mexican pavillion on the Rió de Janeiro Exposition, allows him to show the intelectuals his capacity to get into the formal language by them searched. The neocolonial call will appear as the integrating motor of the mexicans, who after the revolution want a hole expectations satisfing and identificable representation of themselves The armed sucess hurried the income of new vocabularies in wich the nation search to get to the level of the neighboors: they want the foreing Goverment recognizement and want to show that the barbarian Mexico is passed. The colonial promotor stays outside the scene when he pretends to get the presidential chair. Carlos Obregón get close to the ideologs that look for a new code of the rising nation. It is them necessary another representation that adds the differents groups and at the same time get away of the presidential chair pretender vocabulary. He looks and works in new manifestations that answer the Goverment necesities. He departs always from the material and patterns recognition on them is the mexican tradition identified. He works in the developed and supported technics thinking that the fusion of technic and tradition will consecuently take him to the ideal vocabulary in wich the mexican manufacture will be recognized. The modern vocabulary will be retaked by Carlos Obregón, who keept ahead on theirs works; but, never leaving what he has understood as necessary elements to capture the tradition and incorpore himself in a tradition that will then become his. This walk is shown parallel to the national avatars, the work of politics and painters, the activity of theirs contemporaries and the architectonical theories that move them. All of them get to know themselves, recognize themselves, find each other working in the invention of a different world. They worked together more than once and compite to be the best of his area, fighting until getting to the gremial ambit, look to be the characters who beside the Goverment will build a different Mexico. In sume, a work that near us, in the hand of one of his representants, to the invention of the Mexican architectonic tradition. ; Postprint (published version)
Den Kern der hier vorliegenden Arbeit bildet die Gliederung der Keramikfunde von drei Siedlungshügeln aus den Tonebenen (auch firki genannt) des südwestlichen Tschadbeckens Nordost- Nigerias. Obwohl das Gebiet in den 60er Jahren bereits archäologisch erschlossen wurde, waren die keramikchronologischen Aspekte nur oberflächlich abgehandelt worden. Ziel der Arbeit war somit die Erstellung einer grundlegenden Keramikchronologie anhand der sehr umfangreichen Fundmengen aus den Siedlungshügeln Kursakata, Mege und Ndufu. Ihre Stratigraphien erlaubten es, eine Keramikchronologie für die letzten 3000 Jahre zu erstellen. Das Gebiet der dem Tschadsee vorgelagerten firki-Tonebenen konnte erst ab 3000 BP besiedelt werden, wie die C14-Datierungen der Fundplätze bezeugen. Vorher war der auch als Chad Lagoonal Complex bezeichnete Raum von den Wassern des Mega-Tschadsees bedeckt. Diese sogenannte 3000- Jahresgrenze gilt aber nur für die firki-Region, denn in den westlich angrenzenden Sandebenen (Bama Deltaic Complex) war eine Besiedlung um 1000 Jahre früher möglich. Das Siedlungsmaterial der drei Hügel wurde mittels Veränderungen in der Keramik in Bezug auf Verzierung und Form sowie mehrerer C14-Daten in verschiedene Perioden gegliedert: Later Stone Age (1000-500 cal BC), Early Iron Age (500 cal BC-500 cal AD), Late Iron Age (500- 1600 cal AD), Historisch (16.-19 Jh. AD), Subrezent (19.-20. Jh. AD). Later Stone Age und Early Iron Age zeigen in der Keramikentwicklung eine Früh- und Spätphase. Den wichtigsten chronologischen Faktor bilden die Verzierungstechniken, denn vom Later Stone Age bis zur subrezenten Periode ist eine Abnahme von unverzierten Scherben im Verhältnis zu verzierten Scherben zu beobachten, d. h. größere Flächen wurden auf der Keramik verziert. Der Keramikhorizont von Ritz-, Stich- und Wiegebandtechnik im Later Stone Age wandelt sich über das Early Iron Age zu einem Matten- und Roulettehorizont schließlich zu einem Roulettehorizont im Late Iron Age. Den Entwicklungen in der Verzierung lassen sich Veränderungen bei den Gefäßformen gegenüberstellen, die sich von geschlossenen zu offenen Formen wandeln. Das Later Stone Age ist durch Kümpfe, dagegen das Early Iron Age durch Töpfe geprägt. Offene Schalen-Schüsseln bestimmen das Gefäßinventar ab dem Late Iron Age, aber auch verschiedene neue Gefäßtypen wie So-pots, Dreifußgefäße, Gefäße mit flachem Boden sowie solche mit langen konischem Rand treten jetzt in Erscheinung. Die zunehmende Bedeutung der Verzierungstechniken Matte und Roulette in den Fundplätzen spiegelt sich in ihrer Variationsbreite wider. Einzelne Matten- und Roulettetypen nehmen die Stellung von Leitformen ein. Im Later Stone Age sind nur Randparallele/Diagonale Geflechte und kombinierte Roulettes (cord wrapped stick roulette) vorhanden. Ab dem Early Iron Age wird das Formenspektrum erweitert. Zwirnbindige Geflechte und gezwirnte Schnurroulettes (twisted string roulette) bilden die charakteristischen Arten in der Frühphase des Early Iron Age, aber ab der Spätphase des Early Iron Age gewinnen die kombinierten Roulettes (cord-wrapped stick with spacing roulette) wieder an Bedeutung. Danach treten nur noch Roulettearten neu hinzu. Im Late Iron Age ist es das Schnitzroulette (carved roulette) und gegen Ende des Late Iron Age, aber vor allem ab der historischen Periode das gezwirnte Bandroulette (twisted strip roulette). Anders als bei den Roulettetechniken ist das Vorkommen von Matten an bestimmte Herstellungstechniken von Gefäßen gebunden, vorausgesetzt die Matten wurden nicht nach der Herstellung in die Oberfläche des Gefäßes eingeklopft. Ihr flächendeckender oder auf das Gefäßunterteil beschränkter Auftrag auf der Keramik der untersuchten Fundplätzen deutet auf die Anwendung von Treibtechnik zur Herstellung der Gefäße hin. Die begrenzte Handhabung der Matten und ihre primär technische Bedeutung (Oberflächenbehandlung) spielten vermutlich eine Rolle bei ihrer Verdrängung durch die Roulettetechnik. Insgesamt zeigt die chronologische Entwicklung der Keramik, daß die Tonebenen ohne längere Unterbrechung kontinuierlich besiedelt waren. Der Übergang von einer Periode zur nächsten ist zwar durch Veränderungen im Keramikmaterial gekennzeichnet, es werden aber immer auch verschiedene Merkmale aus der vorangegangenen Periode übernommen. Am markantesten stellt sich der Übergang vom Later Stone Age zum Early Iron Age dar. Hier finden Entwicklungen in der Keramik statt, die heute noch ihren Niederschlag (Roulettetechnik) finden. Die politischen Veränderungen im Gebiet der firki zu Beginn der sogenannten historischen Periode (Integration in das Kanem-Bornu-Reich) fallen keramiktypologisch betrachtet weniger ins Gewicht, d. h. die bestehende Keramiktradition wurde nicht vollständig durch eine andere ersetzt. Das Keramikmaterial aus den firki-Tonebenen Nordost-Nigerias zeigt, wie zu erwarten, die größten Übereinstimmungen zu dem anderer Fundplätze aus den Tonebenen der heute angrenzenden Staaten Kamerun und Tschad. Mit den Fundinventaren aus der südlich angrenzenden Mandara-Region in Kamerun und Nigeria haben unsere Keramikinventare die Entwicklung zu vorwiegend Rouletteverzierter Keramik (genauer gesagt Schnurroulette) in der Eisenzeit gemeinsam. In der nördlichen Mandara-Region scheint die Keramikentwicklung allerdings statischer verlaufen zu sein, da hier die markanten Veränderungen aus der firki während der Eisenzeit fehlen. Dennoch läßt das Keramikmaterial auf Beziehungen zwischen beiden Regionen schließen, die nach der Fundlage im Handel von Steinen und vermutlich auch Eisenerzen und Metallobjekten bestanden. Ebenso ist die politische Entwicklung in den Tonebenen (Integration in das Kanem-Bornu Reich) eng mit der in der nördlichen Mandara-Region (Bildung des Wandala-Reiches) verknüpft, was sich auch im Keramikmaterial widerspiegelt. Dagegen offenbaren die Fundstellen des östlichen Tschadbeckens in der Republik Tschad gänzlich andere Keramiktraditionen. Typische Keramikelemente aus der firki treten dort erst später oder gar nicht auf. Die Integration der firki Nordost-Nigerias in das Kanem-Bornu-Reich stellt sich als eine Verbreitung bestimmter Keramikelemente (twisted strip roulette, Sgraffito) westlich des Tschadsees (Yobe Valley) weiter nach Süden dar, wobei diese Keramikmerkmale von der autochthonen Bevölkerung westlich des Tschadsees schon vor der Ankunft der Kanuri verwendet wurden. Dies bedeutet, daß die Kanuri die Keramikmerkmale entweder von der einheimischen Bevölkerung übernommen haben oder schon vorher ein kultureller Austausch zwischen dem Yobe Valley und Kanem bestand. Die firki-Region war im Laufe ihrer Besiedlung verschiedenen Einflüssen anderer Regionen ausgesetzt. So müssen die ersten Siedler von außerhalb in das Gebiet eingewandert sein, da es längere Zeit für eine Besiedlung unzugänglich war. Weder die westlich angrenzenden Sandflächen noch die südlich angrenzenden Ebenen der Mandara-Region oder der östliche Teil des Tschadbeckens kommen derzeit dafür in Frage. Die Wirtschaftsweise der ersten Siedler deutet in nördliche Richtung, denn sie brachten domestizierte Rinder, Schafe, Ziegen und die Kenntnis vom Anbau domestizierter Perlhirse (Pennisetum glaucum) mit. Ihre Keramik steht in der Tradition des saharischen und sudanesischen Endneolithikums, was sich aus zonal begrenzten Verzierungen und der häufigen Verwendung von Ritztechnik und Spatelstich ableiten läßt. Die für das Later Stone Age in der firki typische Rouletteund Mattentechnik wurde in der Sahara/Sahel entwickelt. Ob die ersten Siedler nun aus östlicher oder westlicher Richtung kamen, läßt sich nicht definitiv sagen. Allerdings ist eine westliche Richtung durch die dort nachgewiesene Verwendung von Matten in Köperbindung und der eines kombinierten Roulette (cord-wrapped stick with spacing roulette) zu favorisieren. Der Übergang zum Early Iron Age in der firki ist mit neuen Einflüssen aus der südwestlichen Sahara und dem angrenzenden Sahel verbunden. Dies geht aus der Verwendung von twisted string roulette und zwirnbindiger Geflechte hervor. Auch wirtschaftlich hat mit Beginn des Early Iron Age ein Wandel stattgefunden, denn zu diesem Zeitpunkt setzt ein großflächiger Anbau von Perlhirse (Pennisetum glaucum) ein. Erst jetzt kann man von einer vollentwickelten seßhaften Lebensweise in der firki sprechen. Archäobotanische und archäozoologische Untersuchungen bezeugen einen Umschwung zu arideren klimatischen Bedingungen am Übergang vom Later Stone Age zum Early Iron Age, der die wirtschaftlichen Veränderungen nach sich gezogen haben könnte. Die grundlegenden Veränderungen in der Keramik unterstützen diese Hypothese, denn sie spiegeln vielleicht dieselbe Entwicklung nur auf anderer Ebene wider. Der Einfluß von Keramiktechniken aus dem Nordwesten läßt Bevölkerungsverschiebungen aus dem trockenen Norden in die von Wasservorkommen begünstigten firki-Tonebenen vermuten. Ein Einfluß aus anderer Richtung zeigt sich für das Late Iron Age. So hat sich wahrscheinlich die Technik des carved roulette im Savannenraum von Nigeria, Kamerun und der Zentralafrikanischen Republik entwickelt und weiter ausgebreitet. Für die historische Periode und den mit ihr in Zusammenhang stehenden politischen Veränderungen wurde schon auf Einflüsse aus dem westlichen Tschadbecken (Yobe Valley) Nordost-Nigerias hingewiesen. Dennoch muß die Bevölkerung in den Tonebenen nicht erst mit der Ausbreitung der Kanuri am Ende des 16. Jh. AD mit der Verwendung von twisted strip roulette in Berührung gekommen sein, wie Funde aus dem Late Iron Age zeigen. Diese Technik ist typisch für die Eisenzeit in Mali, sie wurde aber auch im 1. Jt. AD in der nördlichen Mandara-Region vereinzelt verwendet. Die Verbreitung der Roulette- und Mattentechniken ist für die Rekonstruktion von Beziehungen zu anderen Regionen ausschlaggebend. Am Keramikmaterial von Kursakata, Mege und Ndufu läßt sich sehr gut beobachten, daß verschiedene Roulette- und Mattentechniken hier zeitlich versetzt voneinander im Later Stone Age und Early Iron Age in Gebrauch kommen, die weiter nördlich schon im Later Stone Age bekannt waren und gemeinsam verwendet wurden. Die Bedeutung von twisted string roulette als Indikator für das Early Iron Age teilen sich die Fundplätze aus der firki mit anderen Fundplätzen aus dem Savannenraum. In der firki stehen Schnurroulettes und zwirnbindige Geflechte als Synonym für Eisen und seßhafte Lebensweise. Mit der hier vorliegenden Arbeit ist zum ersten Mal eine grundlegende Keramikchronologie für die firki-Tonebenen Nordost-Nigerias erstellt worden. Die verschiedenen Verzierungstechniken und auch die bislang wenig berücksichtigten Gefäßformen wurden näher bestimmt. Weiterhin ermöglichten es die Analysen, das Fundmaterial anderer Plätze besser zu beurteilen bzw. eine fundiertere Grundlage für Vergleiche zu bilden, d. h. es wurde ein detaillierter und kritischer Vergleich mit allen wichtigen Fundplätzen aus dem südlichen Tschadbecken vorgenommen. Darüber hinaus wurden die für die Keramikchronologie wichtigen Roulette- und Mattentechniken dokumentiert und anhand ihrer technischen Merkmale definiert. Eine zusammenfassende Darstellung zur Verbreitung der Rouletteund Mattentechniken in Afrika erlaubte es, ihre Vorkommen in Nordost-Nigeria in einen größeren vorgeschichtlichen Zusammenhang zu sehen. Somit bietet die hier vorliegende Arbeit genügend Grundlagen, auf die nachfolgende Forschungen aufbauen können. Für das östliche Tschadbecken und die nördliche Mandara Region steht bislang eine solche Keramikchronologie noch aus. ; The central part of this dissertation describes the classification of pottery from excavated sites in the clay plains, called firki, of the southwestern Chad Basin in Northeast Nigeria. Although archaeological research in this area already took place in the 1960's, the different chronological aspects of pottery have been treated only superficially. Therefore the objective of this work has been the development of a fundamental chronology on the basis of the large amount of pottery material from the settlement mounds Kursakata, Mege and Ndufu. Their stratigraphies comprise the last 3000 years. C14 dates of the archaeological sites confirm that the firki clay plains south of Lake Chad were settled around 3000 BP. Before that time this area - also known as the Chad Lagoonal Complex - was flooded by the Mega Lake Chad, which had its maximum extension during the middle Holocene. After its regression, due to increasing dryness between 1500-800 BC, the area could be settled again on relict islands of sand dunes, which interrupt the clay soils and protect the people from flooding in the rainy season. Continuous occupation led to the accumulation of stratified deposits and finally to the development of settlement mounds. However the 3000 year limit for reoccupation is only valid for the firki since the adjacent sand plains of the Bama Deltaic Complex were settled 1000 years earlier. The settlement remains of the mounds Kursakata, Mege and Ndufu, all located near to the village of Ngala, can be subdivided into different phases by changes in the ceramic material and dated by several C14 dates: Later Stone Age (1000-500 cal BC), Early Iron Age (500 cal BC-500 cal AD), Late Iron Age (500- 1600 cal AD), Historic phase (16th-19th century AD), sub-recent phase (19th-20th century AD). Furthermore the pottery of the Later Stone Age and Early Iron Age show an early and late sub-phase. Changes in the decoration techniques are the most important chronological factor during the single phases. A tendency towards more complete surface decoration becomes obvious as the percentages of undecorated potsherds are highest in the Late Iron Age but gradually decrease from the Iron Age onwards. The typical decoration techniques of the Late Stone Age are incision, impression and rocker stamping, changing to a mainly mat and roulette decorated pottery horizon in the Early Iron Age, and finally to an almost nearly roulette decorated one in the Late Iron Age. Both techniques (mat and roulette) cover a greater part of the vessel than the incised, impressed and rocker stamped motifs arranged in single or multiple, horizontal bands. Changes of pottery decoration go along with changes in vessel forms. They show a development from more restricted to more open forms. The Later Stone Age is characterised by deep bowls with simple and vertical rims whereas the Early Iron Age by nearly globular vessels with everted rims. Open bowls with simple and everted rims dominate the vessel types from the Late Iron Age onwards but different new forms like So pots, tripods, flat bottomed types and pots with long conical rims enrich the spectrum of vessel forms. The increasing importance of mat and roulette decoration techniques in the sites is reflected in their variety of types. Some of the types take up the position of key forms for the single phases. During the Later Stone Age only plaited basketry and the composite roulette type cord-wrapped stick were used. In the Early Iron Age different new roulette and mat techniques became common. Twined basketry and flexible string roulettes, especially twisted string roulette, form the dominant types in the early sub-phase, but in the late sub-phase of the Early Iron Age the composite roulette cord-wrapped stick with spacing gain in importance. After this period only new roulette types appear: for the Late Iron Age it is the rigid roulette type carved roulette and mostly for the historic and sub-recent period (but in small quantities already for the Late Iron Age) it is the flexible strip roulette type twisted strip roulette. In contrast to the roulette techniques the use of mat decoration depends on special pottery manufacturing techniques, provided the mat has not been applied to the vessel after its manufacture. The placement of mat impression to the lower part or all over the vessel in the sites indicates the use of the tamping manufacturing technique. In all probability the limited handling of mats and their prior technical function (surface treatment) led to their replacement by roulette techniques in the Iron Age. As a whole, the chronological development of pottery demonstrate, the firki clay plains have been continuously settled without long interruptions of occupation. Although the transition from one phase to the other is marked by changes in the ceramic material, different pottery features are always taken over from the foregoing one. However the transition from the Later Stone Age to the Early Iron Age is most striking and the occurring changes in the pottery material can still be recognised today in the use of roulette techniques. This is opposite to the integration of the firki plains into the Kanem-Borno Empire at the historic phase, where the existing pottery tradition was not replaced by another one, as seen in the pottery typology. The pottery material of the firki clay plains in Northeast Nigeria show the greatest correspondence to other settlement mounds in the firki which extends to Northern Cameroon and westcentral Chad. With the inventory of finds from the southerly adjacent Mandara plains in Cameroon and Nigeria the archaeological sites of the firki clay plains share the development to almost only roulette decorated pottery (strictly speaking string roulette) in the Iron Age. But in the northern Mandara region the changes in the pottery seem to proceed more statically because the obvious changes in the firki during the Iron Age are missing here. Nevertheless the typological correspondence in the pottery material points to a cultural relationship between the two regions, which, according to the archaeological finds, have existed in the exchange of stone raw material and presumably also of iron ore and iron artefacts. The political changes in the firki clay plains (integration into the Kanem-Borno Empire) are closely connected to the political changes in the northern Mandara region (formation of the Wandala Empire). These changes are reflected in the pottery material. On the other hand the archaeological sites in the eastern Chad basin of the Republic of Chad reveal a complete different pottery tradition. Typical pottery elements from the firki sites occur much later or have not been found. The integration of the firki plains into the Kanem-Borno empire at the end of the 16th century AD is represented in the pottery material by the distribution of certain pottery elements (twisted strip roulette, sgraffito) from the Yobe valley west of Lake Chad to the south. As these pottery elements had been used there prior to the arrival of the Kanuri in the Yobe valley it means either the Kanuri had taken over the elements from the indigenous population or cultural exchange between the Yobe valley and Kanem must have formerly existed. During its long settlement history the firki plains have been exposed to different influences from other regions. People who first settled south of Lake Chad must have come from outside this region because it was flooded until 3000 BP. Currently neither the sand plains of the Bama Deltaic Complex to the west nor the plains of the Mandara region to the south or the eastern Chad Basin can be considered as their homeland. The economy of the first settlers points to a migration from the north as they brought domesticated cattle, sheep and goat as well as the knowledge of pearl millet cultivation (Pennisetum glaucum) with them. Their pottery stands in the tradition of the Saharan and Sudanese Late Neolithic shown by zonal arrangements of motifs and the frequent use of incision and spatula impression. Furthermore the typical roulette and mat techniques of the Later Stone Age in the firki had been developed in the Sahara/Sahel. It cannot be said for sure if the first settlers migrated into this area from the west or the east. But the west seems to be more likely for two different reason: the proved use of plaited basketry decorated pottery and the use of a cord-wrapped stick (with spacing) as a roulette. With the beginning of the Early Iron Age new influences from the southwestern part of the Sahara and the adjacent Sahel has to be taken into account. Twisted string roulette and twined basketry had already been invented there in neolithic times but remained unknown in the eastern part until the first millennium AD. The transition to the Early Iron Age is also marked by notable changes in the economy of the inhabitants. Large amounts of pearl millet in the deposits of the sites demonstrate a sudden beginning of large scale farming. From this time a fully developed permanent settlement way of life had been established in the clay plains. Archaeobotanical and archaeozoological investigation suggest also a shift to a more arid climatic condition during the transition of the Later Stone Age to the Early Iron Age in the firki, which may have led to the intensification of pearl millet farming in the economy of their inhabitants. The fundamental changes in the pottery material support this hypothesis as they probably reflect the same development only on a different level. Together with the appearance of new pottery techniques from the northwest in the firki it can be suggested aridity forced people from further north to go south and to settle in the well watered firki plains. In the Late Iron Age the sphere of influence had changed because the use of carved roulete seems to have been developed in the savannah region of Nigeria, Cameroon and the Central African Republic. A shift of pottery elements from the Yobe valley west of Lake Chad to the firki in the south has been suggested for the historic phase due to the political changes which took place. Because finds of twisted strip roulette already occur in the Late Iron Age the inhabitants of the clay plains may have known the technique before the spread of the power of the Kanuri at the end of the 16th century AD. The use of twisted strip roulette is not restricted to Nigeria or a special ethnic group. This technique is typical for the Iron Age in Mali and is also used in small quantities in the northern Mandara region at the first millennium AD. As we have seen, it is the spread of the roulette and mat techniques which is important for the reconstruction of the relation of the firki plains to its surrounding area. From the ceramic material of Kursakata, Mege and Ndufu it can be clearly observed that individual, separate roulette and mat techniques appear shifted in time in the Later Stone Age and Early Iron Age. These techniques are known to have been used together at several sites further to the north in the Later Stone Age. With other sites of the West African savannah the archaeological sites of the firki plains share the importance of twisted string roulette as an indicator for the Early Iron Age. In the firki the twisted string roulette and twined basketry decorations can be seen as synonyms for iron and a permanent settlement way of life. In this dissertation for the first time a fundamental pottery chronology has been developed for the firki clay plains south of Lake Chad in Northeast Nigeria. Different decoration techniques and the so far less considered vessel forms have been defined. A detailed and critical comparison with all the important archaeological sites of the southwestern Chad Basin has been carried out and, in addition, all the existing roulette and mat types have been documented and classified under technical aspects. Besides the pottery analyses made it possible to interpret the pottery material of earlier excavated sites in the firki in a better way. With a summarised outline of the spread of roulette and mat techniques over Africa, their appearance in Northeast Nigeria could be placed in a greater prehistoric context. Thus the dissertation offers a good fundament for further investigations. A comparable pottery chronology for the eastern Chad Basin and the northern Mandara region is still lacking.
La tesis doctoral se refiere al proceso fundacional escasamente conocido por encontrarse sus fuentes primarias en los archivos de Londres y París de la población menorquina anteriormente denominada Georgetown, hoy Es Castell, planificada por el ingeniero militar escocés Patrick Mackellar en el puerto de Mahón durante la segunda dominación británica de la isla (1763-1782). Se trata de una labor de investigación que está estructurada en tres partes. En la primera, se realiza una aproximación al urbanismo de origen militar desarrollado por Gran Bretaña a lo largo de los siglos XVII y XVIII, coincidiendo con el auge de la artillería bélica. En este sentido es demostrable la influencia, en el plano teórico, de la supremacía militar de Francia y sobre todo, de la polifacética labor de Vauban reflejada, entre otras cuestiones, en los Manuales de Fortificación de obligatorio estudio durante la formación de los ingenieros militares británicos. Hasta el siglo XVIII, los ingenieros agrupados en torno a la Board Ordnance tuvieron escasas ocasiones de crear nuevas ciudades, fundamentalmente por dos razones. La primera, que Inglaterra no inició su expansión colonial hasta la resolución de sus problemas internos que finalizaron con la anexión de Irlanda y Escocia. La segunda, que su condición insular la obligó a basar la defensa de sus territorios en el desarrollo de una poderosa flota armada. Sin embargo, el modelo colonial inglés, basado en el protagonismo de las compañías comerciales, propicia la intervención de los ingenieros militares en las labores de planificación y verificación de los nuevos asentamientos del norte de Irlanda, la costa de Coromandel, el este norteamericano y las Antillas. La segunda línea de investigación incursiona en la vida del planificador de Georgetown, destacando su experiencia bélica en los frentes americanos durante la Guerra de los Siete Años (1756-1763). Gracias a su participación en las campañas militares, Patrick Mackellar conoce en primera persona las características del urbanismo practicado por Inglaterra y Francia en los territorios de ultramar, y se dota de un importante bagaje cultural que demostrará cuando, en su definitivo destino como Ingeniero-Jefe en Menorca, acomete la empresa de planificar y diseñar una nueva ciudad. La tercera línea de investigación se centra en el proceso fundacional de Georgetown. La operación basada en razones defensivas consistió en demoler un asentamiento surgido a los pies de la principal fortaleza de la Isla, y trasladar la morada de sus casi cuatro mil pobladores a una enclave prudentemente alejado de la fortificación. Llamada Vila Jordi por sus primeros moradores, Georgetown resultó un excelente ejemplo de pragmatismo urbanístico. La plaza central o génesis del asentamiento, se ubicó sobre una pequeña meseta portuaria que ya había sido elegida por un ingeniero militar galo durante la dominación francesa de la isla y se aprovechó el trazado de una antigua vía de comunicación territorial como eje longitudinal del nuevo conjunto urbano. Igualmente, el reparto de suelo se realizó en función del tamaño de las parcelas existentes en el pueblo anterior. Sin embargo, la atención a las gentes y a una geografía del lugar marcada por la costa portuaria, no impidió a Mackellar el desarrollo de un conjunto urbano de calles rectas, paralelas y jerarquizadas trazadas a partir de un espacio central conformado por las edificaciones propias de una ciudadela militar barroca. Tras una comparación formal con otras poblaciones estudiadas, el desarrollo de la tesis analiza, finalmente, los elementos principales de la población, tales como la anchura y distancia de las calles, los edificios cuarteleros y otras construcciones notables, la tipología residencial y la historia de la población en los dos últimos siglos. Como conclusión, el autor considera que el proyecto de Mackellar para Georgetown combina acertadamente las bases empíricas que lo sustentan con una variante del prototipo urbanístico aplicado en la colonización de Nueva Escocia como garantía de la satisfacción de las exigencias de orden y regularidad propias de la planificación militar y del urbanismo dieciochesco. Nacida entre la agonía del Antiguo Régimen y el estallido de las revoluciones americana y francesa, hija del Barroco y madre del urbanismo decimonónico, esta operación urbanística financiada por la corona inglesa fue el fruto de un compromiso, un proyecto de transición. ; The doctoral thesis refers to the foundation process quite unknown, as the first sources are in the archives of London and Paris of the Minorca's town before named Georgetown, nowadays known as Es Castell, planned by the Scottish military Engineer Patrick Mackellar in Mahon's harbour during the second british domination on the island (1763-1782). It is a research work and is structured in 3 parts. First part, it's an approximation to a source of military urbanism developed by Great Britain during the XVII and XVIII centuries, coinciding with the increase of war artillery. This is shown by the influence in the theoretical survey, of France's military supremacy and above all, the versatile labour of Vauban revealed, apart from other issues, by the Guides of Fortifications which were of compulsory study, for the british military engineers during their training. Until the XVIII century, the engineers round about the Board Ordnance had few occasions to create new towns, basically for two reasons. The first, is that England didn't begin its colonial expansion until it had solved its own internal problems, which came to an end with the annexation of Ireland and Scotland. The second, that it's insular status obliged it to base its defence of its territories in the development of a powerful navy. Nevertheless, the english colonial model, based on the commercial companies playing the main part, helped the intervention of the military engineers in the work of verifying and planning the new settlement in North Ireland, the Coromandel Coast, the east part of North America and the Antilles. The second line of research attacked the life of the planner of Georgetown, emphasising his war experience on the american front during the Seven-Year War (1756-1763). Thanks to his partaking in the military campaigns, Patrick Mackellar found out himself the characteristics of English and French development overseas, and he endowed himself with an important cultural knowledge which he revealed when, in his last post as Chief Engineer in Minorca, he undertook the designing and planning of a new town. The third research is centred in the foundational process of Georgetown. The transaction based on defensive reasons consisted in demolishing a settlement at the foot of the main fort of the island, and moves the homes of its almost 4.000 inhabitants to a more prudential area, away from the fort. Named Villa Jordi by its first inhabitants, Georgetown was an excellent example of city planning pragmatism. The central square or genesis of the settlement, was built on a small portside plateau which had already been chosen by a french military engineer during the France's domination of the island and, an old communicating land route, was made use of as an essential longitudinal part of the new urban unit. In the same manner the distribution of the ground was made according to the size of the existing plots in the old village. Nevertheless, the attention to the people and the geographical situation, marked by the port coastland, didn't stop Mackellar developing an urban unit with straight roads, parallel hierarchical layout from a central space, almost exactly like the buildings of a baroque military fortress. After a formal comparison with other populations under study, finally the thesis development analyses the principal elements of the population, like the length and the distance of the streets, the barrack buildings and other notable constructions, the residential types and the history of the population over the last two centuries. Concluding, the author considers that Mackellar's project for Georgetown, succeeds in combining the empirical bases that maintains it with a variation of the urban prototype applied in the colonization of New Scotland as a guarantee of satisfaction for the demand and regularity of a military planning as well as eighteenth century urbanism. Born between the agony of the Old Regime and the outburst of the american and French revolutions, daughter of the Baroque and mother of nineteenth century development, this town planning exploitation financed by the English Crown, was the result of a commitment, a design of the transitional period. ; Postprint (published version)
La tesis doctoral se refiere al proceso fundacional escasamente conocido por encontrarse sus fuentes primarias en los archivos de Londres y París de la población menorquina anteriormente denominada Georgetown, hoy Es Castell, planificada por el ingeniero militar escocés Patrick Mackellar en el puerto de Mahón durante la segunda dominación británica de la isla (1763-1782). Se trata de una labor de investigación que está estructurada en tres partes. En la primera, se realiza una aproximación al urbanismo de origen militar desarrollado por Gran Bretaña a lo largo de los siglos XVII y XVIII, coincidiendo con el auge de la artillería bélica. En este sentido es demostrable la influencia, en el plano teórico, de la supremacía militar de Francia y sobre todo, de la polifacética labor de Vauban reflejada, entre otras cuestiones, en los Manuales de Fortificación de obligatorio estudio durante la formación de los ingenieros militares británicos. Hasta el siglo XVIII, los ingenieros agrupados en torno a la Board Ordnance tuvieron escasas ocasiones de crear nuevas ciudades, fundamentalmente por dos razones. La primera, que Inglaterra no inició su expansión colonial hasta la resolución de sus problemas internos que finalizaron con la anexión de Irlanda y Escocia. La segunda, que su condición insular la obligó a basar la defensa de sus territorios en el desarrollo de una poderosa flota armada. Sin embargo, el modelo colonial inglés, basado en el protagonismo de las compañías comerciales, propicia la intervención de los ingenieros militares en las labores de planificación y verificación de los nuevos asentamientos del norte de Irlanda, la costa de Coromandel, el este norteamericano y las Antillas. La segunda línea de investigación incursiona en la vida del planificador de Georgetown, destacando su experiencia bélica en los frentes americanos durante la Guerra de los Siete Años (1756-1763). Gracias a su participación en las campañas militares, Patrick Mackellar conoce en primera persona las características del urbanismo practicado por Inglaterra y Francia en los territorios de ultramar, y se dota de un importante bagaje cultural que demostrará cuando, en su definitivo destino como Ingeniero-Jefe en Menorca, acomete la empresa de planificar y diseñar una nueva ciudad. La tercera línea de investigación se centra en el proceso fundacional de Georgetown. La operación basada en razones defensivas consistió en demoler un asentamiento surgido a los pies de la principal fortaleza de la Isla, y trasladar la morada de sus casi cuatro mil pobladores a una enclave prudentemente alejado de la fortificación. Llamada Vila Jordi por sus primeros moradores, Georgetown resultó un excelente ejemplo de pragmatismo urbanístico. La plaza central o génesis del asentamiento, se ubicó sobre una pequeña meseta portuaria que ya había sido elegida por un ingeniero militar galo durante la dominación francesa de la isla y se aprovechó el trazado de una antigua vía de comunicación territorial como eje longitudinal del nuevo conjunto urbano. Igualmente, el reparto de suelo se realizó en función del tamaño de las parcelas existentes en el pueblo anterior. Sin embargo, la atención a las gentes y a una geografía del lugar marcada por la costa portuaria, no impidió a Mackellar el desarrollo de un conjunto urbano de calles rectas, paralelas y jerarquizadas trazadas a partir de un espacio central conformado por las edificaciones propias de una ciudadela militar barroca. Tras una comparación formal con otras poblaciones estudiadas, el desarrollo de la tesis analiza, finalmente, los elementos principales de la población, tales como la anchura y distancia de las calles, los edificios cuarteleros y otras construcciones notables, la tipología residencial y la historia de la población en los dos últimos siglos. Como conclusión, el autor considera que el proyecto de Mackellar para Georgetown combina acertadamente las bases empíricas que lo sustentan con una variante del prototipo urbanístico aplicado en la colonización de Nueva Escocia como garantía de la satisfacción de las exigencias de orden y regularidad propias de la planificación militar y del urbanismo dieciochesco. Nacida entre la agonía del Antiguo Régimen y el estallido de las revoluciones americana y francesa, hija del Barroco y madre del urbanismo decimonónico, esta operación urbanística financiada por la corona inglesa fue el fruto de un compromiso, un proyecto de transición. ; The doctoral thesis refers to the foundation process quite unknown, as the first sources are in the archives of London and Paris of the Minorca's town before named Georgetown, nowadays known as Es Castell, planned by the Scottish military Engineer Patrick Mackellar in Mahon's harbour during the second british domination on the island (1763-1782). It is a research work and is structured in 3 parts. First part, it's an approximation to a source of military urbanism developed by Great Britain during the XVII and XVIII centuries, coinciding with the increase of war artillery. This is shown by the influence in the theoretical survey, of France's military supremacy and above all, the versatile labour of Vauban revealed, apart from other issues, by the Guides of Fortifications which were of compulsory study, for the british military engineers during their training. Until the XVIII century, the engineers round about the Board Ordnance had few occasions to create new towns, basically for two reasons. The first, is that England didn't begin its colonial expansion until it had solved its own internal problems, which came to an end with the annexation of Ireland and Scotland. The second, that it's insular status obliged it to base its defence of its territories in the development of a powerful navy. Nevertheless, the english colonial model, based on the commercial companies playing the main part, helped the intervention of the military engineers in the work of verifying and planning the new settlement in North Ireland, the Coromandel Coast, the east part of North America and the Antilles. The second line of research attacked the life of the planner of Georgetown, emphasising his war experience on the american front during the Seven-Year War (1756-1763). Thanks to his partaking in the military campaigns, Patrick Mackellar found out himself the characteristics of English and French development overseas, and he endowed himself with an important cultural knowledge which he revealed when, in his last post as Chief Engineer in Minorca, he undertook the designing and planning of a new town. The third research is centred in the foundational process of Georgetown. The transaction based on defensive reasons consisted in demolishing a settlement at the foot of the main fort of the island, and moves the homes of its almost 4.000 inhabitants to a more prudential area, away from the fort. Named Villa Jordi by its first inhabitants, Georgetown was an excellent example of city planning pragmatism. The central square or genesis of the settlement, was built on a small portside plateau which had already been chosen by a french military engineer during the France's domination of the island and, an old communicating land route, was made use of as an essential longitudinal part of the new urban unit. In the same manner the distribution of the ground was made according to the size of the existing plots in the old village. Nevertheless, the attention to the people and the geographical situation, marked by the port coastland, didn't stop Mackellar developing an urban unit with straight roads, parallel hierarchical layout from a central space, almost exactly like the buildings of a baroque military fortress. After a formal comparison with other populations under study, finally the thesis development analyses the principal elements of the population, like the length and the distance of the streets, the barrack buildings and other notable constructions, the residential types and the history of the population over the last two centuries. Concluding, the author considers that Mackellar's project for Georgetown, succeeds in combining the empirical bases that maintains it with a variation of the urban prototype applied in the colonization of New Scotland as a guarantee of satisfaction for the demand and regularity of a military planning as well as eighteenth century urbanism. Born between the agony of the Old Regime and the outburst of the american and French revolutions, daughter of the Baroque and mother of nineteenth century development, this town planning exploitation financed by the English Crown, was the result of a commitment, a design of the transitional period. ; Postprint (published version)
Tradicionalmente solo las grandes empresas se han vinculado a las Bolsas de Valores para la negociación de sus acciones y demás títulos valores emitidos por ellas. Por consiguiente los requisitos para las cotizaciones y, en general, para las transacciones se han fijado según sus características. Sin embargo, existe una nueva realidad económica que impone la necesidad de abrirle espacio a las micro, pequeñas y medianas empresas (MIPYMES) en el mercado bursátil. Esta realidad esta compuesta por los siguientes hechos: • Este tamaño de empresas ha tomado una gran importancia en la estructura productiva del país. • Las pequeñas y medianas empresas industriales tienen gran potencial exportador. Tienen importantes requerimientos financieros que no se pueden satisfacer exclusivamente en el sistema bancario, ya sea por los costos, por los plazos o por los montos ofrecidos. • Poco a poco se rompe la resistencia al cambio así como al temor de los pequeños y medianos empresarios a dar a conocer su información con la sospecha de darles gabelas a la competencia. • El favorable tratamiento a las acciones. En estas condiciones, la Superintendencia de Valores ha planteado la conformación de un mercado paralelo al tradicional (o primer mercado) que se denomina "Segundo mercado" o "Mercado Balcón", al cual pueden acceder los títulos valores de micro, pequeñas y medianas empresas (MIPYMES) para inducirlas a una ampliación de la oferta de títulos, en beneficio del ahorro y la inversión. Las micro, pequeñas y medianas empresas (MIPYMES), son aquellas que se definen a partir del tamaño de su planta de personal y del tamaño de sus activos ( medidos en salarios mínimos vigentes S.M.L.V ), según la ley MIPYME ( LEY 590 de Julio 10 de 2000. Las MIPYMES representan el 96 % de las empresas existentes en el país, éstas contribuyen con el 63 % del empleo nacional, con el 25 % del PIB, con el 25 % de las exportaciones totales y con el 50 % de los salarios generados de la nación. Los problemas que en general enfrentan las MIPYMES son los siguientes: Acceso limitado al financiamiento y en condiciones desfavorables, deficiencias de administración de sus unidades productivas, complicados procesos de legalización y falta de liderazgo gremial, se presentan disgregados, lo cual ocasiona desinformación de las medidas del gobierno. Con la presente investigación y teniendo en cuenta el marco conceptual anterior, se trata de responder a las preguntas siguientes: 1- ¿ Cómo facilitar a las micro, pequeñas y medianas empresas (MIPYMES) el acceso al capital en condiciones favorables de manera que les permita desarrollar sus proyectos ? 2- ¿ Es el Mercado Balcón, el medio efectivo que ofrece el Mercado Público de Valores, como alternativa de financiamiento para las MIPYMES en Colombia ? 3- ¿ La actual legislación sobre la promoción y participación de las MIPYMES en el mercado de capitales del país, ofrece garantías de participación y desarrollo en ese mercado ? ; Instituto Tecnológico y de Estudios Superiores de Monterrey (ITESM); Corporación Universitaria Autónoma de Occidente ; INTRODUCCIÓN 19 1. MARCO DE REFERENCIA 23 1.1 ANTECEDENTES 23 1.2 DESCRIPCIÓN DEL PROBLEMA 25 1.3 FORMULACIÓN DEL PROBLEMA 26 1.4 JUSTIFICACIÓN DEL PROYECTO 26 1.5 OBJETIVOS DE LA INVESTIGACIÓN 26 1.5.1 Objetivo general 26 1.5.2 Objetivos específicos 27 1.6 MARCO METODOLÓGICO 27 1.6.1 Fuentes de información 27 1.7 MARCO CONCEPTUAL 27 1.7.1 El mercado público de valores 27 1.7.1.1 Ventajas que ofrece el mercado público de 27 valores. 28 1.7.1.2 Definición de inversión 29 1.7.1.2.1 Rentabilidad de la inversión 30 1.7.1.3 Superintendencia de valores 31 1.7.1.4 Registro nacional de valores e intermediarios 32 de la superintendencia de valores. 32 1.7.1.5 Títulos valores 33 1.7.1.5.1 Circulación de los títulos valores. 34 1.7.1.5.2 Clases de endosos 34 1.7.1.5.3 Títulos valores en los cuales se puede invertir 34 1.7.1.5.3.1 Acciones 36 1.7.1.5.3.1.1 Tipos de acciones 37 1.7.1.5.3.1.2 Características de la acción 38 1.7.1.5.3.1.3 Función económica de la acción 38 1.7.1.5.3.1.4 Ventajas que otorga la acción 39 1.7.1.5.4 Bonos y papeles comerciales 39 1.7.1.5.5 Sociedades y tipos de títulos que puede emitir 40 1.7.1.5.6 Pagos a seguir para emitir valores 40 1.7.1.5.7 Exigencias de la superintendencia de valores 40 para autorizar una oferta 40 1.7.1.5.8 Otras opciones de emisión de títulos valores los 41 inversionistas. 42 1.7.1.5.8.1 Inscripción anticipada 42 1.7.1.5.8.2 Segundo mercado 42 1.7.1.5.9 Requisitos especiales que las empresas 44 inversionistas deben cumplir para emitir títulos valores. 44 1.7.1.5.10 Inversionistas institucionales 46 46 1.7.1.5.10.1 Sociedades fiduciarias 46 1.7.1.5.10.2 Operaciones permitidas 47 1.7.1.5.10.3 Operaciones prohibidas 48 1.7.1.5.10.4 Operaciones prohibidas con los recursos del fondo común ordinario. 48 1.7.1.5.10.5 Posibles inversiones 1.7.1.5.10.6 Con recursos propios 1.7.1.5.10.7 Con recursos del fideicomiso 1.7.1.5.10.8 Con recursos del fondo común 1.7.1.5.10.9 De que pueden ser dueños 1.7.1.5.10.10 Posibles inversiones 49 1.7.1.5.10.11 Sociedades administradoras de fondos de pensiones y de cesantías 49 1.7.1.5.10.11.1 Operaciones permitidas 49 1.7.1.5.10.11.2 Operaciones prohibidas 50 1.7.1.5.10.11.3 Posibles inversiones 1.7.1.5.10.11.4 De que pueden ser dueños 1.7.1.5.10.12 Fondos mutuos de inversión 1.7.1.5.10.12.1 Características 1.7.1.5.10.12.2 Objetivos socio – económicos 51 1.7.1.6 Bolsas de valores 51 1.7.1.6.1 Orígenes de las bolsas de valores 52 1.7.1.6.2 Funcionamiento de la bolsa de valores 53 1.7.1.6.3 Características de las bolsas de valores 54 1.7.1.6.4 Funciones de la bolsa 55 1.7.1.6.5 Importancia de las bolsas en el desarrollo económico del país 55 1.7.1.6.6 Inicio de las bolsas de valores en Colombia 1.7.1.6.6.1 ¿Qué razones motivaron la integración de las bolsas de valores de Bogotá, Medellín y Occidente? 1.7.1.6.6.2 ¿Qué beneficios traerá la integración para Colombia, el mercado bursátil, los emisores y los inversionistas? 55 1.7.1.6.6.3 ¿Para qué sirve? 56 1.7.1.7 Compra y venta de títulos valores 56 1.7.1.8 Indicadores bursátiles 57 1.7.1.9 Indicadores para el mercado de renta fija 59 1.7.1.10 Indicadores económicos más utilizados 59 1.7.1.11 Escala de calificación de valores 59 1.7.1.11.1 Escala de certificación para títulos a largo y corto plazo. 60 1.7.2 Matriz para la formulación de estrategia. 62 1.8 MARCO TEÓRICO 64 1.8.1 Teoría Q de la inversión 65 1.8.2 Aspectos generales de la teoría de la valuación de las acciones. 65 1.8.2.1 Valuación de acciones comunes 65 1.8.2.1.1 Crecimiento nulo de los dividendos 67 1.8.2.1.2 Crecimiento constante de los dividendos 68 1.8.2.1.3 Valuación de las acciones con base en el valor futuro de la acción 68 1.8.3 Otras teorías generales sobre costo de emisión y el costo de capital. La estructura óptima de capital 70 1.9 MARCO JURÍDICO 71 1.9.1 Código de comercio 72 1.9.2 Decreto 400 de mayo 22 de 1995 73 1.9.3 Decreto 1200 de diciembre de 1995 75 1.9.4 Ley 590 de 2000 76 2. EXPERIENCIA DE SEGUNDOS MERCADOS EN EL MUNDO 78 2.1 FRANCIA 79 2.2 ESPAÑA 79 2.3 INGLATERRA 79 2.4 VENEZUELA 79 2.4.1 Importancia de la PYMI en el desarrollo económico y social 82 2.4.2 Componentes esenciales para incorporar las PYME al mercado de capitales 82 2.5 COSTA RICA 84 2.6 MÉXICO 85 2.6.1 Antecedentes 87 2.6.2 Definición 87 2.6.3 Propósito 88 2.6.4 Participantes 89 2.6.5 Requisitos de inscripción y mantenimiento 89 2.6.6 Procedimiento para la inscripción de acciones 90 2.6.7 Sistema de operación 90 2.6.8 Reglas básicas de operación 91 2.6.9 Suspensión de operaciones 91 2.6.10 Suspensión de registros 91 2.6.11 Índice de precios 92 2.6.11.1 Expresión matemática 92 2.6.12 Instituciones reguladoras 93 2.6.13 Marco jurídico y normativo 94 2.7 PORTUGAL 94 2.7.1 Requisitos para la emisión de títulos valores 94 2.7.2 Requisitos para la emisión de acciones 95 2.7.3 Requisitos para la emisión de bonos 95 3. CARACTERÍSTICAS PROPIAS DEL SEGUNDO MERCADO 96 3.1 GENERALIDADES 96 3.2 INVERSIONISTAS CALIFICADOS 96 3.3 TÍTULOS A NEGOCIAR 96 3.4 DOCUMENTOS REQUERIDOS PARA HACER PARTE DEL SEGUNDO MERCADO 97 3.5 EL PROSPECTO 98 3.6 PROCESO DE OFERTA PÚBLICA 101 3.6.1 Autorización de la oferta por parte de la superintendencia de valores. 101 3.6.2 Inicio del proceso promocional a través de comisionistas de bolsa, dirigido a potenciales inversionistas poniendo a disposición, información sobre la empresa emisora. 101 3.7 PROCESO DE OFERTA PRIVADA 102 3.8 PERIODICIDAD DE ENVIO DE INFORMACIÓN EN EL SEGUNDO MERCADO 103 3.9 CUADROS COMPARATIVOS ENTRE EL MERCADO PRINCIPAL Y EL SEGUNDO MERCADO 104 3.10 DERECHOS DE INSCRIPCIÓN Y LOS VALORES DE CUOTAS QUE DEBEN CANCELAR LOS EMISORES DEL SEGUNDO MERCADO. 104 3.10.1 Derechos de inscripción 104 3.10.2 Valor de las cuotas 104 3.10.2.1 Costos comparativos al emitir acciones y bonos 105 3.10.3 Periodo de liquidación 105 3.10.4 Derechos por reasignación de oferta pública 106 3.11 INTERMEDIARIOS FINANCIEROS 106 3.11.1 Sociedades comisionistas 107 3.11.1.1 Operaciones permitidas 108 3.11.1.2 Operaciones que pueden realizar por cuenta en el mercado primario. 108 3.11.1.3 Límites de estas operaciones 109 3.11.1.4 Operaciones que pueden realizar por cuenta en el mercado secundario 109 3.11.1.4.1 Segundo mercado 109 3.11.1.4.1.1 Inversionistas que participan 3.11.1.4.1.2 Títulos que pueden emitirse 109 3.11.1.4.2 Principios generales que se deben cumplir cuando se realizan estas operaciones 110 3.11.1.4.3 Límites que deben cumplir estas operaciones 110 3.11.1.5 Posibles inversiones 111 3.11.1.6 Inversiones prohibidas 111 3.11.2 Sociedades administradoras de inversión 112 3.11.2.1 Operaciones permitidas 112 3.11.2.2 Posibles inversiones 112 3.11.2.3 Límites de las administradoras de inversión 113 3.11.3 Sociedades fiduciarias 114 3.11.4 Banca de inversión 114 3.11.4.1 Actividades principales de la banca de inversión 115 4. EXPERIENCIA DEL SEGUNDO MERCADO EN SANTIAGO DE CALI 115 4.1 EXPERIENCIA DE LA BOLSA DE VALORES DE COLOMBIA 115 4.1.1 Motivos de la poca efectividad del segundo mercado en Santiago de Cali 115 4.1.1.1 Motivos Operativos 116 4.1.1.2 Motivos macroeconómicos 117 4.1.1.3 Motivos mesoeconómicos 117 4.1.1.4 Motivos macroeconómicos 119 4.1.1.5 Motivos del mercado 119 4.1.1.6 Motivos coyunturales Valle del Cauca 121 5. PLAN ESTRATÉGICO Y MERCADEO PARA LA REACTIVACIÓN DEL SEGUNDO MERCADO 121 5.1 CARACTERÍSTICAS GENERALES DEL ENTORNO DE LAS MIPYME EN SANTIAGO DE CALI 125 5.1.1 Entorno económico 126 5.1.1.1 Crecimiento económico 126 5.1.1.2 Comportamiento del sector industrial en el Valle del Cauca 127 5.1.1.3 Comportamiento del comercio en la ciudad de Cali, primer trimestre de 2000 128 5.1.1.4 Inversión neta de capitales en sociedades de Cali, enero – mayo de 2000 132 5.1.1.4.1 Índice de desempeño patrimonial de las sociedades de Cali 132 5.1.1.4.2 Concordatos 132 5.1.1.5 La inflación en Cali 133 5.1.1.6 Sector Externo 134 5.1.1.7 Política fiscal 135 5.1.2 Tamaño del mercado 140 5.1.3 Fuentes de financiación 141 5.1.3.1 Entidades (actores) públicas financieras 143 5.1.3.2 Entidades (actores) privadas financieras 143 5.1.3.3 Entidades (actores) públicas no financieras 149 5.1.3.4 Entidades (actores) privadas no financieras 151 5.1.3.5 La ley MIPYME y el entorno favorable a la creación 152 5.1.3.6 de nuevas empresas en Colombia. 160 5.1.3.7 Productividad 160 5.1.3.8 Tasas de Interés de colocación y captación 161 5.1.3.9 Entorno legal 161 5.1.4 Cultura bursátil 161 5.1.5 Entorno competitivo 161 5.1.5.1 Amenaza de nuevos entrantes 164 5.1.5.2 Poder del cliente 166 5.1.5.3 Amenazas de productos sustitutos 169 5.1.5.4 Poder de los proveedores 169 5.1.5.5 Rivalidad entre competidores 169 5.2 ANÁLISIS INTERNO 171 5.2.1 Definición de segundo mercado 171 5.2.2 Portafolio de servicios 173 5.2.3 Difusión 174 5.2.4 Dirección y manejo 174 5.2.5 Operación 174 5.2.6 Recursos 175 5.3 DIAGNÓSTICO 175 5.3.1 Oportunidades y amenazas 175 5.3.1.1 Amenazas 176 5.3.1.2 Oportunidades 176 5.3.1.3 Matriz de evaluación del factor externo (EFE) 176 5.3.2 Fortalezas y debilidades 177 5.3.2.1 Debilidades 177 5.3.2.2 Fortalezas 177 5.3.2.3 Matriz de evaluación del factor interno (EFI) 177 5.3.3 Matriz TOWN (DOFA) 177 5.4 PLAN ESTRATÉGICO Y DE MERCADO 178 5.4.1 Objetivo del plan estratégico y de mercado 179 5.4.1.1 Objetivo general 179 5.4.1.2 Objetivos específicos 179 5.4.2 Estrategias y programas 179 5.4.2.1 Disminución de costos 180 5.4.2.2 Fondo de garantías 182 5.4.2.3 Emisiones conjuntas 182 5.4.2.4 Vinculación de los inversionistas al segundo mercado. 182 5.4.2.4.1 Inversión del 1% de utilidades 182 5.4.2.4.2 Market makers 183 5.4.2.5 Captación de MYPIMES con apoyo de gremios y asociaciones. 183 5.4.2.5.1 Difusión y sensibilización de MIPYMES 184 5.4.2.5.2 Difusión y sensibilización a inversionistas institucionales 190 5.4.2.5.3 Capacitación y seguimiento a MIPYMES 196 5.4.3 Control 200 5.4.4 Cronograma de actividades 204 5.4.5 Caso práctico de apalancamiento (endeudamiento), con emisión de acciones o acudir a la consecución de pasivos. 207 CONCLUSIONES RECOMENDACIONES BIBLIOGRAFÍA ENTREVISTAS ANEXOS 208 ; Maestría ; Traditionally, only large companies have been linked to the Stock Exchanges to negotiate their shares and other securities issued by them. Consequently, the requirements for quotes and, in general, for transactions have been set according to their characteristics. However, there is a new economic reality that imposes the need to open space to micro, small and medium-sized enterprises (MIPYMES) in the stock market. This reality is composed of the following facts: • This size of companies has become very important in the country's productive structure. • Small and medium-sized industrial companies have great export potential. They have important financial requirements that cannot be satisfied exclusively in the banking system, either due to costs, terms or the amounts offered. • Little by little, the resistance to change is broken, as well as the fear of small and medium-sized entrepreneurs to disclose their information with the suspicion of giving away to the competition. • The favorable treatment of the shares. Under these conditions, the Superintendency of Securities has proposed the formation of a market parallel to the traditional (or first market) called "Second market" or "Balcón Market", which can be accessed by the securities of micro, small and medium-sized companies (MIPYMES) to induce them to expand the supply of securities, for the benefit of savings and investment. Micro, small and medium-sized enterprises (MIPYMES) are those that are defined based on the size of their staff and the size of their assets (measured in current minimum wages SMLV), according to the MIPYME law (LAW 590 of July 10 from 2000. MSMEs represent 96% of the existing companies in the country, they contribute 63% of national employment, 25% of GDP, 25% of total exports and 50% of wages generated from the nation. The problems faced by MSMEs in general are the following: Limited access to financing and under unfavorable conditions, deficiencies in the administration of their production units, complicated legalization processes and lack of union leadership, are disaggregated, which causes misinformation of the measures of the government. With the present investigation and taking into account the previous conceptual framework, the aim is to answer the following questions: 1- How to facilitate access to capital under favorable conditions for micro, small and medium-sized enterprises (MSMEs) so that they can develop their projects? 2- Is the Balcón Market, the effective means offered by the Public Securities Market, as a financing alternative for MIPYMES in Colombia? 3- Does the current legislation on the promotion and participation of MSMEs in the country's capital market offer guarantees of participation and development in that market?
A) Motivation und Problemstellung Der Computer ist heute eines der wichtigsten Hilfsmittel beim Entwurf und der Entwicklung von Fahrzeugen. Zunächst wurde er von Konstrukteuren für das Computer Aided Design (CAD) von virtuellen Fahrzeugmodellen eingesetzt. Inzwischen ist er in vielen anderen Bereichen der Fahrzeugentwicklung unentbehrlich geworden: der Entwicklungszyklus von Automobilen ist durch die Computer-gestützte numerische Simulation substanziell verkürzt worden. An virtuellen Prototypen gewonnene Ergebnisse können zunächst optimiert und anschließend am realen Prototypen validiert werden. Untersuchungen der Fahrdynamik, des Crash-Verhaltens, der Innenraumakustik und der Außenhautumströmung sind nur einige Anwendungsfelder, in denen Computer-basierte Technologien zur Senkung der Entwicklungskosten beitragen. Nach den Vorgaben aus dem Design wird ein Konstruktionsmodell erstellt; die erzeugten CAD-Daten beschreiben die Fahrzeugkomponenten anhand parametrischer Flächen und zusätzlicher Materialinformationen. Um die Daten in numerischen Simulationen verwenden zu können, müssen die Flächenbeschreibungen zunächst diskretisiert werden. Für die Strukturmechaniksimulation wird das CAD-Modell daher in ein Finite-Element-Modell umgewandelt, das dann zum größten Teil aus drei- und viereckigen Schalenelementen besteht. Das Finite-Element-Modell wird in einem Vorverarbeitungsschritt aufbereitet und mit zusätzlichen Daten ergänzt, bevor es dem Simulationsprogramm als Eingabedaten übergeben wird. Nach der meist sehr zeitintensiven Simulation, die für Gesamtfahrzeugmodelle mehrere Tage in Anspruch nehmen kann, liegen als Ergebnis große Datenmengen vor. Diese können aufgrund ihres Umfangs und ihrer Komplexität nur mit ausgereiften Visualisierungswerkzeugen ausgewertet werden. Die Erkenntnisse aus der Simulationsanalyse fließen an den Konstrukteur zurück. So schließt sich der Zyklus, der den virtuellen Prototypen solange iterativ verbessert, bis alle Zielgrößen erreicht werden. Bereits Anfang der achtziger Jahre wurden Strukturanalysen mit Hilfe numerischer Simulation anhand einfacher Balkenmodelle durchgeführt. Die Modellkomplexität geht mit der Leistungssteigerung der Hardware und der Weiterentwicklung der Simulationssoftware einher: die Modellgröße hat sich seitdem alle drei Jahre mehr als verdoppelt. Der Notwendigkeit, dem Entwicklungsingenieur entsprechende Visualisierungswerkzeuge zur Verfügung zu stellen, wurde bisher von den Herstellern der Simulationssoftware mit eigenen Lösungen begegnet. Anfangs entstanden einfache Darstellungsanwendungen, die das Fahrzeug als Gittermodell zeichneten, ohne einen räumlichen Eindruck zu vermitteln; die Applikationen wurden weiterentwickelt, entsprechen jedoch heute in der Regel nicht mehr dem, was im Bereich der Softwareentwicklung und vor allem der Visualisierung Stand der Technik ist. Der Fortschritt durch wissenschaftliche Forschung in der Computergraphik und die Weiterentwicklung der Hardware, insbesondere der Graphiksubsysteme, lässt die Lücke zwischen dem, was in der Visualisierung möglich ist, und dem, was in kommerziellen Produkten zur Datenanalyse angeboten wird, immer größer klaffen. Zudem ist die Wissenschaft im Bereich der angewandten Informatik stets bemüht, Einsatzgebiete zu identifizieren, in denen neu entwickelte Methoden evaluiert und verbessert werden können. Eine enge Zusammenarbeit zwischen Ingenieuren und Wissenschaftlern erscheint daher als sehr vielversprechend und zwingend notwendig. Die vorliegende Arbeit ist im Rahmen einer engen Kooperation mit der Berechnungsabteilung der BMW-Gruppe entstanden. Sie hat zum Ziel, den bestehenden Fahrzeugentwicklungsprozess im Umfeld der Strukturmechaniksimulation zu analysieren und durch Adaption neuer Methoden der Computergraphik aus anderen Bereichen sowie durch Entwicklung neuer Visualisierungstechniken und Interaktionsmechanismen zu beschleunigen. Eine Evaluation der eingesetzten Konzepte soll anhand einer prototypischen Applikation vorgenommen werden. Bisher wurde in der Visualisierung im Bereich der Strukturmechaniksimulation auf Basis von vierseitigen Schalenelementen nur wenig geforscht. Für die Analyse von Crash-Simulationsergebnissen müssen große, zeitabhängige Datensätze effizient verarbeitet werden. Dabei soll die Netzstruktur des Finite-Element-Modells erhalten bleiben, ohne dass dabei auf hohe Interaktionsraten verzichtet werden muss. Eine schnelle Datenaufbereitung spielt dabei eine ebenso wichtige Rolle, wie die Navigation durch das virtuelle dreidimensionale Fahrzeugmodell mit Hilfe der an einem Standardarbeitsplatz vorhandenen Eingabegeräte. Die Weiterentwicklung der Simulationscodes hat es ermöglicht, Teilstrukturen mit Randbedingungen zu versehen, so dass nun Berechnungen an Teilmodellen vorgenommen werden können. In der Karosserieberechnung werden anstatt homogen vernetzter Gesamtmodelle seitdem unabhängig voneinander vernetzte Bauteile zu virtuellen Fahrzeugmodellen zusammengesetzt. Der Netzanschluss benachbarter Bauteile wird nun nicht mehr über das aufwändige Abgleichen und Nutzen gemeinsamer Randknoten hergestellt; stattdessen überlappen die Bauteilnetze in Flanschbereichen, wo sie durch neu entwickelte Verbindungselemente aneinander gebunden werden. Dies hat unter anderem den Vorteil, dass einzelne Bauteile durch Varianten ausgetauscht werden können, ohne dass die Umgebung neu vernetzt werden muss. Wichtige Entscheidungen müssen bereits in der frühen Phase eines Fahrzeugprojektes aufgrund der durch numerische Simulation gewonnenen Erkenntnisse getroffen werden. Das setzt voraus, dass die bis dahin verfügbaren Konstruktionsdaten in rechenbare Simulationsmodelle umgesetzt werden können. Durch die unabhängige Vernetzung einzelner Bauteile und den unterschiedlichen Konstruktionsstand der verschiedenen Fahrzeugkomponenten kommt es nach der Zusammenführung häufig zu Berührungen und Durchdringungen der Bauteilnetze im diskretisierten Finite-Element-Modell. Diese müssen zunächst detektiert und beseitigt werden, da sie ansonsten die Simulationsergebnisse verfälschen würden. Darüber hinaus müssen die Bauteilnetze miteinander durch Verbindungselemente verbunden werden. Da die Konstruktionsdaten in der frühen Phase jedoch keine vollständigen Verbindungsdaten beinhalten, muss der Berechnungsingenieur den Datensatz mit entsprechender Information aufbereiten. Die Vorverarbeitung von Eingabedaten für den Simulationsprozess nimmt angesichts steigender Variantenrechnungen und einer halbwegs automatisierten Standardauswertung der Simulationsergebnisse gegenüber der Nachbearbeitung einen immer höheren Stellenwert ein. Derartige Ergänzungen der Simulationsmodelle mussten bisher mit Hilfe eines Text-Editors direkt an den Eingabedateien vorgenommen werden. Netzfehler und fehlende Anbindungen zwischen Bauteilen konnten lediglich durch Anrechnen des Modells entdeckt werden. Dazu wurde der Simulationsprozess gestartet und nach einiger Zeit wieder abgebrochen. Durch die Analyse der bis dahin berechneten Zwischenergebnisse werden derartige Unzulänglichkeiten des Eingabemodells sichtbar. Vorweggenommene Konsistenzprüfungen machen zeitaufwändige Anrechnungen überflüssig. Weiteres Prozessoptimierungspotenzial liegt in der Integration und Angleichung verschiedener Werkzeuge. Eine enge Kopplung des Simulationsprozesses an die Vor- und Nachbearbeitung der Daten durch ein und dieselbe Applikation, die sowohl Ein- als auch Ausgabedaten verarbeiten kann, schafft die Grundlage für eine schnelle Iteration im Optimierungsprozess und trägt zur angestrebten Reduzierung der vom Ingenieur zu bedienenden Vielzahl von Applikationen bei. In Zeiten fortschreitender Globalisierung und Fusionierung, aber auch durch zunehmendes Outsourcing der Teilmodellerstellung an darauf spezialisierte Dienstleistungsunternehmen steigt der Kommunikationsbedarf über räumliche Grenzen hinweg zusammenarbeitender Entwicklungsteams. Kostenintensive Besprechungen, zu denen sich alle Beteiligten an einem Ort zusammenfinden müssen, können nur durch Verbesserung der bereits vorhandenen Fernkommunikationsinfrastruktur reduziert werden. Da auf die gemeinsame Betrachtung der Modelldaten als Diskussionsgrundlage bei Besprechungen nicht verzichtet werden kann, bietet sich eine netzwerkbasierte Kopplung entfernter Arbeitsplätze an, um kleinere Besprechungstermine durch Telefonate mit zeitgleicher kooperativer Visualisierungssitzung am Arbeitsplatzrechner ersetzen zu können. Ein weiterer Aspekt befasst sich mit der Absicherung der Zuverlässigkeit von Simulationsergebnissen. Um eine Aussage darüber machen zu können, welche Modifikation der Fahrzeugstruktur das simulierte Verhalten positiv beeinflusst hat, müssen zunächst alle Einflussfaktoren, die auf die Simulation wirken, analysiert werden. Dies geschieht in Stabilitätsanalysen, in denen anhand gleicher Eingabedaten die Streuung der Simulationsergebnisse gemessen und die Ursache dafür erforscht wird. Durch konstruktive Maßnahmen soll in Ursprungsbereichen maximaler Streuung das Modell dahingehend modifiziert werden, dass gleiche Eingabedaten zu annähernd gleichen Simulationsresultaten führen. Ziel dieser Arbeit ist, das Pre- und Postprocessing von Strukturmechaniksimulation im Fahrzeugentwicklungsprozess bezüglich neuer Funktionalität und Leistungsfähigkeit durch die Einbeziehung neuer Graphiktechnologien sowie durch die Entwicklung neuer Visualisierungsalgorithmen signifikant voranzubringen. B) Beiträge dieser Arbeit Da die Arbeit in enger Zusammenarbeit mit der Karosserieberechnungsabteilung der BMW-Gruppe entstand und die Forschungsergebnisse direkt von den Ingenieuren an alltäglichen Problemstellungen eingesetzt werden sollten, mussten zunächst Voraussetzungen für eine erhöhte Akzeptanz bei den Anwendern geschaffen werden. Dazu gehören vor allem kurze Ladezeiten der Daten, eine intuitiv zu bedienende Benutzerschnittstelle sowie komfortable Funktionalität, die es ermöglicht, die Aufgaben schneller zu lösen als mit anderen Applikationen. Die Analyse der zu verarbeitenden zeitabhängigen Simulationsdaten und der zum Einlesen zur Verfügung gestellten Bibliothek führte zu einer geeigneten internen Datenstruktur, die eine effiziente Datenaufbereitung erlaubt und damit zu geringeren Start-up-Zeiten führt als bei vielen kommerziell verfügbaren Visualisierungswerkzeugen. Ferner resultiert aus der Evaluation verschiedener Szenengraphbibliotheken unter Berücksichtigung der Rechnerplattform im Anwenderumfeld die Entscheidung zu Cosmo3D / OpenGL Optimizer. Durch die Datenstrukturen und Funktionalitäten der Bibliothek bleibt der Ressourcenbedarf im Zusammenspiel mit einem optimierten Szenengraph-Design im Rahmen dessen, was auf einem Standard-Arbeitsplatzrechner zur Verfügung steht. Zur Beschleunigung der Bildsynthese werden bereits bekannte Verfahren zur Optimierung polygonaler Modelle für die Weiterverarbeitung in der OpenGL Pipeline mit adaptierten Algorithmen verglichen, die unter Berücksichtigung der zugrunde liegenden Daten Quadrilateralstreifen maximaler Länge bilden. Zusätzlich wird der Einsatz verschiedener Detailstufen im CAE-Umfeld untersucht und eine Lösung zur deutlichen Steigerung der Bildwiederholrate während der Navigation durch das Finite-Element-Modell präsentiert. Durch die Entwicklung und Evaluation Textur-basierter Visualisierungsverfahren werden deren Vorzüge anhand verschiedener Beispiele aus dem Berechnungsumfeld verdeutlicht. Daraus lässt sich die Notwendigkeit ableiten, Standard-Arbeitsplatzrechner in Zukunft mit entsprechender Graphik-Hardware auszustatten, um von den Möglichkeiten moderner Visualisierungsalgorithmen profitieren zu können. Im Rahmen der vorliegenden Arbeit wurde die Möglichkeit geschaffen, nach dem interaktiven Zusammenführen der Modellkomponenten aus verschiedenen Datenquellen auftretende Netzfehler zu visualisieren und selektiv zu beheben. Dazu kommen auf hierarchischen Datenstrukturen basierende Algorithmen zum Einsatz. Verbunden mit Methoden zur Darstellung und interaktiven Modifikation von Verbindungselementen sowie der Detektion fehlerhafter Schweißpunktdaten wird die Grundlage geschaffen, um Finite-Element-Modelle für die Crash-Simulation effizient aufzubereiten und die Modellerstellung für Variantenrechnungen stark zu vereinfachen. Speziell auf die Bedürfnisse der Berechnungsingenieure zugeschnittene Interaktions- und Navigationsmechanismen sowie frei bewegliche Clip-Objekte erleichtern den Umgang mit den Modelldaten. Durch die Entwicklung dreidimensionaler Selektionsobjekte und eine effiziente Schnittkraftberechnung steht die Kraftflussvisualisierung mit Hilfe dynamischer Kraftflussröhren nun auch als interaktives Analysewerkzeug im Postprocessing zur Verfügung. Die Berechnung der notwendigen Größen im Batch-Betrieb und die anschließende Zwischenspeicherung in einem eigenen Dateiformat ermöglicht die Standardauswertung von festgelegten Kraftflussverläufen im Anschluss an die Simulation. Dies trägt weiterhin zur Beschleunigung und Automatisierung der Nachverarbeitung bei. Mit der Entwicklung eines Bild- beziehungsweise Filmgenerators konnte mit Ergebnissen dieser Arbeit zur Entwicklung eines Integrationswerkzeuges für die Ablaufsteuerung und das Datenmanagement in der Karosserieberechnung beigetragen werden. Es werden zwei Lösungen für Szenarien einer kooperativen Sitzung mit mehreren Rechnern präsentiert. Die Ergebnisse zeigen auf, wie zeitaufwändige Treffen zwischen Ingenieuren durch Telefonate mit gleichzeitiger kooperativer Visualisierungssitzung ersetzt werden können. Das vorgestellte Verfahren zur Stabilitätsanalyse von Simulationsprozessen hilft, Ursprünge von Instabilitäten aufzudecken und die Aussagekraft der Simulationsergebnisse verbesserter Modelle zu erhöhen. Durch diese Arbeit ist eine prototypische Visualisierungsplattform für die Vor- und Nachbereitung von Strukturmechanikdaten namens crashViewer entstanden. Das objektorientierte Softwaredesign des Prototypen erlaubt die Integration weiterer Datenformate sowie die Implementierung neuer Algorithmen zu deren Evaluation im produktiven Einsatz in der Karosserieberechnung, aber auch in anderen CAE-Bereichen. C) Gliederung der Arbeit Im Folgenden wird ein Überblick über den Aufbau dieser Arbeit gegeben, woraus der Zusammenhang der Kapitel untereinander hervorgeht. Kapitel 2 motiviert die Entwicklung einer in die Simulation integrierten Vor- und Nachverarbeitungsapplikation. Zu Beginn führt das Kapitel in das breite Feld der digitalen Fahrzeugentwicklung ein. Das Umfeld der Crash-Simulation wird detaillierter betrachtet, wodurch ein Fundament für ein besseres Verständnis der darauffolgenden Kapitel geschaffen wird. Kapitel 3 gibt einen Überblick zu den Grundlagen der interaktiven Computergraphik und der Visualisierung. Darüber hinaus werden die der Crash-Simulation zugrunde liegenden Daten beschrieben, indem zunächst die Strukturen, aus denen sich ein Gesamtfahrzeugmodell im Allgemeinen zusammensetzt, erläutert werden und anschließend auf die Datenformate der Simulationseingaben beziehungsweise der Simulationsergebnisse eingegangen wird, um die breite Spanne der zu verarbeitenden Daten zu beleuchten. Kapitel 4 präsentiert ein effizientes Szenengraph-Design für zeitabhängige Finite-Element-Modelle mit invarianter Topologie. Dazu werden die notwendigen Grundlagen der verwendeten Graphikbibliotheken vermittelt und Erweiterungsmöglichkeiten diskutiert. Kapitel 5 erläutert die Architektur des im Rahmen dieser Arbeit entstandenen Prototypen und gibt einen Überblick über entwickelte Interaktionsmechanismen zur effizienten Datenanalyse. Kapitel 6 diskutiert verschiedene Verfahren zur Darstellungsbeschleunigung. Während sich die Quadrilateralstreifengenerierung und die Simplifizierung mit der Optimierung der modellierten Geometrie für eine effiziente Verarbeitung in der Graphik-Hardware auseinandersetzt, zeigt der letzte Teil dieses Kapitels, wie durch den Einsatz von Texturen zusätzliche Geometrieverarbeitung überflüssig wird. Kapitel 7 stellt spezielle Funktionalitäten für die Vorverarbeitung von Eingabemodellen vor. Außer der in verschiedenen Bereichen eingesetzten Distanzvisualisierung wird das interaktive Modifizieren von Schweißpunktdaten und die Parameterübertragung zwischen inkompatiblen Gittern erläutert. Kapitel 8 veranschaulicht Konzepte für die Nachverarbeitung von Simulationsergebnissen. Es werden Techniken zur Visualisierung skalarer und vektorieller Größen präsentiert. Darüber hinaus werden die interaktive Kraftflussvisualisierung und die Darstellung von Instabilitäten in Simulationsergebnissen betrachtet. Die CORBA-basierte Erweiterung zum gemeinschaftlichen Arbeiten räumlich getrennter Anwender, sowie die Batch-basierte Bild- und Film-Generierung von Strukturmechanikdaten schließen die Vorstellung der im Rahmen dieser Arbeit neu entwickelten Methoden ab. Kapitel 9 stellt die Ergebnisse dieser Arbeit in einen Kontext. An Beispielen aus dem produktiven Entwicklungsprozess werden die erzielten Fortschritte verdeutlicht und die Akzeptanz bei den Anwendern kritisch beleuchtet. Abschließend wird ein Überblick über weiterführende Arbeiten gegeben, die auf den vorliegenden Ergebnissen basieren. ; This thesis presents visualization techniques and interaction concepts that have been developed for the pre- and post-processing of structural mechanics. This work was done in cooperation with the crash simulation department of the BMW Group. The automotive industry's main goal is ensuring its share of a global market, which is becoming ever more competitive and dynamic. On the one hand, product quality has to be increased in relation to fuel consumption, weight, and passive safety. On the other hand the development process needs to be streamlined in order to reduce development costs and time to market. These objectives are hoped to be achieved by making extensive use of virtual prototyping. The vehicle development process has completely changed during the past two decades. In the early eighties finite element analysis found its way into the simulation of structural mechanics in the German automotive industry. Initially developed for military purposes, in 1983 a group of engineers of several automotive companies started feasibility studies based on finite element models containing less than 5,000 beam elements. Seven years later productive results of finite element analysis in structural mechanics started to influence car body development. In the second half of the nineties important project decisions were made during the early phase of the development process based on a deeper insight into crash behavior provided by crash-worthiness simulation results. Today, numerical simulation is an indispensable part of the computer aided product development chain in the automotive industry. After the design of a new car model is completed, a digital model is constructed by means of computer aided design (CAD). In a meshing step the created parametric surfaces defined by spline curves are discretized. The results describe the geometry of the car body by finite elements, for crash simulation mainly three- or four-sided shells but also beams and volumetric elements. The finite element model is completed, for example, with material properties, contact information, and boundary conditions. This is done in a preprocessing step. Once the simulation input data is available, the whole model is handed over to the simulation process which takes about one or two days using massive parallel processing. The deformation is recorded in a large result file. Commonly, the first 120 milliseconds of a crash are simulated and each two-thousandth time step is stored. A time step of less than one microsecond leads to a result file containing more than sixty snapshots. Typically, physical data such as acceleration, velocity, displacement, and forces per nodes or thickness, stress, strain, and other energies per element are recorded. During post-processing the information is analyzed in order to evaluate crash-worthiness. The feedback provided for the construction department closes the loop when all goals set for the car body structure have been attained. The virtual car body development in the pre- and post-processing of crash simulation divides into two main phases: (1) In the concept phase, new ideas are discussed and evaluated in order to reach a priority objective like minimizing car body weight. Only few people per car project are involved for a period of 12 to 18 months in this first stage. (2) After the basic decisions have been made regarding new concepts, a second phase follows which compromises all other fields to refine those concepts with respect to other objectives coming from the area of stability, dynamic or NVH. This phase requires many engineers from different departments for a period of more than 30 months to optimize the product. The later undesirable properties are revealed the higher the cost will be for the then necessary changes. Until the late nineties transitions between adjacent car body parts were modeled as two finite element meshes that share common nodes at the border. Each time a car body part was replaced by an optimized variant in order to enhance the crash behavior either the whole car model had to be re-meshed or border nodes had to be adapted manually. Therefore, preparing such variant models was a very time consuming task. After simulation codes like PAM-CRASH were able to simulate car body connections like for example spotwelds, finite element models became more like their counterparts made of steel. Now, a flange is constructed, along which adjacent car body parts can be connected without sharing common nodes. This allows for an independent meshing of car body parts and therefore for more variant computations. However, independent meshing lead to mesh penetration or even perforation in flange areas when inhomogeneous meshes are assembled. Thus, a new task arose for preprocessing where those mesh errors have to be removed in order to avoid error-prone simulation results. On the post-processing side, large time-dependent data sets require dedicated visualization methods that help the engineers to interpret the huge amount of data at interactive frame rates. Therefore, finite element meshes need to be prepared for an optimized processing in the graphics pipeline. Typical types of data that have to be visualized are scalar values, vectors, tensors or any combination thereof. In 1997, when most of the commercial visualization tools provided by solver companies as add-on to the simulation software could no longer provide state-of-the-art graphics, a demand arose for new visualization techniques available for productive use. Besides, the growing throughput caused by an increasing number of car body variants and the acceleration of computation hardware allowing more optimization cycles, made it necessary to automate as much processing steps as possible. The growing outsourcing of development tasks to suppliers and the number of merges in the automotive industry, which entail cooperation of corresponding departments at different sites, require a client-server-solution for cooperative work. Finally, the simulation community is concerned about the validity of their results compared to real crash-tests. It is important to detect and minimize the sources of scattering in the results originated by the simulation model or process. This is also a precondition for stochastic simulation, which is used in order to optimize the crash behavior by varying input parameters. The goal of this thesis is to provide solutions to some of the issues just stated. First of all, the applicability of different scene graph APIs is evaluated for large time-dependent data sets. APIs such as Performer or Cosmo3D / OpenGL Optimizer have been developed to take advantage of multiprocessing. Those APIs can perform model optimization during scene graph creation and benefit from multiprocessing using frustum culling and occlusion culling while traversing the scene graph to increase frame and interaction rates. Because of the large time-dependent databases and the limited memory of the workstations an efficient scene graph design is very important in order to handle the complex data interdependencies and to achieve high rendering speed. While five years ago the models consisted of about 250,000 finite elements with nearly the same number of nodes, today the size of the models has almost quadrupled. Since the element topology does not change in crash simulation, the connectivity of the finite elements needs to be stored just once. An index set representing the topology is shared across the sub-graphs of all time steps. A Gouraud shaded surface requires to do the edge detection on the state where geometry is deformed most, which is in general the last one. In order to minimize memory consumption, the index set is used for both coordinates and normals. Therefore, coordinates at vertices with multiple normals need to be added once per normal. Other scene graph nodes, e.g. the one specifying the appearance, can also be shared. Handling triangular elements as degenerate quadrilaterals allows to represent a mesh of three- and four-sided shell elements in one scene graph node. The prototype application named crashViewer, which was implemented to evaluate the methods developed in this thesis, uses Cosmo3D / OpenGL Optimizer for historical reasons: this bundle had been presented as predecessor of the 1997 announced Fahrenheit project, which was aborted two years later. Nevertheless, the proposed scene graph design allows to visualize 60 time steps of a model containing half a million elements and the same number of nodes with a memory consumption of 360 MB (flat-shaded) or 970 MB (Gouraud-shaded), provided that a crease angle of 20 degree leads to 40% more normals than vertices. One basic requirement for an interactive visualization application is that the frame rate does not fall below an acceptable minimum threshold. What "acceptable" means depends on data and experience with other tools. Generally speaking, visualization data should be rendered as fast as possible. For this reason, one aim of this work is to point out methods to optimize the finite element meshes' rendering acceleration. Two approaches are examined: (1) concatenation of adjacent elements to reduce data redundancy during geometry processing and (2) mesh simplification to remove information that does not significantly influence the shape of a car body part. Although OpenGL Optimizer provides a tri-stripper (opTriStripper) that is able to convert any polygonal mesh into strips of triangles, it is not applicable in this field because the original mesh structure should still be visible in wireframe mode. Hence, a quadrilateral stripper was developed, which analyses the mesh structure and generates many parallel bands of maximum length. As a matter of fact, quad-strips are not as versatile as tri-strips because each turn costs two extra vertices. However, compared to opTriStripper's reduction to 63.5% the proposed bandification algorithm reduces the number of referenced vertices to 54% of an unstripped representation averaged over 3,274 car body parts. Depending on the availability of vertex arrays the bandification leads to a rendering speed-up factor of about 4.5 without and 1.7 with vertex arrays in comparison to the unstripped geometry. In order to achieve even higher frame rates during camera interaction, a two-stage level-of-detail concept is developed. In addition to a fine level displaying the original mesh resolution, which is essential for the visualization in pre- and post-processing of structural mechanics simulation, a second level with coarse triangles is used as intermediate model for camera movement. Each time the user modifies the view, a previously simplified mesh is rendered until the camera parameters are no longer changed. Then the finer level of detail is displayed. An simplification algorithm was implemented which uses the one-sided Hausdorff distance as an error measure and which is compared to the Successive Relaxation Algorithm provided by OpenGL Optimizer as opSRASimplify. Aside from the interface opSRASimplify, which turns out to be unsuitable for getting an optimal decimated mesh with respect to a predetermined error tolerance, the resulting mesh quality is not as high as with the new HECSimplify simplifier. Breaking the error criterion can be avoided by defining an appropriate cost function for opSRASimplify, which causes less triangles to be removed compared to HECSimplify. If the decimation target is specified to achieve the same level of reduction, then the resulting triangle mesh contains gaps and the model appears distorted. Different car body models are reduced to 9-18% of the original number of triangles applying HECSimplify. This leads to a rendering speed-up factor of between 3.4 and 6.7. There is a trade-off between rendering speed and memory consumption. HECSimplify only applies half-edge collapses to the polygonal mesh. These operations just modify the topology, not the vertex coordinates. Therefore, the original and the reduced mesh are able to refer to the same set of coordinates. On the one hand, coordinate set sharing requires less memory, on the other hand the speed-up factor of a model that could be reduced to 9% of the original triangles is far away from 11. Both modules, the quad-stripper and the simplifier, are embedded into the Cosmo3D / OpenGL Optimizer framework by providing corresponding action objects and new scene graph nodes. Furthermore, the scene graph API was extended by several other new objects to overcome the restrictions with line picking or to provide new functionality. For example, the csClipGroup node enables the user to control a freely movable clip-plane, which affects only the underlying scene graph. This provides better insight into heavily deformed car body structures. Another form of clipping that is developed within this thesis uses one-dimensional RGBA texture maps in order to hide geometry that should not be displayed under certain conditions. This visualization method can be used, for example, to mask out those model regions that do not correspond to a given critical value range. In combination with distance values to adjacent car body parts the rendering can be restricted to potential flange regions of the model. For that purpose, first of all the parameter has to be transformed into a texture coordinate with respect to the specified parameter range. Then, a color scale is defined as a texture map. Using the GL_DECAL environment the color coding can be limited to regions of certain value ranges. Using the same mechanism in the GL_MODULATE environment with the alpha-test enabled allows for clipping the geometry where the corresponding values map into texture regions with an alpha component set to be fully transparent. This technique facilitates the accentuation of critical structures, because the user is able to interactively modify the texture map or the texture lookup table, if an index texture is used to control the visualization. As stated above, the most important change in finite element modeling for crash simulation was the introduction of independently meshed car body parts. Since the assembly of such inhomogeneous meshes may include perforations or penetrations, for example, caused by a shifted discretization along curved flanges, there was a growing demand for an interactive method to detect and remove this kind of mesh errors. Perforating regions can be detected by applying collision detection to the finite element model. Efficient collision detection as proposed by Gottschalk et al. requires hierarchical sub-structuring of the car body model. Consequently, in this study, each car body part is subdivided by a bounding volume tree (BVT). Different bounding volume types are tested: spheres, axis-aligned (AABB), and object-oriented bounding boxes (OBB). For perforation detection, where computation-intensive element-element-intersection tests are necessary at the lowest BVT level, OBBs turn out to be most efficient because they are very tight positioned around the element structure. Hence, downward traversals in the BVT can be terminated early because any one of 15 separating axes that defines a plane disjoining both volumes can be found. In order to detect penetrating nodes the minimum node-element-distances need to be computed. The BVT traversal algorithm is adapted appropriately. Children of a BVT node are visited only if their distance falls below a specified maximum distance of interest. Penetrating node-element-pairs are collected in a list for subsequent visualization. Using an interface to the original PAM-CRASH algorithm for penetration removal it is possible to provide the desired interactive mechanism that allows the engineers even to restrict mesh modification to selected car body parts. This is a big advantage over starting the simulation until initial forces move penetrating nodes apart from penetrated elements and restoring the computed mesh modification in the input data deck. First, the interactive method gives direct feedback and the engineers do not have to switch tools. Second, during the optimization of the car body structure by replacing single car body parts by variants this procedure enables the engineers to keep everything but the variant part fixed. Thus, only the nodes of the incoming part are aligned to its neighborhood and the confined modification makes it easier to compare the results of two simulations runs. What is more, the bounding volume hierarchy provides beneficial effects on many other tasks in pre- and post-processing of crash-worthiness simulation. It can be used to detect and follow flanges automatically or to spot flange regions that have only been inadequately connected. A basic task is the verification of connecting elements. For example, a spotweld must not exceed a maximum distance to those parts it should connect. Otherwise, a pending spotweld may suspend the simulation run delaying the development process and raising costs. In this study, several criteria for the validation of connecting elements are elaborated. Erroneous spotweld elements are emphasized by different colors and/or geometry. The engineers are successively guided to each problematic connection. Without this feature it would not be possible to find these model errors in such a short time. Furthermore, a method is developed that enables the computation engineers to effectively add missing connection information by means of spotwelds to the input model. Thus, it becomes even practicable to start with crash-worthiness simulations before detailed connection data is available from CAD data. One aim in virtual vehicle development is to combine the results of several areas in numerical simulation. In order to map the real development chain closely onto the virtual one, material properties influencing preliminary steps like forming have to be considered. For example, a deep-drawn blank sheet has a lower thickness in areas of high curvature than in other areas. As long as the material of a car body in crash simulation is assumed to be constant the before mentioned manufacturing influences cannot be properly represented. A hardware-based method is developed in this thesis for the efficient mapping of any type of data between incompatible meshes that are geometrically congruent. It utilizes the transformation and interpolation capability of the graphics subsystem. Element identifiers of one mesh are color-coded. For each element of the other mesh the view matrix is set up appropriately and the visible part of the first mesh is rendered. The colors that represent the element IDs can be read back into main memory. After the correlation between elements is finished in graphics hardware, the values are finally transfered in software. The post-processing of crash-worthiness simulation results necessitates the handling of large data sets. Since a binary result file may contain 2 GB of data but an engineer's workstation often is limited to 1 GB of main memory these boundary conditions need to be considered while designing data structures and algorithms of visualization software for this application area. On the other hand, interactivity and high rendering performance is a precondition to obtain acceptance by the user. The required tool should provide interaction mechanisms that assist the user in exploring and navigating through the data. Mainly, it should help to interpret the data by making the invisible visible. Besides an effective scene graph design, in this study, the internal data structures of the developed prototype application have been implemented with memory consumption in mind. Parameter transfer in post-processing is done state by state very fast by pointer-based data structures. The extensive use of texture mapping enhances the rendering performance. Visualization techniques are proposed that use textures for the direct mapping of scalar values onto the car body geometry, for the animated display of vector data, and for the visual discretization of the finite element mesh in the form of a wireframe texture map. All these approaches spare the transformation stage of the graphics pipeline additional processing of vertex-based data. For example, the traditional display method for shaded geometry with visible element borders is two-pass rendering, which halves the frame rate. The application of a black-bordered luminance texture, which is white inside, onto each geometric primitive balances the load between geometry and texture unit. Also, the encoding of a vector's direction by applying an animated texture onto a line reduces geometry load and leaves the underlying structure mostly visible in contrast to conventional vector visualization with arrows. Force flux visualization, first presented by Kuschfeldt et al. gives an overview over which components of the car body model absorb or transfer forces. It is necessary to detect and to understand the force progression within the car body structure. For example, the longitudinal structures within the front part of a car body play an important role for increasing the ability of the body to absorb forces in a frontal crash. Force flux visualization enables the engineers to design car components with an optimal crash behavior. This technique was made available for interactive daily use in crash simulation analysis. Providing a dedicated interaction mechanism, the prototype application allows to interactively define a trace-line along which the force flux can be visualized. For each section plane positioned in small intervals perpendicular along the trace-line the simulated node forces are accumulated. The resampling is accelerated by utilization of the bounding volume hierarchy. Each section force sum is then represented by color and radius of one ring of a tube around the trace-line. The dynamic trace-line definition aligns the force tube to the deforming structure of the analyzed car body part, for example, a longitudinal mounting. The specified trace-lines can be stored in order to precompute force tubes off line. This can be done by another prototype application in batch processing after simulation has finished. During a visualization session the precomputed values can be directly converted into time dependent force tube representations. The decoupling of time consuming computation and the interactive visualization further accelerates the analysis of crash-worthiness simulation. Starting multiple simulation runs with the same input data deck will produce different results. The scattering in results has to be minimized in order to be able to evaluate the influence of structure modifications. This work presents a method to detect and visualize instabilities of the simulation. The above stated texture-based visualization points out sources of instability and helps the engineers to determine if a branching is caused by the model structure or if it was originated by the solver. The pros and cons of different measurement functions are discussed. Furthermore, a CORBA-based synchronization of multiple viewers displaying different data sets is presented. This allows to analyze the simulation results of one run in direct comparison to those of other runs. It is very useful to view the differences in crash behavior of multiple car body models on one workstation. Moreover, this functionality can be used in combination with a telephone call to supersede a meeting between a computation engineer and his external supplier. The visualization is done locally on each client. Providing that data and software is available at each participating client, the only data that have to be transferred during a cooperative session are the events triggered at the steering master-client and propagated to one or more slave-clients. A master token decides which participant is able to send generated events to the other instances. This mechanism avoids conflicting camera control when multiple users try to modify their view at the same time. Another approach describes how an image-based client-server model can be used in this context. After a frame has been rendered on the server, it is encoded to reduce the amount of data. The encoded image stream is transferred to any client that is able to decode and display. There are less requirements for the client but the connection needs to provide a certain bandwidth. This scenario can also be used for remote visualization. The prototype crashViewer can be connected to a Java applet running inside a web-browser. Finally, a method for standardized analysis of crash-worthiness simulation is presented. A batch-processing prototype application has been developed to generate digital movies using a predetermined camera path. The contributions of this thesis aim at further acceleration of the virtual vehicle development process, for example, by introducing new interaction mechanisms, making extensive use of hierarchical data structures, using hardware-accelerated visualization techniques, and providing solutions for process automation.