Die Forderung, alle »Schulen ans Netz« zu bringen, ist in der öffentlichen Diskussion weit verbreitet, und in den politischen Bestrebungen zu ihrer Umsetzung werden erhebliche finanzielle Mittel aufgewendet. Gleichzeitig wenden viele Eltern eine Menge Geld auf, um ihren Kindern zu Hause die besten Computer und die neueste Lernsoftware bieten zu können. Dies alles geschieht in der Hoffnung, die Bildungschancen der Schülerinnen und Schüler zu verbessern. Umfangreiche Analysen der internationalen PISA-Daten deuten aber darauf hin, dass diese Hoffnung weitgehend vergebens ist. Die Verfügbarkeit von Computern zu Hause und die intensive Nutzung von Computern in der Schule gehen nicht mit besseren, sondern zumeist sogar mit schlechteren Schülerleistungen in den PISA-Basiskompetenzen einher. Damit zeigt sich wie schon für die in der letzten Ausgabe des ifo Schnelldienst betrachtete Verkleinerung der Klassengrößen, dass das Heil der deutschen Bildungspolitik wohl nicht in einer kostenintensiven Politik der Ausweitung der in den Schulen verfügbaren materiellen Ressourcen zu suchen ist. Mehr versprechen da schon die in den nächsten beiden Ausgaben des ifo Schnelldienst in den weiteren Folgen der Serie »Ökonomische Beiträge zur Schuldebatte« untersuchten instiutionellen Reformen des Schulsystems.
1971 geht mit dem ORAKEL im WDR ein Sozialexperiment auf Sendung, mit dem die partizipative Demokratie mithilfe der neuen Medien – Telefon, Fax, Fernsehen und Computer – erprobt werden soll. Konzipiert von Helmut Krauch, der mit der Heidelberger Studiengruppe für Systemforschung seit Beginn der 1960er Jahre Zukunftsforschung auch im Auftrag der Bundesregierung betreibt, orientiert sich das ORAKEL an der von RAND-Forschern in den USA entwickelten Delphi-Methode. Krauch zufolge stellt das Format einen ersten Schritt auf dem Weg in eine Computer-Demokratie dar, deren kurze Geschichte hier nachgezeichnet wird. ; In 1971, the WDR broadcasts the show ORAKEL as a social experiment to test participatory democracy using the new media – telephone, fax, television and computer. Developed by Helmut Krauch, who has been conducting futures studies on behalf of the German government with the Heidelberg Study Group for Systems Research since the early 1960s, ORAKEL is based on the Delphi method developed by RAND researchers in the United States. According to Krauch, the format represents a first step on the way to- wards a computer democracy, the short his- tory of which is traced in this article.
Wie entwickelten sich Computer Games? Wie kann man das Spiel verändern und seine Regeln umgehen? Darf man Spiel-Charaktere auf eBay verkaufen? Können Computerspiele als Mittel politischer Kommunikation dienen? Julian Kücklich ist diesen und weiteren Fragen nachgegangen.
In diesem Buch geht es um die vielfältigen und komplexen Wechselwirkungen zwischen dem Einsatz von Informationstechnik und sozialen und organisatorischen Zusammenhängen. Es geht um die tiefgreifenden Prozesse des gesellschaftlichen, kulturellen, ökonomischen und politischen Wandels von der individuellen bis zur globalen Ebene. Eine zentrale These des Buches ist: Digitalisierung und Internet können uns auf den Pfad verschärfter Ökonomisierung vieler Lebensbereiche führen oder aber zu mehr Selbstbestimmung, Partizipation, Kooperation und "Common Goods". Die Option lautet: Wissensökonomie oder Wissensgesellschaft. Die Informationstechnik schreibt uns nicht vor, welchen Pfad wir gehen müssen. Zu diesem Zweck werden Entwicklungspfade analysiert, Risse, Wechselwirkungen und Gestaltungsoptionen aufgezeigt. Die Metapher MIKROPOLIS – eine Zusammenfügung von Mikroelektronik und Polis – verweist auf die Herausforderung, die Wechselwirkungen zwischen sozialen und technischen Implikationen bei der Schlüsseltechnologie Informationstechnik in den Mittelpunkt zu stellen. Durch die im Titel eingefügte Jahreszahl 2010 soll der Zeithorizont der hier getroffenen Aussagen eingegrenzt werden. Anders als viele Prophezeiungen der populärwissenschaftlichen Zukunftsforschung, die glaubt, zehn, zwanzig oder mehr Jahre vorausblicken zu können, wird hier bewusst ein "Haltbarkeitsdatum" angebracht. Dies ist nicht zuletzt der Erfahrung mit dem ersten MIKROPOLIS-Buch (1985) geschuldet. Bis zum Jahre 2010 kann unsere Analyse Orientierung geben. Spätestens dann bedarf sie der Überarbeitung.
Mit der Studie ICILS 2013 konnte erstmals international vergleichend für Deutschland untersucht werden, inwiefern Unterschiede in den mittleren computer-und informationsbezogenen Kompetenzen zwischen Achtklässlerinnen und Achtklässlern mit und ohne Migrationshintergrund vorliegen. Im Ergebnis wurden zum Teil erhebliche Kompetenzunterschiede deutlich, die allerdings zumindest teilweise bzw. für bestimmte Schülergruppen unter Kontrolle weiterer Variablen statistisch an Bedeutsamkeit verloren. Das vorliegende Kapitel nimmt anknüpfend an ICILS 2013 erneut die migrationsspezifischen Disparitäten in den computer- und informationsbezogenen Kompetenzen von Achtklässlerinnen und Achtklässlern in den Blick und fokussiert in diesem Kontext nicht nur auf eine Beschreibung der Ergebnisse der Studie ICILS 2018, sondern auch auf einen Vergleich mit den Befunden aus ICILS 2013. Als Grundlage und zur Verortung der hier präsentierten Ergebnisse des zweiten internationalen Vergleiches im Rahmen der Studie ICILS 2018 zu computer- und informationsbezogenen Kompetenzen von Achtklässlerinnen und Achtklässlern mit und ohne Migrationshintergrund werden im Folgenden zunächst Einblicke in den nationalen und, wo möglich, internationalen Forschungsstand zu migrationsspezifischen Disparitäten in den Kompetenzen im Umgang mit digitalen Medien, der Nutzungshäufigkeit von sowie den Einstellungen zu digitalen Medien gegeben und vorliegende Forschungsbefunde zum Zusammenhang der Kompetenzen der Schülerinnen und Schüler mit und ohne Migrationshintergrund mit bisher schon als relevant identifizierten Prädiktoren fokussiert (Abschnitt 2). Bevor daran anknüpfend die ICILS-2018-Ergebnisse zu diesen Bereichen präsentiert werden, wird in Abschnitt 3 erläutert, mit welchen Indikatoren der Migrationshintergrund in ICILS 2018 erfasst wird. In Abschnitt 4 werden dann die zentralen ersten Ergebnisse der Studie ICILS 2018 zum Zusammenhang zwischen dem Migrationshintergrund und den computer- und informationsbezogenen Kompetenzen der Achtklässlerinnen und Achtklässler sowie zu ausgewählten Prädiktoren berichtet. Nicht zuletzt vor dem Hintergrund der ICILS-2013-Ergebnisse kann vermutet werden, dass die Begründung für Zusammenhänge in den unterschiedlichen an der Studie teilnehmenden Ländern sehr differenziert zu betrachten ist, da sich wie auch in anderen Schulleistungsstudien unterschiedliche Zugänge zur Einwanderungspolitik in den Ländern widerspiegeln. Das Kapitel schließt mit einer Zusammenschau, Einordnung und Diskussion der Ergebnisse (Abschnitt 5). (DIPF/Orig.)
Im Rahmen der EU-weiten REACH-Verordnung haben Alternativmethoden zum Tierversuch in der Toxikologie an Bedeutung gewonnen. Die Alternativmethoden gliedern sich auf in In-vitro- und In-silico-Methoden. In dieser Dissertation wurden verschiedene Konzepte der In-silico-Toxikologie behandelt. Die bearbeiteten Themen reichen von quantitativen Strukturaktivitätsbeziehungen (QSAR) über eine neue Herangehensweise an das gängige Konzept zur Festlegung von Grenzwerten bis hin zu computerbasierten Modellierungen zum Alkohol- und Bisphenol-A-Stoffwechsel. Das Kapitel über QSAR befasst sich im Wesentlichen mit der Erstellung und Analyse einer Datenbank mit 878 Substanzen, die sich aus Tierversuchsstudien aus dem Archiv des Bundesinstituts für Risikobewertung zusammensetzt. Das Design wurde dabei an eine bereits bestehende Datenbank angepasst, um so einen möglichst großen Datenpool zu generieren. In der Analyse konnte u.a. gezeigt werden, dass Stoffe mit niedrigerem Molekulargewicht ein erhöhtes Potential für toxikologische Schäden aufwiesen als größere Moleküle. Mit Hilfe des sogenannten TTC-Konzepts können Grenzwerte für Stoffe geringer Exposition festgelegt werden, zu denen keine toxikologischen Daten zur Verfügung stehen. In dieser Arbeit wurden für die Stoffe dreier Datenbanken entsprechende Grenzwerte festgelegt. Es erfolgte zunächst eine gängige strukturbasierte Aufteilung der Substanzen in die Kategorien "nicht toxisch", "möglicherweise toxisch" und "eindeutig toxisch". Substanzen, die aufgrund ihrer Struktur in eine der drei Klassen eingeordnet werden, erhalten den entsprechenden Grenzwert. Da in die dritte Klasse auch Stoffe eingeordnet werden, deren Toxizität nicht bestimmbar ist, ist sie sehr groß. Daher wurden in dieser Arbeit die ersten beiden Klassen zusammengelgt, um einen größeren Datenpool zu ermöglichen. Eine weitere Neuerung umfasst die Erstellung eines internen Grenzwerts. Diese Vorgehensweise hat den Vorteil, dass der Expositionsweg herausgerechnet wird und somit beispielsweise Studien mit oraler Verabreichung mit Studien dermaler Verabreichung verglichen werden können. Mittels physiologisch basiertem kinetischem Modelling ist es möglich, Vorgänge im menschlichen Körper mit Hilfe spezieller Software nachzuvollziehen. Durch diese Vorgehensweise können Expositionen von Chemikalien simuliert werden. In einem Teil der Arbeit wurden Alkoholexpositionen von gestillten Neugeborenen simuliert, deren Mütter unmittelbar zuvor alkoholische Getränke konsumiert hatten. Mit dem Modell konnte gezeigt werden, dass die Expositionen des Kindes durchweg gering waren. Nach einem Glas Wein wurden Spitzenkonzentrationen im Blut von Neugeborenen von 0,0034 Promille ermittelt. Zum Vergleich wurde die Exposition durch ein für Säuglinge zugelassenes alkoholhaltiges pflanzliches Arzneimittel simuliert. Hier wurden Spitzenkonzentrationen von 0,0141 Promille erreicht. Daher scheinen Empfehlungen wie gelegentlicher Konsum ohne schädigende Wirkung auf das Kind wissenschaftlich fundiert zu sein. Ein weiteres Kinetik-Modell befasste sich mit dem Stoffwechsel von Bisphenol A. Teils widersprüchliche Daten zur Belastung mit BPA in der wissenschaftlichen Literatur führen wiederholt zu Anregungen, den Grenzwert der Chemikalie anzupassen. Die Funktionalität der am Metabolismus beteiligten Enzyme kann je nach Individuum unterschiedlich ausgeprägt sein. Mittels Modellings konnte hier gezeigt werden, dass dies maßgeblich dazu führt, dass sich berechnete Plasmaspiegel von Individuen bis zu 4,7-fach unterscheiden. Die Arbeit konnte somit einen Beitrag zur Nutzung und Weiterentwicklung von In-silico-Modellen für diverse toxikologische Fragestellungen leisten. ; In the last few years alternative methods to animal testing have gained in importance, particularly in the context of EU wide REACH legislation. The alternative methods are divided into in vitro and in silico methods. In this work, different concepts of in silico toxicology are discussed. The topics in this dissertation range from quantitative structure-activity relation- ships (QSAR) via a new approach to the common TTC concept to modeling of alcohol and bisphenol A metabolism. The chapter on QSAR is essentially concerned with the creation and analysis of a database of the German Federal Institute for Risk Assessment (BfR). The design of the database has been adapted to the design of an existing database to gain a relative large pool of data. It was found for example that substances with lower molecular weight have increased potential for toxicologically relevant damage compared to larger molecules. The TTC concept allows the user to set thresholds for substances of low level exposure when no experimental toxicological data is available. In this work, thresholds were determined for the substances of three different databases. At first substances were identified by their structure and assigned to the categories "nontoxic", "possibly toxic" and "significantly toxic". Depending on the category in which an unknown substance is classified, the corresponding threshold applies for it. Since the allocation to com- mon Cramer classes is done very conservatively, substances are rarely assigned to the second class. For this reason, the chemicals of the second and the third class were merged here. A further new approach was the determination of an internal threshold. This allows to subtract out the route of exposure and to apply established thresholds of oral exposure to substances that are absorbed through the skin for example. Physiologically based kinetic modeling is used to simulate physiological processes in the human body and therefore allows to understand kinetic processes. As a result, exposures to chemicals after intake into the body can be simulated. In the first part it was tried to simulate alcohol exposure of breast-fed babies, if the nursing mother had previously consumed various alcoholic beverages. In the model, it was shown that exposure of the child was consistently low. Peak concentrations were 0.0034 per mill in a newborn after consuming of a glass of wine. For comparison the exposure by an approved alcoholic herbal medicine for the treatment of flatulence in infants was simulated. Here, the peak concentrations reached 0.0141 per mill. Therefore, the findings appear to prove recommendations like "occasional consumption without damaging effect on the child" to be scientifically justified. Another kinetics model focused on polymorphisms of bisphenol A metabolizing enzymes. Conflicting evidence in the scientific literature on measured BPA concentrations in the blood led to consideration whether the TDI of 0.05 mg/kg bw/day imposed by the EFSA has to be corrected. There are known polymorphisms of the primary metabolizing enzyme. Via modeling it could be shown that these polymorphisms lead to individual plasma levels which vary by the factors of 4.7. Thus, this work contributes to the development and use of in silico models for various toxicological problems.
ICT-based education can be used as a driver to initiate economic growth and societal development in the knowledge based society. 'Computer literacy' is recognised as a key competence to manage the challenges of this technique driven society. Therefore the European Union gathers information about the framework and the use of computers and the Internet in the schools of their member states - also by using results of school assessment studies like PISA or PIRLS. This article shows that there are different patterns of computer equipment and use in the European Union which depend to some extent on the basic structures of the educational systems. It will be demonstrated that nations with sustainable reforms in the last decades to decentralised structures are more 'modern' than others in terms of computer equipment and use. The article enlightens also the differences between the three terms 'computer literacy', 'digital literacy' and 'media competence' and their 'mixed use' in political but also academic discussion. In summary it will be stated that the discussion about 'computer literacy' misses a clear conceptualisation and sustainable empirical investigation methods. (DIPF/Orig.)
Die heutige Situation im slowakischen Schulwesen ist sehr kompliziert. Das ist eine Folge der langjährigen Interessenlosigkeit der Regierung, die ab und zu durch absurde Reformen überdeckt wurde. Bis bestimmte Prioritäten gegen die ständige Fluktuation von Ministern für Schulwesen und die damit verbundene Sprachideologie nicht geschützt werden, werden wir immer Zeugen der ausgeübten Gewalt gegen bestimmte Fremdsprachen sein. Deshalb sollte eine der Prioritäten des Schulwesens die Beständigkeit bestimmter Gesetze und Maßnahmen unabhängig von den personalen Veränderungen in der Regierung werden. Bis zu dieser Zeit sollten wir, Deutschlehrer_innen, aber auch alle anderen Menschen, denen das Schicksal des Deutschen nicht gleichgültig ist, anhand von anderen Mitteln (z.B. auch von den oben erwähnten) weiter kämpfen. ; The article is a response to innovative state education program, which came into force in September 2015. This arrangement is in our article understood as violence against the German language, which is extruded from Slovak schools because of the English. The negative consequences brought by the innovative state education program represent closed circle that has a negative impact on the whole Slovak school system. In light of the current situation and the position of the German language in schools, in this article we pay attention to the struggle for German, hence the efforts of teachers and Germanists to bring back the German language to schools. The aim of this contribution is not only to criticize the current situation, but also to search for new ideas, opportunities and resources to rescue German language.
Viele Unternehmen nutzen bestehende Umsatz- und Gewinnmöglichkeiten im Kundendienst bislang nicht konsequent genug aus. Voraussetzung für eine umfassende Ausschöpfung dieser Potentiale ist eine differenzierte und zielgruppengerechte Servicepolitik. Bisher existierten jedoch kaum geeignete Vorschläge zur Segmentierung von Servicemärkten. Die vorliegende Arbeit zeigt praktikable Lösungsmöglichkeiten für dieses kundendienstpolitische Defizit auf. Ausgehend von der servicespezifischen Bedürfnissituation von Unternehmen wird ein zweistufiges Segmentierungsmodell für investive Kundendienstmärkte entwickelt. Auf Grundlage einer empirischen Studie im Markt für kommerzielle Personal Computer werden u.a. praxisrelevante Normstrategien für eine zielgruppengerechte Bearbeitung von Kundendienstmärkten abgeleitet.
Auf Grundlage eines Phasenmodells der Technikgenese wird die Entwicklung unterschiedlicher Technikprojekte präsentiert, deren Dynamik auf die sie tragenden Akteur-Netzwerke bezogen wird.
Die Entwicklung der deutschen Großforschungseinrichtungen wird als ein Prozeß der institutionellen Ausdifferenzierung rekonstruiert, der dann in eine institutionelle Verselbständigung übergeht. Die in den fünfziger Jahren aufgekonunenen hohen forschungspolitischen Leistungserwartungen an diesen neuen Forschungstypus, die während der sechziger Jahre das rasche Wachstum und die institutionelle Ausdifferenzierung der Großforschungseinrichtungen getragen hatten, haben sich, als sie in den siebziger Jahren von staatlicher Seite angemahnt wurden, trotz entsprechender forschungspolitischer Steuerungsversuche nicht erfüllen lassen. Den Gründen dieser Verselbständigungsdynamik wird nachgegangen. ; Gennan big science centers have developed towards a situation which is characterized by high disregard for extra-scientific priorities concerning their research progranunes and a capability to block political interventions trying to impose such priorities. During the sixties it was expected that the big science centers would soon make indispensable contributions to satisfy societal demands for new technologies. Accordingly, political actors facilitated a rapid growth and institutional differentiation of this new type of research. But since the middle of the seventies it has become apparent that despite political interventions to realize these big expectations they could not be fulfilled. The reasons for this development from differentiation towards politically dysfunctional decontrol are the main topic of the paper.
The articles presents a short outline of the history of the Biological Computer Laboratory created in 1958 as a special research unit within the Department for Electrical Engineering of the University of Illinois, Urbana. The founder of the laboratory, the Austrian-born Heinz von Foerster, part of the cybernetics-movement of the 1940ies and 1950ies, tried to develop and to "apply" findings of the so-called Macy-group to biology with a special emphasis to problems of perception. The consequent transdisciplinary approach of the BCL led to certain conflicts with the main stream in the fields involved. Other conflicts emerged on grounds of teaching experiments undertaken since the late 1960ies. In the seventies the laboratory failed in substituting diminishing research funds from military research ressources. In the consequence, the BCL was closed. Ideas produced there had a major impact on other cognitive domains especially on the social sciences in Europe. ; The articles presents a short outline of the history of the Biological Computer Laboratory created in 1958 as a special research unit within the Department for Electrical Engineering of the University of Illinois, Urbana. The founder of the laboratory, the Austrian-born Heinz von Foerster, part of the cybernetics-movement of the 1940ies and 1950ies, tried to develop and to "apply" findings of the so-called Macy-group to biology with a special emphasis to problems of perception. The consequent transdisciplinary approach of the BCL led to certain conflicts with the main stream in the fields involved. Other conflicts emerged on grounds of teaching experiments undertaken since the late 1960ies. In the seventies the laboratory failed in substituting diminishing research funds from military research ressources. In the consequence, the BCL was closed. Ideas produced there had a major impact on other cognitive domains especially on the social sciences in Europe.
In multilingual Cameroon, 247 indigenous languages live side by side with English and French (the two official languages) and Cameroon Pidgin English (the main lingua franca). While the two official languages of colonial heritage dominate public life in the areas of education, administration, politics, mass media, publicity and literature, both the indigenous languages and Cameroon Pidgin English are relegated to the background. This paper is a critique of language policy in Cameroon revealing that mother tongue education in the early years of primary education remains a distant cry, as the possible introduction of an indigenous language in the school system is not only considered unwanted by educational authorities but equally combated against by parents who believe that the future of their children lies in the mastery of the official languages. This persistent disregard of indigenous languages does not only alienate the Cameroonian child culturally, but further alienates the vast majority of Cameroonians who are illiterate (in English and French) since important State business is carried out in the official languages. As regards the implementation of the policy of official language bilingualism, there is clear imbalance in the use of the two official languages as French continues to be the dominant official language while English is relegated to a second place within the State. The frustration that ensues within the Anglophone community has led in recent years to the birth of Anglophone nationalism, a situation that seems to be widening the rift between the two main components of the society (Anglophones and Francophones), thereby compromising national unity. The paper is divided into five major parts. After a brief presentation of the country, the author dwells on multilingualism and language policy since the colonial period. The third, fourth and last parts of the paper focus on the critique of language policy in Cameroon with emphasis first on the policy of official language bilingualism and bilingual ...
Computer sind als Lerngegenstand der Schule heute akzeptiert — wenigstens in den höheren Klassen. Nicht zuletzt das Internet und die Vermutung, dass die "digitale Revolution" das Leben der heranwachsenden Generationen stark präge, hatten eine starke bildungspolitische Wirkung. So setzte Bill Clinton in seiner Regierungserklärung vom 5. Februar 1997 als Marke, dass im Jahr 2000 jedes Klassenzimmer und jede Bibliothek in den USA an das Internet angeschlossen sein solle. Initiativen wie "Schulen ans Netz" in Deutschland belegen, dass diese Botschaft mittlerweile auch in Europa angekommen ist. ; Computers are now accepted as a subject of learning at school - at least in the higher grades. Last but not least, the Internet and the assumption that the "digital revolution" would strongly shape the lives of the growing generations had a strong effect on education policy. Bill Clinton, for example, set a marker in his government declaration of 5 February 1997 that every classroom and every library in the USA should be connected to the internet by the year 2000. Initiatives such as "Schools on the Net" in Germany prove that this message has now also reached Europe.
Kultiviertes Fleisch ist mithilfe von Zell- und Gewebekulturtechniken hergestelltes Fleisch, welches ein großes Potenzial aufweist, als nachhaltigere und tierethisch vertretbare Alternative zu konventionell produziertem Fleisch den Proteinmarkt zu erobern. Neben Herausforderungen bei der Hochskalierung ist kultiviertes Fleisch derzeit noch nicht als "Novel Food" auf dem europäischen Markt zugelassen. Regierungen anderer Regionen der Welt zeigen sich offener für das neuartige Fleisch. So kam es im Dezember 2020 in Singapur zur ersten Zulassung von kultiviertem Hühnerfleisch für den menschlichen Verzehr. Indes arbeiten Akteure weltweit unter Hochdruck an der Weiterentwicklung von Nährmedien, Trägermaterialien, Bioreaktoren und anderen Parametern im Produktionsprozess, um beispielweise die Effektivität serumfreier Nährmedien für eine großindustrielle Produktion zu verbessern. Im Januar 2022 erreichten Wissenschaftler aus den Niederlanden einen weiteren Meilenstein bei der Entwicklung eines serumfreien Mediums, welches die Differenzierung von Rindersatellitenzellen bei der Produktion von kultiviertem Fleisch unterstützt. Neben den technischen und rechtlichen Herausforderungen bei der Produktion ist die Akzeptanz der Konsumenten entscheidend für eine erfolgreiche Markteinführung. Auch wenn der Großteil der Konsumenten in Europa bereit wäre, das kultivierte Fleisch zu probieren, sind die Ausbildung von positiven Einstellungen und der Abbau von Angst und Ekel gegenüber kultiviertem Fleisch Schlüsselfaktoren zur Akzeptanz des neuartigen Lebensmittels. ; Cultured meat is meat produced with the help of cell and tissue culture techniques that has high potential to conquer the protein market as a more sustainable and animal ethical alternative to conventionally produced meat. In addition to challenges with upscaling, cultured meat has not yet been approved as a "novel food" on the European market. Governments in other regions of the world are more open to the novel meat. For example, the first approval of in vitro chicken ...