Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
Alternativ können Sie versuchen, selbst über Ihren lokalen Bibliothekskatalog auf das gewünschte Dokument zuzugreifen.
Bei Zugriffsproblemen kontaktieren Sie uns gern.
22 Ergebnisse
Sortierung:
In: De Gruyter Populärwissenschaftliche Reihe
Wie wäre es, wenn Software-Pionierin Ada Lovelace aus dem 19. Jahrhundert in der Jetztzeit landet und ihrem Freund Charles Babbage, einem Computer-Vorreiter aus England, Briefe schreibt? Darin erklärt sie alles, was man über das Thema Digitalisierung wissen muss - verständlich für jede und jeden. Es geht um Nullen und Einsen, um Verschlüsselung und virtuelle Realität, um Bitcoin und Blockchain, um Handys und Hypertext. Genau das macht Anna, die unter dem Pseudonym Ada L. einen Blog startet: über das, was die digitale Welt im Innersten zusammenhält. Die digitale Nomadin arbeitet in Thailand und Australien, im Elektrobus reist sie durch Europa. Auf ihrer Tour knüpft sie Kontakte, verliebt sich und kommt üblen Machenschaften auf die Spur. Dabei gerät sie selbst in Gefahr. Hilfe kommt von Freunden, von Fremden - und immer wieder von Hühnern. Anna Blog: https://postlagernd.org/
In: Suhrkamp Taschenbuch Wissenschaft 1555
Joseph Weizenbaum, der mit seinem Programm "Eliza" Computergeschichte schrieb, ist seit vielen Jahren als Kritiker unreflektierter Computereuphorie bekannt. In seinen Aufsätzen zeigt er die Kontexte auf, in denen Computer entwickelt und verwendet werden, und verweist dabei auf die enge Verknüpfung mit der militärischen Forschung. Er kritisiert die Allmachtsphantasien der Theorien der Künstlichen Intelligenz und fordert eine Kultur der Verantwortung des Wissenschaftlers für seine Arbeit. Die hier versammelten Aufsätze bringen die in der öffentlichen Debatte oft verschwiegenen Kontexte, Probleme und Schwächen der neuen Medien- und Internetwelt ans Licht. Sie machen Mut zum kritischen und eigenverantwortlichen Umgang mit den neuen Technologien im Computerzeitalter.
In: Schöningh and Fink History: Early Modern and Modern History E-Books Online, Collection 2019, ISBN: 9783657100156
Front Matter --Copyright page --Provokationen der Technikgeschichte. Eine Einleitung /Martina Heßler and Heike Weber --Menschen – Maschinen – MenschMaschinen in Zeit und Raum. Perspektiven einer Historischen Technikanthropologie /Martina Heßler --Die Provokation des Anthropozäns /Helmuth Trischler and Fabienne Will --Zeitschichten des Technischen: Zum Momentum, Alter(n) und Verschwinden von Technik /Heike Weber --Globalgeschichten der Technik /Ute Hasenöhrl --Computergeschichte als Irritationsquelle /David Gugerli and Daniela Zetti --Ran an die Objekte! Ein Plädoyer für das gemeinsame Erforschen und Sammeln von Objekten in den technischen Museen /Anne-Katrin Ebert.
In: Geschichte der Gegenwart Band 32
In den 1950er Jahren kamen die ersten elektronischen Computer nach Indien. Inzwischen stehen indische Programmierer für die Verflechtungen einer globalisierten Welt. Michael Homberg untersucht die lange, wechselvolle Geschichte des indischen Wegs ins digitale Zeitalter. Er zeigt, wie sehr das Aufkommen digitaler Expertise in Indien zugleich Ergebnis nationaler Anstrengungen und internationaler Kooperationen war. Schon in den ersten Jahren der Republik förderten Industrienationen wie die Bundesrepublik und Großbritannien, aber auch die USA und die UdSSR den Ausbau der Computertechnik und -ausbildung in Indien. Der Autor erforscht die Wurzeln dieser internationalen Förderprogramme in der Ära des Kalten Krieges und ergründet den wachsenden Wunsch in der indischen Computerindustrie nach "digitaler Unabhängigkeit" auf dem globalen IT-Markt ab den 1970er Jahren sowie den Siegeszug elitärer Programmierer im Silicon Valley zu Beginn des 21. Jahrhunderts. Er analysiert die Voraussetzungen, Dynamiken und Folgen der globalen Austauschprozesse in Indien nach 1947 und dezentriert so die vorrangig westliche Perspektive der Computergeschichte und deren Meistererzählungen.
In: Geschichte der Gegenwart Band 32
Indiens Weg zur Technologienation nach 1947 – eine internationale Geschichte des digitalen Zeitalters. In den 1950er Jahren kamen die ersten elektronischen Computer nach Indien. Inzwischen stehen indische Programmierer für die Verflechtungen einer globalisierten Welt. Michael Homberg untersucht die lange, wechselvolle Geschichte des indischen Wegs ins digitale Zeitalter. Er zeigt, wie sehr das Aufkommen digitaler Expertise in Indien zugleich Ergebnis nationaler Anstrengungen und internationaler Kooperationen war. Schon in den ersten Jahren der Republik förderten Industrienationen wie die Bundesrepublik und Großbritannien, aber auch die USA und die UdSSR den Ausbau der Computertechnik und -ausbildung in Indien. Der Autor erforscht die Wurzeln dieser internationalen Förderprogramme in der Ära des Kalten Krieges und ergründet den wachsenden Wunsch in der indischen Computerindustrie nach »digitaler Unabhängigkeit« auf dem globalen IT-Markt ab den 1970er Jahren sowie den Siegeszug elitärer Programmierer im Silicon Valley zu Beginn des 21. Jahrhunderts. Er analysiert die Voraussetzungen, Dynamiken und Folgen der globalen Austauschprozesse in Indien nach 1947 und dezentriert so die vorrangig westliche Perspektive der Computergeschichte und deren Meistererzählungen.
Mit Blick auf die historische Übersicht, die Till A. Heilmann in seiner überarbeiten Dissertationsschrift von 2008 vorlegt, ist die Entwicklung des Schreibens am Computer eine faszinierende Erfolgsgeschichte. Auch weil die dabei entstandenen Produkte dazu fähig sind, unseren Alltag weitreichend mitzuprägen. Besonders im akademischen Bereich gehen damit vollkommen veränderte Möglichkeiten einher, Texte nicht nur zu erstellen, sondern auch zu recherchieren, weiterzubearbeiten und zu distribuieren. Neben den damit verbundenen Vor- und Nachteilen, stellt sich die Frage, wie diese veränderten Schreibweisen auch das Denken bzw. Denkarbeit erweitern. Als Grundlage einer Reflexion darüber, was Schreiben am Computer ist, vermag eine historische Darstellung der Entwicklung vom Manuskript über das Typoskript zum Digiskript wichtige Einsichten zu erbringen. Heilmann interessiert sich in seiner "Mediengeschichte des Computers als Schreibmaschine" weniger für die anthropologischen Auswirkungen dieses Medienwandels, sondern er zeigt vorrangig in Form einer Technikgeschichte auf, wie komplex die Vorgänge sind bei dem, "was heutzutage Schreiben heißt" (S. 2). Nicht nur deswegen ist die Entwicklung von Computern zu "Werkzeuge[n] des Schreibens" (ebd.) weder ein selbstverständliches noch unbedingt ein in den Geräten selbst angelegtes Potential. Insofern – und darauf weist Heilmann nachdrücklich hin – ist die Rede vom Computer als Schreibmaschine, wie es die Medientheorie speziell nach Friedrich Kittler postuliert, eine verkürzte und irritierende Darstellung. Die Folge dieser Gleichsetzung führe dazu, dass "kaum Ansätze zu einer Geschichte der Textverarbeitung" in der Medienwissenschaft verwirklicht wurden, da dies als Nebensächlichkeit vorausgesetzt wurde (S. 46). Als Basis seiner Darstellung betrachtet Heilmann zunächst die "drei medialen Grundfunktionen" von Schrift, die im "Speichern, Übertragen, Verarbeiten" bestehen. Damit ist bereits der dieser Studie zugrundeliegende Medienbegriff formuliert, wonach "Medien […] Welt erfahrbar und denkbar" machen (S. 13). Es zeigt sich nun eine "tiefer liegende Verbindung" von Schrift und Computer, dessen Merkmal ebenfalls die Umsetzung einer "Medientechnik zur Speicherung, Übertragung und Verarbeitung von Information" ist (S. 17). Dies sei auch der Grund, weswegen in der Medienwissenschaft, die sich in den 1980er-Jahren "an der Auseinandersetzung mit der Schrift aufgerichtet" habe (S. 16), Computer zu einem neuen bevorzugten Untersuchungsfeld erhoben wurden: "Was einst an unterschiedlichen Medien aus einem Zusammenhang, dem der Schrift, hervorgegangen war, geht tendenziell wieder in einen Komplex, den des Computers, ein" (S. 20). Wird daraus aber der Rückschluss gezogen, dass Computer bereits von Beginn an Schreibmaschinen waren, dann ist dies ein medienwissenschaftlicher Kurzschluss, der durch den von Heilmann vorgenommenen Blick auf die historische Entwicklung von Computern revidiert wird. So werde häufig Computergeschichte "als Fortschrittsgeschichte der Schrift" geschrieben, und zwar nicht nur in der Medienwissenschaft sondern auch in der Informatik (S. 54). Dem hält Heilmann eine Vielzahl von Argumenten entgegen, wobei er bemüht ist, die Geschichte der Entwicklung von Digitalcomputern in ihrer Ausrichtung auf Textverarbeitung abzuklopfen. Es zeigt sich, dass das Schreiben am Computer erst in den 1970er-Jahren so weit entwickelt war, dass ernsthaft dessen Verwendung zur digitalen Textverarbeitung möglich schien (S. 170). Dazu trugen neben dem Monitor als Ausgabegerät und der Tastatur als Eingabegerät, das interactive computing als Modell und der Erfolg des Personal Computer (PC) – auch auf Grund sinkender Materialkosten – bei. Heilmann zeigt auf, wie sich diese für das heutige Schreiben am Computer maßgeblichen Komponenten ausprägten, wobei klar ersichtlich wird, dass deren Integration und Entfaltung weder selbstverständlich noch linear vor sich gingen. Vielmehr zeigt sich hinsichtlich von Produzent_innen geäußerter Absichten und unterschiedlich entwickelter Techniken eine Vielzahl von möglichen Entwicklungslinien für den Einsatz von Computern. Für die Simulation der Praktiken von Schreibmaschinen werden jene von Heilmann herausgearbeiteten Episoden entscheidend, "in denen die Genealogie des Personal Computers sich mit derjenigen der Textverarbeitung kreuzt" (S. 169). Die Computergeschichte bietet reichlich Anekdoten zu dieser Thematik. Für den Bereich Textverarbeitung ist es besonders die Forschungsabteilung PARC von Xerox, in der der Kopiermaschinen- und zugleich Kopierpapierhersteller Modelle für das Büro der Zukunft konzipieren ließ. Dabei wurden entscheidende Komponenten für die PCs von heute entwickelt, sowohl im Bereich der Hard- als auch Software. Vieles davon wurde später von Apple und Microsoft übernommen und ermöglichte deren unternehmerische Erfolge. Nun könnte auf die Ironie verwiesen werden, dass Xerox Forschungen finanzierte, die in Folge das eigene Geschäft gefährden sollten. Aber – und dies gelingt Heilmann nachvollziehbar aufzuzeigen – in vielen der dabei entwickelten Komponenten findet sich der Bezugspunkt zu Papier, beginnend mit dem Monitor des dabei entwickelten Computers Alto, der – im Gegensatz zu heute üblichen Monitoren – in die Länge gestreckt war und mit dem US-Standardpapierformat Letter übereinstimmte. Auch wenn es Xerox aus verschiedensten Gründen nicht gelang, mit den vorhandenen Mitteln zum bestimmenden Unternehmen der Computertextverarbeitung aufzusteigen, ist der Bezug zum Papier bzw. zur Schrift bis heute in PCs integriert. Dabei sind es drei von Xerox entwickelte Techniken, die "die mediale Verschränkung von Papier und Computer" prägten: Grafische Benutzungsoberflächen (GUI), das "What you see is what you get"-Prinzip (WYSIWYG) und der Laserdrucker (S. 173). Die Forschungsergebnisse von Xerox PARC sind am Ende von Heilmanns "Streifzug durch die Mediengeschichte des Computers als Schreibmaschine" (S. 195) angesiedelt, bevor er sich im abschließenden Kapitel mit der Simulierung "traditioneller Formen von Schrift" durch Digiskripte auseinandersetzt (S. 196). Prinzipiell folgt seine historische Übersicht einer traditionellen Computergeschichte mit bekannten Etappen. Zwar gelingt es ihm, mit seinem spezifischen Erkenntnisinteresse an der Entwicklung des Schreibens am Computer neue Einblicke zu eröffnen. So werden durchaus auch wenig bekannte oder nur rudimentär abgehandelte Figuren und Produkte der Computergeschichte porträtiert. Heilmann bleibt dabei aber durchwegs einer linearen, chronologisch aufgebauten Entwicklungsgeschichte verpflichtet. Dies ist durchaus nachvollziehbar für sein Anliegen, auch weil er es vermag, technische Sachverhalte kompakt und zugleich verständlich darzustellen. Trotzdem wäre an manchen Stellen eine stärkere Verschränkung mit medientheoretischen und -historischen Debatten wünschenswert. So bleiben diese lohnenswerten Auseinandersetzungen einigen wenigen Themen vorbehalten. Eines dieser Themen ist der häufig bemühte Hinweis auf die militärische Herkunft des Computers. Heilmann relativiert die starke Bedeutung dieser einseitigen Lesart und zeigt auf, dass damit die komplexe und von vielen Um- und Irrwegen gekennzeichnete Entwicklung von Computern nachlässig vereinfacht wird. Sicher stimmt es, dass die Grundlagenforschung, die zu den ersten universellen Rechenmaschinen führte, hauptsächlich durch das US-Militär gefördert war. Aber an einigen Beispielen zeigt Heilmann auf, wie rudimentär die militärischen Einflüsse in den dabei entwickelten Systemen abgebildet waren. Selbst Geräte wie eine Lichtkanone und die ersten "Monitore" in Form von Oszilloskopen dienten keinem militärischen Interesse, sondern wurden dazu eingesetzt, den Rechner auf Beschädigungen überwachen zu können (S. 116). Mathematisch-logische Rechenvorgänge waren zunächst das vorrangige Einsatzgebiet, was zwar auch Ballistikberechnungen beinhaltete, aber bei weitem nicht das gesamte Spektrum der Möglichkeiten abdeckte. So wurden viele Projekte an Universitäten übertragen und dort meist unter veränderten zivilen Vorzeichen fortgeführt. Erstaunlich ist vor allem, wie eng die Entwicklung des Computers und speziell des PCs zur Textverarbeitung mit tayloristischer Arbeitsökonomie verknüpft war. Dies wird von Heilmann leider nicht weiter thematisiert, wäre aber sicher eine eigene Untersuchung wert. In vielen der dargestellten Positionen ist zudem durchwegs festzustellen, wie die Vorstellung von Effizienzsteigerungen durch Computer strapaziert wurde. Nicht nur lassen sich solche Argumente in den Werbematerialien und Benutzungsanleitungen diverser Computermodelle finden, sondern diese wurden auch meist unhinterfragt von einer Vielzahl an Forscher_innen und Techniker_innen als leitendes Konstruktionsprinzip herangezogen. Insofern wäre es gerechtfertigt, die dabei entwickelte Architektur von Computern als wichtigen Aspekt 'neoliberaler' Entwicklungstendenzen zu problematisieren. Denn es liegt auf der Hand, dass solche ideologischen Vorstellungen in die technischen Konstruktionen 'eingeschrieben' werden. Im Fall des Computers als Schreibmaschine wären damit überprüfenswerte Konsequenzen für die Produktion von Texten verbunden, wie jene des 'Publish or Perish' im Wissenschaftsbetrieb. Weil Technikgeschichte selten ohne Zukunftsperspektiven auskommt, setzt sich Heilmann zum Abschluss seiner Untersuchung in aller Kürze mit der "Vorstellung eines Wesens digitaler Objekte" auseinander (S. 245). Dies ist ein seit vielen Jahren in Umlauf gebrachtes Postulat, um damit die Weiterentwicklung des Internets zu einem Semantic Web zu skizzieren. Heilmanns Hinterfragung dieser Begrifflichkeit eignet sich hervorragend für weitere, tiefer greifende Debatten über die damit verbundene Vernetzung und Transformation möglichst vieler Lebensbereiche in die Domäne digitaler Objekte. So zeigt eben auch die Textverarbeitung am Computer, dass sich das Ende des 19. Jahrhunderts "von der mechanischen Schreibmaschine […] hergebrachte Modell der modernen 'Schreibszene' […] allen technologischen Neuerungen gegenüber als äußerst widerständig erwiesen" hat (S. 253), erkennbar daran, dass sich "das grundlegende Schema aus Tastenfeld und Schreibfläche" trotz aller technologischen Errungenschaften nicht wesentlich verändert hat (ebd.). Häufig bleiben bei Darstellungen der Computergeschichte die "erheblichen technischen, ökonomischen, funktionalen und kulturellen Veränderungen" unberücksichtigt, die den Wandel "im Verständnis von Rechenmaschinen" begleiteten (S. 50). Leider werden solche weiterreichenden Untersuchungen auch von Heilmann oft nur angedeutet, da sein Zugang letztlich in einem diskursiven Nacherzählen von Technikgeschichte verharrt. Andererseits hätte eine multiperspektivische Diagnose wohl den Rahmen seiner Untersuchung gesprengt. Als Basis für weitere Analysen in diese Richtung stellt seine Darstellung aber wertvolles Material zur Verfügung. Versehen mit einem nützlichen Index, werden die technischen Voraussetzungen und Entscheidungen dargelegt, die die (Weiter-)Entwicklung von Textverarbeitung am Computer vorantrieben. Eine Geschichte, die sich nach Heilmann "vermutlich noch länger fortsetzen" wird. Denn auch wenn eine immer größere Anzahl an Computern oft unbemerkt in diversen alltäglichen Geräten integriert sind, die entgegen dem Prinzip der universalen Rechenmaschine auf spezifische Einsatzgebiete eingeschränkt sind, wird der "Schreibtisch-Computer – mehr denn je – als Medium der Schrift" bleiben (S. 253, H. i. O.). Es ist auch dieser unaufgeregte Tonfall, der Heilmanns Untersuchung von vielen anderen Geschichtsdarstellungen des Computers wohltuend unterscheidet.
BASE
This article discusses how computer technology was implemented within the US federal government in the 1960s and 1970s. Drawing on sources from the Bureau of the Budget (BOB), later renamed the Office of Management and Budget (OMB), the article demonstrates that the Johnson administration centralised the management of Automatic Data Processing (ADP) and also set technical standards. To characterise this process, the article proposes to use the expression "early phase of digitalisation". At the time, a debate arose about how the processing of personal data would affect individual rights. Several studies analysed the functioning of technology with regard to computer privacy and suggested general guidelines. In addition, Congress passed data privacy legislation. Regardless of the legal debate, computerisation continued under the Nixon administration. The article argues that digitalisation shaped the privacy debate at the time.
BASE
In: MedienAnalysen
Die Entschlüsselung der deutschen Chiffriermaschine »Enigma« durch die Briten gehört zu den bestgehüteten Geheimnissen des Zweiten Weltkrieges - erst 1974 wurde die Öffentlichkeit über die erfolgreichen Bemühungen informiert. Seither ist das Interesse an der »Enigma« bei Laien und Fachwelt ungebrochen. »Mythos Enigma« geht dieser Faszination in einer Feldstudie nach und nimmt die Spuren der Maschine nicht nur in Deutschland, England und in den USA, sondern auch in der Schweiz auf: Dass die geheimnisvolle Maschine aus Deutschland auch in diesem neutralen Land benutzt wurde, war bisher kaum bekannt. Die Motive von Wissenschaftlern, Sammlern und Zeitzeugen mögen unterschiedlich sein, ihre Bemühungen kommen aber auf eine geheimnisvolle Art am Schluss wieder zusammen. Ähnliches lässt sich von fiktionaler Literatur und Filmen sagen, die das Thema aufgreifen. Die Faszination von »Enigma« (lat. »Geheimnis«) ist eine Chiffre für unseren Umgang mit dem Geheimen.
In: Technikgeschichte: tg, Band 90, Heft 2, S. 147-176
ISSN: 0040-117X
Frühe Mikrocomputer der sogenannten 8- und 16-Bit-Ära (1975–1985) sind aus verschiedenen Gründen wichtige Objekte der Hardware- und Softwareehaltung: Die heutige Hard- und Softwareindustrie wurde auf diesen Maschinen aufgebaut (insbesondere Computerspiele und Bürosoftware), populäre Computermagazine, Bücher, Benutzergemeinschaften und die Privatisierung der Computertechnologie sind eng mit dieser Technologie verbunden. Die Be- wahrung findet nicht nur in professionellen Umgebungen (Museen, Archiven) statt, sondern auch im privaten Umfeld von Sammlern, Hobbyisten, Retro- Computer-Clubs und Reparatur-Cafés. Die Methoden und Werkzeuge, die von diesen Hobbyisten verwendet werden, unterscheiden sich erheblich von denen professioneller Praktiken – nicht nur wegen des (meist autodidaktisch erworbenen) Hintergrunds, sondern auch wegen der unterschiedlichen Zielsetzung: Hobbyisten reparieren alte Computer nicht nur, um sie wieder in Betrieb zu nehmen, sondern auch, um einen Einblick in 'Teilbereiche' des technikhistorischen Wissens zu erhalten. Das Ergebnis solcher Reparaturprozesse sind also neue Informationen über (vermeintlich) bekannte Objekte. Dieses Wissen wird an andere Bastler weitergegeben, um es zu nutzen, zu überarbeiten und/oder zu erweitern. Im Jahr 2019 erhielt das Signallabor am Institut für Musik- und Medienwissenschaft (an der Berliner Humboldt-Universität) 15 defekte Mikrocomputersysteme, die für eine bevorstehende operative Ausstellung im Berliner Humboldt-Forum im Jahr 2021 repariert werden sollten. Die Computer (aus der Sammlung des Center for Applied Statistics and Economics) reichten von selbstgebauten Einplatinen- und Heimcomputern aus der DDR über frühe Commodore-Heimcomputer aus den 1970er Jahren, CP/M- und MS-DOS-Systeme aus den 1980er Jahren bis hin zu UNIX-Workstations aus den frühen 1990er Jahren. Die Computer wurden von Studierenden des Studiengangs Medienwissenschaft mit Hilfe der Retro-Computing-Community (Berliner Vereine und Bastler, Internet-Diskussionsforen, Facebook usw.) repariert. Ihnen ist es gelungen, fast alle Computer zu reparieren und Software für die geplante Ausstellung darauf zu installieren. Unser Beitrag wird anhand konkreter Beispiele aus dem Reparaturprozess zeigen, wie die hobbymäßige Konservierung altes und neues Wissen aus Archiven und Communities nutzt, moderne Technologie in alte Hardware implementiert und unkonventionelle Werkzeuge, Materialien und Praktiken zur Reparatur einsetzt. Das aus diesem Prozess gewonnene Wissen wird als 'Epistemologie der Bewahrung' diskutiert, die eine medienwissenschaftliche Theorie (und Kritik) der Computergeschichte unterstützt, in der die 'historischen' Objekte gegenwärtig sein müssen, um vollständig als Medien verstanden zu werden.
This paper explores the phenomenon of bulletin board systems (BBS) – home computers connected through the telephone network – in West Germany in the 1980s. Due to the openness of the US telephone network, the use of home computers as private communication devices became quite successful across the Atlantic. However, in West Germany, this practice conflicted with the state monopoly and its policy on telecommunications. This paper argues that this conflict was part of a structural change caused by the convergence of IT and telecommunications. The West German government saw this convergence as both a threat and a chance for the national IT and telecommunications industries, prompting it to adopt a telecommunications policy designed to challenge the dominant US IT industry.
BASE
Das von Nacim Ghanbari, Isabell Otto, Samantha Schramm und Tristan Thielmann herausgegebene Buch Kollaboration bildet eine Vielfalt aktueller medienwissenschaftlicher Forschung (mit geistes-, kultur- und sozialwissenschaftlicher Prägung) ab und ist ein Beleg für die Stärke gegenwärtiger Medienwissenschaft, Anlässe und Begriffe für interdisziplinäre Arbeiten zu stiften.Geleistet werden in diesem Sammelband die Umschreibung und Exploration eines weit gefassten Forschungs- und Arbeitsfeldes. Dieses Buch ist selbst – wie könnte es anders sein – ein Ergebnis von Kollaboration unter Beteiligung verschiedener Netzwerke. Konzipiert wurde der Band im Rahmen des DFG-Netzwerks "Medien der kollektiven Intelligenz" (2011–2014), erweitert um Beiträger*innen aus dem Kreis der Konstanzer Forschungsgruppe "Mediale Teilhabe" und des Siegener Sonderforschungsbereichs "Medien der Kollaboration". Insgesamt enthält Kollaboration elf verschiedene Artikel und eine kurz gefasste Einleitung. Gruppiert sind die Beiträge unter drei thematischen Überschriften: "Künste der Kollaboration", "Soziotechniken der Kollaboration" und "Versprechungen der Kollaboration".Die vier Herausgeber*innen sind zugleich als Autor*innen im Band vertreten: Samantha Schramm beleuchtet in ihrem Beitrag Facetten verteilter Autorschaft in der Fernseh- und Videokunst. Isabell Otto entwirft eine medienhistorische Interpretation des oN-Line Systems NLS des Computerpioniers Douglas Engelbart, das als Baustein einer Computergeschichte der vernetzten Kollaboration gewürdigt wird. Tristan Thielmann rekonstruiert, ebenfalls medienhistorisch ausgerichtet, die Geschichte der Fotofahrtenführer. Und Nacim Ghanbari spürt in seinem Beitrag Aspekten kollaborativer Schreibpraktiken des 18. Jahrhunderts nach, am Beispiel von Gottfried August Bürgers Ballade Lenore. Die Frage nach den Medien der Kollaboration und ein prozessorientierter Begriff von Kollaboration spannen den theoretischen Rahmen für die im Band verhandelten Fragestellungen und vorgelegten Untersuchungen. Zugespitzt wird das Verhältnis von Medien und Kollaboration in einer grundlegend medienwissenschaftlichen These: Medien entstehen durch Kollaboration (mediengenetische und medienhistorische Dimension der Kollaboration) und Medien ermöglichen und steuern Vorgänge von Kollaboration (konstitutive und regulierende Dimension von Medien). Viele der Beiträge heben zudem hervor, dass Kollaboration nicht nur als eine Praxis 'menschlicher' Arbeit, sondern als Zusammentreffen von Mensch und (Medien-)Technik zu verstehen sei. Die Theorieschule der Akteur-Netzwerk-Theorie (ANT) und die Texte von Bruno Latour werden wiederholt herangezogen, um hybride Konstellationen im wechselseitigen Verfertigen von Vorgängen zwischen Menschen und Medienapparaten zu benennen. Tristan Thielmann gibt dieser Orientierung am Ansatz der ANT eine aus medienwissenschaftlicher Perspektive gelungene theoretische Wendung und skizziert im Anschluss an eigene frühere Arbeiten eine "Akteur-Medien-Theorie" (S. 151). Eine Stärke des Bandes insgesamt liegt in der Vielfalt der Beiträge, die eine beachtliche Breite an Gegenständen behandeln und mit unterschiedlichen methodischen und theoretischen Ansätzen operieren. Neben Film (Michael Lommel), Fotografie (Fotofahrtenbücher, Thielmann) Video und Fernsehen (Schramm), Literatur und kollaborativer Schreibpraxis (Ghanbari), Sprache und Sprechakttheorie (Erhard Schüttpelz) werden insbesondere auch die Gegenwart sozialer Netzmedien und die sich dort real oder als Versprechen konstituierenden Paare, Communities, Gemeinschaften und Kollektive untersucht. Die Autor*innen erforschen die Kollaboration bei Dating-Apps (Teresa Opper), diskutieren die Rolle des Internets für Protestbewegungen (Sebastian Haunss), erkunden die Praxis von Drohnen-Communities (Hendrik Bender) und das Versprechen von Fitness-Gemeinschaften (Nikola Plohr) oder beleuchten kollaboratives Tagging als Wissenstechnik (Erika Linz). Die Fülle der untersuchten Gegenstände ergibt ein bruchstückhaftes, ein vielleicht im Ansatz kaleidoskopisches Bild von 'Kollaboration'. Gleichwohl spinnen sich für den*die Leser*in feine Fäden der Assoziation und es entstehen gedankliche Kraftfelder, die einen unterschwelligen Dialog zwischen den verschiedenen Positionen wahrnehmbar werden lassen. Dazu gehört das Thema der Gemeinschaft und des Kollektivs, das wie eine Art Generalbass den*die Leser*in durch den Band trägt. Da gibt es die verstreuten Gemeinschaften, die miteinander Wissen schaffen, ohne dass ihre Mitglieder ein gemeinsames Ziel verfolgen oder sich persönlich kennenlernen, wie in der Praxis des kollaborativen Tagging (Erika Linz); die politischen Bewegungen, die sich vielleicht durch Austausch im Netz verstärkt mobilisieren oder vielleicht auf neue Weise bilden können, um eine politische Veränderung zu bewirken (Sebastian Haunss); das Versprechen einer Fitness-Gemeinschaft von Smartphone-Athlet*innen, die ihren Körper trainieren, und im Workout ein "Mit-Sein" (S. 278) erproben, das auf "App-basierten Strukturen der Mit-teilung" (S. 278) basiert. Und im Beitrag von Isabell Otto changiert das vernetzte Arbeiten zwischen Kontrollgesellschaft und Disziplinierung, durch das – nicht nur beiläufig – eine "Gemeinschaft von Forschenden" (Warnke, zit. n. Otto S. 224) angerufen wird, auf deren Herstellung Praktiken der Computervernetzung zielen. Das Verhältnis von Kollaboration und Gemeinschaft, so zeigen die Beiträge des Bandes, ist von Zweifel, Aufschub, Versprechungen und Enttäuschungen geprägt. Kollaboration ist keine Praxis, die Gemeinschaft herstellt, sondern kann, wie es die Herausgeber*innen in der Einleitung formulieren, als "Umgang mit Vielheiten" (S. 14) gedacht werden. Kollaborative Praktiken können an der Herstellung der medialen Möglichkeitsbedingungen von Gemeinschaft mitwirken. Ohne dass der Band es so ausdrückt, lassen sich zwischen den Zeilen der verschiedenen Beiträge Bruchstücke einer Auseinandersetzung mit einer (nicht eingelösten) Sehnsucht nach Gemeinschaft, nach Verbindung und Verbindlichkeit auffinden. Und ist vielleicht in gewisser Weise das Medium des 'Sammelbandes' selbst auch der Ausdruck einer Sehnsucht nach einer "Gemeinschaft von Forschenden" (S. 224)? Durchaus originell ist die vorgeschlagene Unterscheidung zwischen Kollaboration und Kooperation. Während Kooperation immer von einem "identifizierbaren Gegenüber" (S. 14) ausgehe, sei Kollaboration geprägt durch "den Umgang mit Vielheiten", wenn beispielsweise ganz "unterschiedliche Entitäten und Datensätze miteinander in Verbindung treten" (S. 14). Als produktiv erweist sich zudem, wie der Begriff der Kollaboration verwendet wird, um eine Art interdisziplinäre Klammer zu schaffen, zwischen den verschiedenen im Band vertretenen Disziplinen, von der Soziologie bis zu Kunst-, Literatur- und Medienwissenschaft, und zwischen so verschiedenen Forschungsgenständen wie literarischer Schreibpraxis, Dating-Apps, Computergeschichte, sozialen Bewegungen oder Drohnen-Communities. Wer Kollaboration als 'Zusammenarbeit' versteht, und damit als besondere Form von 'Arbeit', den muss allerdings verwundern, dass im Band kaum jemals explizite Bezüge zu Arbeitswissenschaft, zur Ökonomie oder zu Arbeits- und Organisationssoziologie hergestellt werden. Die wissenschaftliche Auseinandersetzung zum Begriff oder zur Theoriegeschichte von 'Arbeit' ist weitgehend abwesend, eine Art blinder Fleck. Dies ist bedauerlich, insofern der Band insgesamt durchaus als Beitrag zu einer Kultur- und Theoriegeschichte der Arbeit aufgefasst werden kann. Es ist zu hoffen, dass es eine Fortführung der im Band versammelten Forschungen gibt, und dass damit auch eine Klärung des Verhältnisses von Kollaboration zu 'Arbeit' weiter vorankommt. Für wen ist dieses Buch geeignet oder empfehlenswert? Wer eine Übersicht oder eine systematische Auseinandersetzung mit Begriff und Geschichte von Kollaboration sucht, wird in diesem Band nicht fündig. Der Band bietet keine Einführung in die Medientheorie oder Kulturgeschichte der Zusammenarbeit und enthält keine systematische Übersicht über bestehende Theorien und Forschungen zum Thema. Für Studierende, die eine einführende Lektüre in das Thema suchen, würde ich das Buch daher nicht uneingeschränkt empfehlen. Wer allerdings einen Einblick in aktuelle medienkulturwissenschaftliche Forschung sucht, dem bietet der Band eine anregend-herausfordernde Breite an Themen und Ansätzen. Angesichts der bunten Vielfalt an Methoden und Gegenständen muss der 'innere Zusammenhang' zwischen den Beiträgen durch die Leser*innen selbst erarbeitet werden. Die mediale Praxis des Lesens, so ließe sich am Ende behaupten, ist in sich als ein kollaborativer Prozess vorstellbar, und solcherart Mit-Denken verlangt der Band seinen Rezipient*innen ab. Die Lektüre stellt sich als ein herausfordernder 'Umgang mit Vielheiten' dar, der nicht zuletzt angesichts der hohen Qualität einzelner Beiträge neugierig macht auf mehr.
BASE
In: Digitale Gesellschaft
Wir sind umgeben von einer Vielzahl an Informationsströmen, die uns selbstverständlich erscheinen. Um diese digitalen Kulturen zu beschreiben, entwickeln medienwissenschaftliche Arbeiten Theorien einer Welt im Fluss. Dabei erliegen ihre Diagnosen oftmals einem Technikfetisch und vernachlässigen gesellschaftliche Strukturen. Mathias Denecke legt eine systematische Kritik dieser Theoriebildung vor. Dazu zeichnet er die Geschichte der Rede von strömenden Informationen in der Entwicklung digitaler Computer nach und diskutiert, wie der Begriff für Gegenwartsbeschreibungen produktiv gemacht werden kann.