Künstliche Intelligenz und Algorithmen erleichtern in Form von Navis, Rechtschreibprogrammen, Suchergänzungen oder Kaufempfehlungen schon lange unseren Alltag. Aber sie hinterlassen oft auch ein mulmiges Gefühl, weil wir nicht so recht verstehen, was da passiert. Katharina Zweig, IT-Expertin für Sozioinformatik und Informatikprofessorin, erklärt anhand einfacher Beispiele und Illustrationen, was Algorithmen eigentlich genau sind, wie sie funktionieren, welche völlig harmlos sind und welche uns tatsächlich Sorgen bereiten sollten. Damit wir wissen, worauf wir achten müssen, wo wir uns einmischen und Politik und Wirtschaft genauer auf die Finger schauen müssen, wenn wir diese Technik in menschlicher Hand behalten, ihre positiven Eigenschaften nutzen und die negativen kontrollieren wollen
This book presents a perspective of network analysis as a tool to find and quantify significant structures in the interaction patterns between different types of entities. Moreover, network analysis provides the basic means to relate these structures to properties of the entities. It has proven itself to be useful for the analysis of biological and social networks, but also for networks describing complex systems in economy, psychology, geography, and various other fields. Today, network analysis packages in the open-source platform R and other open-source software projects enable scientists from all fields to quickly apply network analytic methods to their data sets. Altogether, these applications offer such a wealth of network analytic methods that it can be overwhelming for someone just entering this field. This book provides a road map through this jungle of network analytic methods, offers advice on how to pick the best method for a given network analytic project, and how to avoid common pitfalls. It introduces the methods which are most often used to analyze complex networks, e.g., different global network measures, types of random graph models, centrality indices, and networks motifs. In addition to introducing these methods, the central focus is on network analysis literacy - the competence to decide when to use which of these methods for which type of question. Furthermore, the book intends to increase the reader's competence to read original literature on network analysis by providing a glossary and intensive translation of formal notation and mathematical symbols in everyday speech. Different aspects of network analysis literacy - understanding formal definitions, programming tasks, or the analysis of structural measures and their interpretation - are deepened in various exercises with provided solutions. This text is an excellent, if not the best starting point for all scientists who want to harness the power of network analysis for their field of expertise.
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
Dass Algorithmen über Menschen und deren Zukunft entscheiden, scheint unausweichlich zu sein - wir alle sind längst den Urteilen von Künstlicher Intelligenz ausgesetzt: Immer mehr Firmen lassen Bewerbungen automatisiert bewerten, und immer mehr Menschen bekommen Bescheide oder Auskünfte, die durch Maschinen vorbereitet wurden. Doch nicht alle diese algorithmisch getroffenen Entscheidungen sind korrekt, es gibt immer wieder Fälle, in denen KI diskriminiert, Unschuldige eines Verbrechens beschuldigt oder gar Leben gefährdet. Katharina Zweig, vielfach ausgezeichnete Informatikprofessorin, erklärt unterhaltsam und anhand spannender aktueller Fälle, wie wir falsche Entscheidungen erkennen und uns dagegen wehren können. Denn wir sollten wissen, worauf wir achten müssen, damit Algorithmen nach unseren Regeln spielen und nicht nach ihren eigenen. Wo künstliche Intelligenz sich irrt und warum uns das alle betrifftDeutschlands führende Sozioinformatikerin erklärt anhand von vielen Beispielen aus unserem Alltag, wie wir falsche Software-Entscheidungen erkennen - und uns dagegen wehren können 2023 wird die Verabschiedung des Artificial Intelligence Acts auf EU-Ebene beschlossen - die nationale Umsetzung soll bis 2025 erfolgen: das erste Gesetz weltweit, mit dem KI in allen Lebensbereichen reguliert werden soll "Katharina Zweig [ist eine] digitale Vordenkerin [und] engagiert sich dafür, dass Algorithmen zur Chance für die Welt von morgen werden und nicht zur Gefahr." (BamS) Ausstattung: mit s/w-Illus. im Text
Abstract Several governmental organizations all over the world aim for algorithmic accountability of artificial intelligence systems. However, there are few specific proposals on how exactly to achieve it. This article provides an extensive overview of possible transparency and inspectability mechanisms that contribute to accountability for the technical components of an algorithmic decision-making system. Following the different phases of a generic software development process, we identify and discuss several such mechanisms. For each of them, we give an estimate of the cost with respect to time and money that might be associated with that measure.
AbstractAlgorithmic decision‐making (ADM) systems have come to support, pre‐empt or substitute for human decisions in manifold areas, with potentially significant impacts on individuals' lives. Achieving transparency and accountability has been formulated as a general goal regarding the use of these systems. However, concrete applications differ widely in the degree of risk and the accountability problems they entail for data subjects. The present paper addresses this variation and presents a framework that differentiates regulatory requirements for a range of ADM system uses. It draws on agency theory to conceptualize accountability challenges from the point of view of data subjects with the purpose to systematize instruments for safeguarding algorithmic accountability. The paper furthermore shows how such instruments can be matched to applications of ADM based on a risk matrix. The resulting comprehensive framework can guide the evaluation of ADM systems and the choice of suitable regulatory provisions.
Socioinformatics is a new scientific approach to study the interactions between humans and IT. These proceedings are a collection of the contributions during a workshop of the Gesellschaft für Informatik (GI). Researchers in this emerging field discuss the main aspects of interactions between IT and humans with respect to; social connections, social changes, acceptance of IT and the social conditions affecting this acceptance, effects of IT on humans and in response changes of IT, structures of the society and the influence of IT on these structures, changes of metaphysics influenced by IT and the social context of a knowledge society.
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
AbstractAlgorithmic systems are increasingly used by state agencies to inform decisions about humans. They produce scores on risks of recidivism in criminal justice, indicate the probability for a job seeker to find a job in the labor market, or calculate whether an applicant should get access to a certain university program. In this contribution, we take an interdisciplinary perspective, provide a bird's eye view of the different key decisions that are to be taken when state actors decide to use an algorithmic system, and illustrate these decisions with empirical examples from case studies. Building on these insights, we discuss the main pitfalls and promises of the use of algorithmic system by the state and focus on four levels: The most basic question whether an algorithmic system should be used at all, the regulation and governance of the system, issues of algorithm design, and, finally, questions related to the implementation of the system on the ground and the human–machine-interaction that comes with it. Based on our assessment of the advantages and challenges that arise at each of these levels, we propose a set of crucial questions to be asked when such intricate matters are addressed.
Algorithmische Entscheidungssysteme werden immer häufiger zur Klassifikation und Prognose von menschlichem Verhalten herangezogen. Hierbei gibt es einen breiten Diskurs um die Messung der Entscheidungsqualität solcher Systeme (Qualität) und die mögliche Diskriminierung von Teilgruppen (Fairness), welchen sich dieser Artikel widmet. Wir zeigen auf, dass es miteinander unvereinbare Fairnessmaße gibt, wobei wir auf zwei im Speziellen eingehen. Für sich allein betrachtet sind die zwei Maße zwar logisch und haben je nach Anwendungsgebiet auch ihre Daseinsberechtigung, jedoch können nicht beide zugleich erfüllt werden. Somit zeigt sich, dass gerade im Einsatz algorithmischer Entscheidungssysteme im Bereich der öffentlichen IT aufgrund ihres großen Wirkungsbereichs auf das Gemein-wohl höchste Vorsicht bei der Wahl solcher Maßstäbe herrschen muss. Wird im Anwendungsfall die Erfüllung sich widersprechender Maßstäbe gefordert, so muss darüber nachgedacht werden, ob eine algorithmische Lösung an dieser Stelle überhaupt eingesetzt werden darf.
Zunehmend treffen algorithmische Entscheidungssysteme (ADM-Systeme) Entscheidungen über Menschen und beeinflussen damit öffentliche Räume oder die gesellschaftlichen Teilhabemöglichkeiten von Individuen; damit gehören derartige Systeme zur öffentlichen IT. Hier zeigen wir, am Beispiel der Analyse von Rückfälligkeitsvorhersagesystemen und dem Datenspende-Projekt zur Bundestagswahl 2017, wie solche Systeme mit Hilfe von Black-Box-Analysen von der Öffentlichkeit untersucht werden können und wo die Grenzen dieses Ansatzes liegen. Insbesondere bei ADM-Systemen der öffentlichen Hand zeigt sich hierbei, dass eine Black-Box-Analyse nicht ausreichend ist, sondern hier ein qualitätsgesicherter Prozess der Entwicklung und Evaluation solcher Systeme notwendig ist.
In: Bernstein , A , de Vreese , C , Helberger , N , Schulz , W , Zweig , K , Baden , C , Beam , M A , Hauer , M P , Heitz , L , Jürgens , P , Katzenbach , C , Kille , B , Klimkiewicz , B , Loosen , W , Moeller , J , Radanovic , G , Shani , G , Tintarev , N , Tolmeijer , S , van Atteveldt , W , Vrijenhoek , S & Zueger , T 2021 , ' Diversity in news recommendation ' , arXiv.org , pp. 43-61 .
News diversity in the media has for a long time been a foundational and uncontested basis for ensuring that the communicative needs of individuals and society at large are met. Today, people increasingly rely on online content and recommender systems to consume information challenging the traditional concept of news diversity. In addition, the very concept of diversity, which differs between disciplines, will need to be re-evaluated requiring a interdisciplinary investigation, which requires a new level of mutual cooperation between computer scientists, social scientists, and legal scholars. Based on the outcome of a multidisciplinary workshop, we have the following recommendations, directed at researchers, funders, legislators, regulators, and the media industry: Do more research on news recommenders and diversity. Create a safe harbor for academic research with industry data. Optimize the role of public values in news recommenders. Create a meaningful governance framework. Fund a joint lab to spearhead the needed interdisciplinary research, boost practical innovation, develop. reference solutions, and transfer insights into practice.
News diversity in the media has for a long time been a foundational and uncontested basis for ensuring that the communicative needs of individuals and society at large are met. Today, people increasingly rely on online content and recommender systems to consume information challenging the traditional concept of news diversity. In addition, the very concept of diversity, which differs between disciplines, will need to be re-evaluated requiring an interdisciplinary investigation, which requires a new level of mutual cooperation between computer scientists, social scientists, and legal scholars. Based on the outcome of a interdisciplinary workshop, we have the following recommendations, directed at researchers, funders, legislators, regulators, and the media industry: - Conduct interdisciplinary research on news recommenders and diversity. - Create a safe harbor for academic research with industry data. - Strengthen the role of public values in news recommenders. - Create a meaningful governance framework for news recommenders. - Fund a joint lab to spearhead the needed interdisciplinary research, boost practical innovation, develop reference solutions, and transfer insights into practice.