1. Zum Problem der Verzerrung -- 1.1. Das Interview und Normensyndrome -- 2. Das Interview als Meßinstrument -- 2.1. Das Interview als Forschungsgebiet dimensionaler Analyse -- 2.2. Zur Definition des Interviews -- 2.3. Das Interview als Meßprozeß -- 2.4. Strukturelemente des Meßprozesses Interview -- 2.5. Meßprozeß und Theorien sozialen Verhaltens -- 2.6. Zusammenfassung -- 3. Gültigkeit und Zuverlässigkeit von Interviewdaten -- 3.1. Die Gültigkeit -- 4. Ansätze zu einer Fehlertheorie des Interviews -- 4.1. Die Interpretation der Reize -- 4.2. Das Bezugssystem zur Interpretation von Reizen und Stimuli -- 4.3. Hypothesen -- 5. Eine erste experimentelle Überprüfung unseres Ansatzes -- 5.1. Vorbemerkungen -- 5.2. Theoretische Grundannahmen -- 5.3. Das Untersuchungsfeld -- 5.4. Die Grundanlage des Experiments -- 5.5. Die praktische Durchführung des Experiments -- 5.6. Ergebnisse -- 6. Schlußfolgerungen -- 6.1. Zum Grade der Bewährung unseres theoretischen Ansatzes -- 6.2. Zur praktischen Konsequenz unseres Ansatzes -- Anmerkungen -- Register.
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
Erster Vortrag Definition der Wahrscheinlichkeit -- Zweiter Vortrag Elemente der Wahrscheinlichkeitsrechnung -- Dritter Vortrag Kritik der Grundlagen -- Vierter Vortrag Die Gesetze der großen Zahlen -- Fünfter Vortrag Anwendungen in der Statistik und Fehlertheorie -- Sechster Vortrag Probleme der physikalischen Statistik -- Zusammenfassung der sechs Vorträge in sechzehn Leitsätzen -- Anmerkungen und Zusätze -- Namenverzeichnis -- Sachverzeichnis. Bearbeitet von Dr. R. Hink, Wien.
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
Der Aufsatz analysiert den Produktionsprozeß prozeß-produzierter Verwaltungsdaten als wesentliches Moment von Prüfverfahren, die dementsprechend als prozeßorientierte definiert werden. Den theoretischen Rahmen gibt eine organisationssoziologische Bestimmung der Grundlagen einer Fehlerlehre ab: Hier steht der Entstehungskontext der Daten im Zusammenhang von verschiedenen Merkmalen des Informationsverhaltens und der Informationsstrategien von Organisationen und ihren Klienten sowie Merkmalen der administrativen Einheiten (z.B. Interventionsgrad) im Mittelpunkt. Das langfristige Informationsverhalten der jeweiligen Organisationen gilt als der Bereich, der der sozialwissenschaftlichen Forschung zugänglich gemacht werden muß, wenn diese die Qualität der von Verwaltungen produzierten Daten einschätzen will; dementsprechend gelten als zentrale Prüfprogramme die Analysen von Veränderungen von Informationsprogrammen und administrativer Kausalmodelle. (MB)
Fehler sind gefährlich, ärgerlich und auf jeden Fall unökonomisch, so lautet das einhellige Urteil der Praktiker, ohne gesicherte empirische Belege hierfür zu liefern. Der vorliegende Beitrag widerspricht dieser Sichtweise: es geht dem Autor primär darum, eine "ganzheitliche Betrachtungsweise" des Themas anzustreben, indem die mögliche "Funktionalität" nicht-beabsichtigter Handlungsabläufe näher untersucht wird. Gezeigt wird (nach einem kurzen Überblick zum Stand der Fehlerforschung), wie von dieser Perspektive her empirische arbeits- und sicherheitspsychologische Forschungsarbeiten durchgeführt werden können. Die referierten Ergebnisse von zwei empirischen Studien bestätigen das häufig empirielose Plädoyer für ein "Menschenrecht auf Irrtum" und legen eine gesellschaftliche Enttabuisierung von fehlerhaften Handlungen nahe. (pmb)
"In dem Beitrag werden einerseits unter messtheoretischen Gesichtspunkten unterschiedliche Verfahren zur Erhebung von Kriminalität diskutiert und andererseits empirische Untersuchungen zur Reliabilität und Validität selbstberichteter Delinquenz problematisiert. Ausgangspunkt ist die Frage, ob durch den Vergleich der Ergebnisse von Dunkelfeldbefragungen präzise Aussagen über die Kriminalitätsentwicklung abgeleitet werden können. Das Ergebnis der Literaturanalyse und einer eigenen Studie ist, dass die Messung der selbstberichteten Delinquenz zwar reliabel, aber nicht valide ist, und Prävalenzraten, die aus Umfragen zur selbstberichteten Delinquenz bestimmt werden, in Abhängigkeit von der Deliktsart mehr oder weniger stark unterschätzt werden. Somit muss man selbst in Dunkelfelduntersuchungen von einem Dunkelfeld ausgehen. Die Schlussfolgerung ist, dass Schätzungen der Kriminalitätsentwicklungen, sofern sie aus Befragungen zur selbstberichteten Delinquenz abgeleitet werden, mit hohen Messfehlern behaftet sind." (Autorenreferat)
In einer systematisch-kritischen Analyse soll der Entwicklungsstand der empirischen Wahlforschung in der BRD in Bezug auf ihre Prognose- und Erklärungskompetenz überprüft werden. Gestützt auf die verfügbaren Daten der sieben Bundestagswahlen von 1953 bis 1976 sollen Prognoseverfahren und -fehler dargestellt werden. Durch die Gegenüberstellung von Prognosegrunddaten, Prognosen und den amtlichen Wahldaten sollen die Erfolge und Dekabel von Wahlprognosen seit 1953 erklärt werden. Das Prognoseziel, herauszufinden welchen Erfolg eine Partei beim Wähler, gemessen am prozentualen Stimmergebnis, bei einer bestimmten Wahl hat, wird in vier Einzelziele unterteilt: Bestimmung der Höhe der Wahlbeteiligung; Ermittlung des prozentualen Stimmanteils einer Partei; Entscheidung über die Machtfrage; Erklärung der Grundzüge der künftigen Regierungspolitik. Eine gute, empirisch abgestützte Erklärung eines Wahlergebnisses resultiert aus der Prognosekapazität der dazu einbezogenen empirischen Daten, aus der prognostischen Qualität der aufgestellten Hypothesen und den danach gesammelten Daten, mit denen diese Hypothese versucht wird zu falsifizieren und aus der Messung der das Wahlverhalten bestimmenden VErhaltensdispositionen zur Stimmabgabe für eine Partei. Eine Prognose wird über die Relation zwischen Stimmverhalten, Ergebnissen der Meinungsumfragen und der Mandatszuteilung, die einer Partei die Herrschaftsausübung ermöglicht, bewertet, je enger diese Verbindung ist, desto 'erfolgreicher' wird diese Prognose erscheinen. Allerdings wurden erhebliche Unterschiede zwischen den Rohdaten der Umfrage, wie auch zwischen Wahlprognosen und tatsächlichem Wahlverhalten festgestellt. Diese Prognosel cke betrug durchschnittlich 14,9 Prozent (summierter durchschnittlicher Anteil der Parteien zwischen Erhebungs- und Wahldaten). Aus der Existenz dieser relativ großen Irrtumsmarge wird eine stärkere Beachtung der Kompetenz der Wahlforschung in der Überbrückung der Prognoselücke zwischen den Rohdaten einer Repräsentativbefragung und dem prognostizierten, herrschaftsbestimmenden Zweitstimmenanteil der Parteien gefordert. Die Folge eines geschärften Problembewußtseins für diesen Bereich der Wahlforschung, so wird resümiert, müsste eine verbesserte Transparenz der erhobenen Daten sein, als auch eine breitere Diskussion über die angewandten Prognoseverfahren selbst. (MM)
Louis Althusser (1918-1990) builds on the work of Jacques Lacan to understand the way ideology functions in society. He thus moves away from the earlier Marxist understanding of ideology. In the earlier model, ideology was believed to create what was termed "false consciousness", a false understanding of the way the world functioned. Althusser explains that for Marx "Ideology is [...] thought as an imaginary construction whose status is exactly like the theoretical status of the dream among writers before Freud. For those writers, the dream was the purely imaginary, i.e. null, result of the 'day's residues" (1971:108). Althusser, by contrast, approximates ideology to Lacan's understanding of reality, the world we construct around us after our entrance into the symbolic order. For Althusser, as for Lacan, it is impossible to access the real conditions of existence due to our reliance on language. This could be seen throughout the novel by Margaret Atwood who writes The Handmaid's Tale (1985) based on the concept of ideology. This is about how the heroine of the story and other women in the society are manipulated by the ideology of ruling class through a communist society. In such a world nothing is real and everything is just an illusion that is made by ruling class. The subjects trapped or forced to believe such misconceptions and unreality through different techniques that are employed by the rulers. The dominant forces and ideology are so strong that the subject at the end gets a new identity since she is required unconsciously without her knowing. The other aspect shown by this novel is the failure of revolution and communism in this society and persistence of capitalism that it never disappears.
'Die in den Sozialwissenschaften, den Wirtschaftswissenschaften und der Biometrie bekanntesten Modelle für binäre abhängige Variablen sind das Probit- und Logitmodell. Als Verteilung der Fehlervariablen verwendet man dabei die Normalverteilung beziehungsweise die Logistische Verteilung. Beide Modelle liefern in der Regel ähnliche Schätzungen. Ist die Verteilung der Fehlervariablen schief, so führen Tests schnell zur Ablehnung beider Modelle. Beim Gallant-Nychka Ansatz wird die Verteilung geeignet approximiert. Neben den Parametern des Modells sind simultan die Parameter der Verteilung zu schätzen. Simulationen zeigen, daß die Schätzung bei normalverteilten Fehlervariablen fast genauso effizient wie im Probitmodell, jedoch viel besser bei Abweichungen von der Normalverteilung ist.' (Autorenreferat)
Der Aufsatz analysiert den Produktionsprozeß prozeß-produzierter Verwaltungsdaten als wesentliches Moment von Prüfverfahren, die dementsprechend als prozeßorientierte definiert werden. Den theoretischen Rahmen gibt eine organisationssoziologische Bestimmung der Grundlagen einer Fehlerlehre ab: Hier steht der Entstehungskontext der Daten im Zusammenhang von verschiedenen Merkmalen des Informationsverhaltens und der Informationsstrategien von Organisationen und ihren Klienten sowie Merkmalen der administrativen Einheiten (z.B. Interventionsgrad) im Mittelpunkt. Das langfristige Informationsverhalten der jeweiligen Organisationen gilt als der Bereich, der der sozialwissenschaftlichen Forschung zugänglich gemacht werden muß, wenn diese die Qualität der von Verwaltungen produzierten Daten einschätzen will; dementsprechend gelten als zentrale Prüfprogramme die Analysen von Veränderungen von Informationsprogrammen und administrativer Kausalmodelle. (MB)
"Although agree/ disagree (a/ d) rating scales are hugely popular in the social sciences, a large body of research conducted during more than five decades has documented the bias that results from acquiescence in responses to these items. This may be a reason to prefer questions with Item Specific (IS) response options, but remarkably little research has explored whether responses to a/ d rating scale questions are indeed of lower quality than responses to questions with IS response options. Using a research design that combines the advantages of a random assignment between-subjects experiment and the multitrait-multimethod approach in the context of representative sample surveys, we found that responses to a/ d rating scale questions indeed had much lower quality than responses to comparable questions offering IS response options. These results attest to the superiority of questions with IS response options." (author's abstract)