Gerhard Raab, Alexander und Fritz Unger geben einen umfassenden Einblick in die relevanten Methoden der Marketing-Forschung. Im Mittelpunkt stehen Fragen der allgemeinen Methodenlehre, der Datenanalyse auf Basis moderner Auswertungsprogramme sowie Anwendungsbeispiele praktischer Marketing-Forschung. Die Autoren gehen auch auf Aspekte internationaler Marketing-Forschung ein. Die statistischen Analyse-Methoden nehmen breiten Raum ein, dennoch sind alle Kapitel ohne umfassende Vorkenntnisse verständlich.(Verlagstext)
Auch in der Methodenlehre gibt es Moden und einen wechselnden Zeitgeist. Der vorliegende Beitrag zeigt, dass sie jedoch nicht dazu führen, dass sich das bisherige Arsenal an Forschungsmethoden als falsch oder unbrauchbar erweist. Vielmehr führen sie dazu, dass sich das Methodenarsenal um wesentliche Teile erweitert und bereichert. Moden kommen oft als Dichotomien, als Begriffspaare daher, wovon der eine Begriff den klassischen und vermeintlich überkommenen Methodenteil bezeichnet und der andere das bisher sträflich vernachlässigte, das innovative oder vermeintlich revolutionär neue Element der Methodenlehre. Der Autor benennt sieben solcher Dichotomien (metrische vs. kategoriale Daten; deskriptiv vs. explikativ; Operationalisieren vs. Messen; Methoden vs. Modelle; Quantifizieren vs. Klassifizieren; Effektstärke vs. statistische Signifikanz; quantitative vs. qualitative Forschung) und weist jeweils darauf hin, was sie für die Entwicklung der empirischen Forschungsmethodik bedeuten oder bedeutet haben. Insgesamt zeigen die Ausführungen, dass sich der Erkenntnisfortschritt durch die empirischen Wissenschaften als Wechselspiel von Theorie und Empirie begreifen lässt, wobei man den Weg von theoretischen Konstruktionen zur empirischen Beobachtung als Deduktion, den umgekehrten Weg von der Empirie zur Theorie als Induktion bezeichnet. Wissenschaftlicher Fortschritt lässt sich somit durch ein Kreismodell charakterisieren, in dem sich Deduktionen aus Theorien und Induktionen aus empirischen Beobachtungen abwechseln. (ICA)
Ziel des DFG-Projekts "Die Notengebung an Hochschulen in Deutschland von den 1960er Jahren bis heute. Trends, Unterschiede, Ursachen" (MU 1625/7) war es, zu untersuchen, ob es systematische Einflüsse auf das Notenniveau von Examensnoten gibt, die nicht auf dem Leistungsniveau der Geprüften beruhen. Ein solcher Einfluss wurde im letzten Jahrzehnt verstärkt diskutiert, die "grade inflation": das Notenniveau werde immer besser ohne dahinter stehende Leistungssteigerung. Zur Analyse sind langfristige Zeitreihen notwendig. Deshalb wurden Examensnoten (Diplom, Magister, 1. Staatsexamen) für möglichst weit zurückreichende Zeiträume erhoben. Bis 1997 wurden die Noten für neun zentrale Fächer aus individuellen Prüfungsunterlagen in den Universitätsarchiven von acht Universitäten entnommen. Daraus wurden jährliche Durchschnittsnoten gebildet und in Zeitreihen gespeichert. Ab 1998 wurden diese Zeitreihen mit den Daten zur Prüfungsstatistik des Statistischen Bundesamts fortgeführt, die ab diesem Zeitpunkt alle individuellen Hochschulprüfungen elektronisch erfasst.
Die Auswertung, deren Publikation erst begonnen hat, zeigt stabile, große Unterschiede zwischen Fächern, zwischen Universitäten im selben Fach, sowie grade inflation und zyklische Verläufe.
Datentabellen in HISTAT: Die N zur Bildung der Durchschnittsnoten zur Berechnung von Konfidenzintervallen u.a. Inferenzstatistik sind separat erfasst. [N kleiner als 4 sind aus Datenschutzgründen nicht angegeben].
A.01 Mittelwerte der Abschlussnoten nach Fach, Abschlussart und Hochschule (1950-2010) A.02 Anzahl der bestandenen Prüfungen nach Fach, Abschlussart und Hochschule (1950-2010) A.03 Anzahl der berücksichtigten Hochschulen in der Kategorie "Alle Hochschulen der Stichprobe" (1950-2010)
Diese Einführung in die quantitativen Methoden der Erziehungswissenschaft beschäftigt sich mit deskriptiver, hypothesenprüfender Forschung und mit Entwicklungsforschung. Die Gliederung orientiert sich am Prozeß der Problemlösung. So werden wissenschaftstheoretische Probleme diskutiert, Fragen der Struktur von Theorien, ihres Informationsgehalts, ihrer empirischen Überprüfbarkeit, der Struktur von Erklärungen und Problemlösungen. Es geht um Versuchsplanung bzw. Stichprobenbildung, um Operationalisierung und Messung, um statistische Auswertung und Interpretation sowie um die Funktion der deskriptiven Statistik und der hypothesenprüfenden Statistik bei Auswertung und Interpretation von Ergebnissen. Besonderes Augenmerk wird auf neuere Verfahren der Metaanalyse gerichtet. Die Einführung erläutert die verschiedenen quantitativen Methoden an zahlreichen Beispielen aktueller empirischer Forschung. Dadurch werden die grundlegenden Prinzipien der Methodenlehre auch für den Anfänger klar und verständlich herausgearbeitet. Jedes Kapitel beginnt mit einer kurzen Übersicht, Zwischenzusammenfassungen verdeutlichen mehrfach die zentralen Inhalte. Am Ende der Kapitel kann der Student mit Hilfe von Studienfragen die Inhalte nochmals intensiv nachbereiten. Im Anhang findet sich ein Glossar mit Erläuterung der zentralen Begriffe sowie ein um-fangreiches Sach- und Personenregister.
Die Analyse und Interpretation von Dokumenten spielt in der politikwissenschaftlichen Methodenlehre nur eine sehr untergeordnete Rolle. Im Kern des "empirisch-analytischen Ansatzes" steht die "erklärende Methode", die Entwicklungen mit Hilfe von Gesetzmäßigkeiten und Rahmenbedingungen zu erfassen versucht und quantitativ-statistische Verfahren anwendet. Faktisch befassen sich die Studierenden und Lehrenden der Politikwissenschaft aber wesentlich intensiver mit der Interpretation von Texten als mit quantitativen Auswertungs- und Erklärungsstrategien. Die Auslegungsprobleme, die uns in Büchern, Gesetzes- und Verwaltungstexten, Reden, Öffentlichen Debatten, Talkshows, Internetmaterialien, Interviews mit Experten oder mit Alltagssprechern, Antworten auf Fragebögen oder Fragen in Telefoninterviews oder in Form fest gefügten gesellschaftlichen Rede- und Denkweisen begegnen, sind nicht nebensächlich oder unbedeutsam. Der vorliegende Beitrag will kein methodisches Inventar für die Arbeit mit Texten angeben, sondern nur einige Integrationsmöglichkeiten aufzeigen und Anregungen für die eigene Arbeite geben. Es geht also nicht um die Teil- oder Spezialhermeneutiken der Politikwissenschaft oder die Rolle der Hermeneutik und der Interpretation, sondern um das Aufzeigen einiger "Auslegungsstrategien" die für politikwissenschaftliche Arbeiten nützlich erscheinen. (ICA2)
Ziele dieses Lehrbuches sind eine verständliche Einführung in wesentliche Konzepte und statistische Grundlagen linearer Strukturgleichungsmodelle (SEM) sowie die didaktische Vermittlung und deren praktische Umsetzung mittels der Statistik-Software "Stata". Die Software Stata ist heute neben SPSS und R eine der weitest verbreiteten Statistik-Software-Pakete in den Sozial-, Verhaltens- und Wirtschaftswissenschaften. Die didaktische Vermittlung von SEM mittels Stata eignet sich auf Grund der (vergleichsweise) einfachen Syntax-Sprache und der Einbettung in eine Software-Umgebung zur nutzerfreundlichen Datenaufbereitung als auch -analyse. Der Inhalt • Warum Strukturgleichungsmodelle anwenden? • Grundlagen in Stata • Grundlagen für Strukturgleichungsmodelle • Strukturmodell: Kausalhypothesen als Pfadmodell • Messmodell: Indikator-Konstrukt-Beziehung und Messfehler • Faktorenanalyse: Messmodell latenter Variablen in SEM • Zusammenfassung: Das vollständige SEM • Grundlagen der Modellschätzung in SEM • Modellbewertung und Ergebnispräsentation • Anwendungsbeispiele von SEM mit Stata • Rückblick und Ausblick Die Zielgruppen • Studierende und Lehrende der Sozial- und Verhaltenswissenschaften mit dem Schwerpunkt Statistik und Methodenlehre • Studierende, Lehrende und Praktiker aus den Bereichen Marketing und Marktforschung Der Autor Dr. Julian Aichholzer ist Mitarbeiter am Institut für Staatswissenschaft der Universität Wien
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
Die Sozialwissenschaftler Florian G. Hartmann und Daniel Lois erklären in diesem Essential Schritt für Schritt und auf Nachvollziehbarkeit bedacht, wie im Rahmen einer quantitativen Untersuchung Hypothesen überprüft werden. Dabei werden methodische und statistische Grundbegriffe besprochen und komplexere Sachverhalte anhand von alltagsnahen Beispielen erläutert. Die Autoren schöpfen bei den Erklärungen aus ihrer Lehr- und Forschungstätigkeit und berücksichtigen die Erfahrungen ihres eigenen Studiums. Der Inhalt Hypothesen: Definition, Ableitung und Formulierung Forschungsdesign Stichprobenziehung Datenerhebung, -aufbereitung und Hypothesentest Die Zielgruppen Studenten und Dozenten der Sozialwissenschaften PraktikerInnen, die in diesem Bereich tätig sind Die Autoren Florian G. Hartmann studierte Pädagogik, Psychologie und Statistik an der LMU München. Seit 2010 ist er an der Fakultät für Humanwissenschaften der Universität der Bundeswehr München als wissenschaftlicher Mitarbeiter beschäftigt. Hier lehrt und forscht er am Lehrstuhl für Sozialwissenschaftliche Methodenlehre. Daniel Lois lehrt und forscht an diesem Lehrstuhl seit 2013 als Professor. Er studierte Soziologie, Politikwissenschaften sowie Wirtschafts- und Sozialgeschichte an der RWTH Aachen. Zu früheren Lehr- und Forschungsstationen zählen Lehrstühle der TU Chemnitz, der Katholischen Universität Eichstätt-Ingolstadt und der Eberhard Karls Universität Tübingen.
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
Die unterhaltsam gestellten Aufgaben zur Vorbereitung auf die Statistikprüfung laden zum Schmunzeln ein: Wie wahrscheinlich wird der Zug mit veränderter Wagenreihung einfahren? Ist eine glatt gelaufene Bahnfahrt ein statistisch bedeutsames Ereignis? Und wie trägt Kiwis pflücken in Neuseeland zur Studiermotivation bei? Geübt werden können Verfahren der Deskriptiv- und Inferenzstatistik und solche aus der Wahrscheinlichkeitsrechnung; der Schwierigkeitsgrad variiert von leicht bis knifflig. Die detailliert beschriebenen Lösungswege und Begründungen zur Auswahl des passenden Verfahrens führen spätestens bei der Auflösung zu Aha-Erlebnissen. Als Handwerkszeug dienen eine Formelsammlung und Verteilungstabellen. In der 2. Auflage mit 20 neuen Aufgaben.
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
Wie plant man eine empirische Erhebung? Wie setzt man die Idee um? Wie werden die Daten analysiert und interpretiert? In gut nachvollziehbaren Schritten bietet dieses Lehrbuch einen Leitfaden für die Umsetzung wissenschaftlicher Erhebungen: von der Forschungsidee über die Konstruktion eines Fragebogens bis hin zu den wichtigsten Auswertungsschritten mit dem Statistikprogramm SPSS / PASW (mit unterschiedlichen Schwierigkeitsgraden). Die darin vermittelten Grundlagen umfassen die Bereiche: grundlegende Definitionen, Skalenarten, Untersuchungsplanung, Methoden der quantitativen Datenerhebung (speziell Fragebogenerhebungen), computerunterstützte Datenaufbereitung, deskriptiv- und inferenzstatistische Datenanalyse, statistische Tests, Korrelationen, lineare Regression, Varianzanalysen und statistische Auswertungsberichte. Ein durch viele Beispiele sehr anschauliches und gut verständliches Lehrbuch, das auf abstrakte Herleitungen und Formeln nahezu vollständig verzichtet, um den Einstieg in die Materie so einfach wie möglich zu gestalten.
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
Mit der Hilfe zahlreicher Beispiele gelingt durch das Buch ein umfassender Einstieg in die Statistik für Studierende der Pflege, Sozialen Arbeit und den Humanwissenschaften. Nach der Betrachtung von Fragestellungen, Hypothesen, dem Verhältnis von Theorie und Methode sowie verschiedenen Studiendesigns folgen Berechnungen verschiedener Verteilungen, das Hypothesentesten, bivariate Analyseverfahren, Varianzanalyse und Regressionen, sowie Grundzüge der Mehrebenenanalyse, gemischter Modelle, Multidimensionaler Skalierung und Auszüge zur Instrumentenentwicklung. Das Buch enthält zahlreiche Übungsaufgaben inkl. ausführlicher Lösungen. Die AutorIn verfügen über langjährige Erfahrung in der Lehre in der Statistik und den standardisierten Verfahren.
Zugriffsoptionen:
Die folgenden Links führen aus den jeweiligen lokalen Bibliotheken zum Volltext:
Gegenstand dieser Untersuchung sind die Einflüsse beruflicher Lernprozesse auf die Einstellungen und das Verhalten von Auszubildenden in industriellen metall- und elektrotechnischen Berufen. Die vergleichende Analyse geht von der Prämisse aus, daß die spezifischen Inhalte und Organisationsformen beruflichen Lernens in diesen beiden Berufsfeldern unterschiedliche Möglichkeiten zu begrifflichem Denken und selbstständigem beruflichen Handeln bieten. … Die Kombination unterschiedlicher Abstraktions- und Komplexitätsgrade der Ausbildungsinhalte mit unterschiedlichen Restriktivitätsgraden der Ausbildungsorganisation bewirkt, daß selbstbestimmtes Arbeiten und Lernen in der elektrotechnischen Ausbildung befördert, in der metalltechnischen Ausbildung behindert werden. Die zentrale These lautet, daß sich die berufsfeldspezifisch unterschiedlichen Möglichkeiten zu selbstbestimmtem Arbeiten und Lernen in den beruflichen und politischen Einstellungen der Auszubildenden und in ihren Verhaltensweisen in Konflikten mit ihren Ausbildern niederschlagen. … Zur Entwicklung von Einstellungs- und Verhaltensskalen und/oder zur Prüfung ihrer Zuverlässigkeit werden Faktoren- und Reliabilitätsanalysen eingesetzt. Um bei der vergleichenden Analyse den Einfluß relevanter Faktoren wie z.B. Größe der Ausbildungsgruppe, Ausbildungsdauer, Schulbildung der Auszubildenden und sozialer Status ihrer Herkunftsfamilie auf das Verhalten und die Einstellungen der Auszubildenden zu kontrollieren, werden metrische und nicht-metrische Regressionsanalysen verwandt. … Auf Technik wird zugleich als Gegenstand wie als Mittel des Forschungsprozesses Bezug genommen: durch die Herausarbeitung der Bedeutung unterschiedlicher industrieller Technikfelder für das untersuchte Verhältnis der Ausbildungsbedingungen zu den Einstellungen und Verhaltensweisen der Auszubildenden; und durch die Reflexion der für diese Untersuchung eingesetzten statistischen Techniken mit dem Ziel, deren Möglichkeiten auszuschöpfen und die erzielten Ergebnisse abzusichern. Insofern kann der vorliegende Beitrag zur beruflichen Sozialisationsforschung auch als angewandte Methodenlehre gelesen werden. (DIPF/Orig.)