Summary The aim of this paper is to provide an overview of the 'state of the art of QDA or CAQDAS software. The author uses Kahneman's ideas about slow and fast thinking as a framework. Slow thinking in the context of CAQDAS is related to researcher driven analysis and fast thinking to tool- and data driven analysis. The paper is divided into two parts. In the first part, the author describes trends and new developments and in the second part, she offers a critical appraisal.
The recent mass digitization of text data has led to a need to efficiently and effectively deal with the mountain of textual data that is generated. Digitized text is increasingly in the form of digitized data flows (Brent, 2008). Digitized data flows are non-static streams of generated content – including twitter, electronic news, etc. An oft-cited statistic is that currently 85% of all business data is in the form of text (cited in Hotho, Nürnberger & Paass, 2005). This mountain of data leads us to the question whether the labor-intensive traditional qualitative data analysis techniques are best suited for this large amount of data. Other techniques for dealing with large amounts of data may also be found wanting because those techniques remove the researcher from an immersion in the data. Both dealing with large amounts of data and allowing immersion in data are clearly desired features of any text analysis system.
Data analysis in qualitative research: 'Help! I'm drowning in my data' Some researchers collect data so enthusiastically that they panic when confronted with the amount of data. How should they tackle the analysis? In mutual discussion, the authors show in seven tips how the qualitative analyst systematically attacks the data monster.
The critical-creative hermeneutic data analysis framework The critical-creative hermeneutic data analysis framework In this article the authors introduce an alternative method for thematic data analysis. Data analysis has traditionally been conducted for instead of with research participants. The seven-phased critical-creative hermeneutic data analysis framework is based on the principles of hermeneutics, criticality and creativity. The combined use of dialogue and creative expression enables both participant participation in data analysis as well as the surfacing of tacit and embodied knowledge for contestation and debate in communicative spaces.
Kwalitatief onderzoek produceert grote hoeveelheden ruwe data, wat kwalitatieve data-analyse vaak complex en veeleisend maakt en van de onderzoeker(s) flexibiliteit, ervaring en vaardigheden verlangt. Onze stelling is dat in veel kwalitatief onderzoek aan deze complexiteit onvoldoende recht wordt gedaan, doordat in de dagelijkse praktijk vaak door tijdsdruk de pragmatiek overheerst of vaardigheden ontbreken om tot diepgaande analyse te komen. Daarmee gaat veel van de rijkdom en context van kwalitatieve data verloren. Wij pleiten daarom voor het toepassen van het bekende concept 'triangulatie' – traditioneel gedefinieerd als het toepassen van meerdere dataverzamelingsmethoden in een studie – op kwalitatieve data-analyse, om zo de diepte, kwaliteit en eventueel reikwijdte van de bevindingen te vergroten. Analysetriangulatie wordt nog niet veel toegepast, maar is volgens ons een realistische en bruikbare strategie om de methodologische kwaliteit van kwalitatief onderzoek verder te verhogen. Deze strategie is ook geschikt voor onderzoekers die kwalitatief onderzoek doen buiten de 'academie'. Wij werken een en ander hierna uit.
Writing instead of coding: Data analysis in phenomenological research
The step from research data to a rich and meaningful description of a phenomenon appears to be complicated for many researchers. This article describes a method of phenomenological analysis in which writing is emphasized as the central activity. The writing of textual portraits supports the researcher in the process of understanding and enables the disclosure of the experience in an evocative manner. The use of phenomenological literature in the subsequent step of reflective writing brings the analysis to an even higher level.
Twintig jaar geleden verscheen de tweede druk van Qualitative data analysis van Miles en Huberman (1994), een van de eerste standaardwerken gewijd aan kwalitatieve data-analyse. Zij beschreven de aanleiding voor hun boek als volgt: 'the most serious and central difficulty in the use of qualitative data is that methods of analysis are not well formulated' (Miles & Huberman, 1994). Met dit boek wilden zij een bijdrage leveren aan het ontwikkelen van expliciete, systematische analysemethoden, die geloofwaardig en repliceerbaar zouden zijn. Ook in het onderwijs over kwalitatief onderzoek wordt nog weinig aandacht besteed aan data-analyse, in vergelijking met de aandacht voor dataverzameling. Leerboeken over kwalitatief onderzoek wijden meestal aparte hoofdstukken aan observeren, interviewen en het houden van focusgroepen, gevolgd door een algemeen hoofdstuk over data-analyse, waarin algemene stappen worden beschreven. In de afgelopen jaren lijkt deze lacune te worden goedgemaakt door een toenemende aandacht voor kwalitatieve data-analyse: er zijn tientallen boeken over data-analyse vanuit verschillende invalshoeken gepubliceerd. Onlangs verscheen ook een tweede bewerkte druk van Hennie Boeijes boek Analyseren in kwalitatief onderzoek: denken en doen, en binnenkort zal ook een boek van Jeanine Evers het licht zien: Kwalitatieve analyse: kunst én kunde. Beide boeken komen in dit themanummer aan bod. Nu kwalitatieve onderzoeksmethoden steeds meer 'volwassen' zijn geworden en een bredere belangstelling en acceptatie genieten, ligt het voor de hand om de basisprincipes van kwalitatieve data-analyse aan een kritisch onderzoek te onderwerpen. Data-analyse vormt een van de belangrijkste onderdelen van een kwalitatief onderzoek, maar in de uitvoering blijken grote verschillen te bestaan. Het leek ons daarom belangrijk om in dit 57ste nummer van KWALON aandacht te besteden aan verschillende wijzen van kwalitatieve data-analyse.
Summary Nowadays, research without a role for digital data and data analysis tools is barely possible. As a result, we see an increasing interest in research data management, as this enables the replication of research outcomes and the reuse of research data for new research activities. Data management planning outlines how to handle data, both during research and after the research is completed. Trusted data repositories are places were research data are archived and made available for the long term. This article covers the state of the art concerning data management and data repository demands with a focus on qualitative data sets.
From data panic to Moroccan panic: A qualitative analysis of large data collections using codes, code groups and networks in Atlas.ti Large qualitative data collections can cause 'data panic' among qualitative researchers when reaching the stage of analysis. They often find it difficult to get a grip on such large data sets and to find a method of analysis that is both systematic and pragmatic and that can help them with this. In this article, I describe how I used a deductive and inductive method of analysis to get a grip on a large qualitative data collection (consisting of different formats) and how qualitative data analysis software facilitated this. This data reduction method consists of three stages: (1) deductive and inductive coding in Atlas.ti; (2) pattern coding in code groups and networks in Atlas.ti; and (3) reporting on the findings by transforming the networks into written text. This method is useful for researchers from all disciplines who want to analyze large qualitative data collections systematically, but at the same time do not want to drown in rigid methodological protocols that neutralize the creativity, reflexivity and flexibility of the researcher.