Loading...

ZFA-Logo

Qualitative Sozialforschung – Ausgangspunkte und Ansätze für eine forschende Allgemeinmedizin

DOI: 10.3238/zfa.2009.0105

Teil 1: Theorie und Grundlagen der qualitativen Forschung

Anja Wollny, Gabriella Marx

Schlüsselwörter: qualitative Forschung qualitative Datenerhebung qualitative Auswertung Methoden Versorgungsforschung

Zusammenfassung: Qualitative Forschung gewinnt in der allgemeinmedizinischen Versorgungsforschung zunehmend an Popularität. Der Zugang zu entsprechenden Methoden ist vielfach mit Verunsicherung verbunden, da ihre Komplexität nicht leicht zu durchdringen und die Umsetzung sowohl umfangreiche theoretische als auch praktische Kenntnisse erfordert. Dieser Artikel ist der Anfang einer Serie, die zu einem besseren Verständnis für die Möglichkeiten und Anwendungsfelder qualitativer Methoden sowie für die Durchführung und den Nutzen einzelner Verfahren in der allgemeinmedizinischen Forschung beitragen soll. Der erste Teil erläutert die Charakteristik, die zugrunde liegenden Theorien und die forschungsleitenden Prinzipien sowie die Vorgehensweisen und Ziele der qualitativen Forschung. Zwar ist die qualitative Forschung eine Herausforderung an das forscherische Durchhaltevermögen, doch sind Parallelen zu der praktischen hausärztlichen Arbeit durchaus vorhanden.

Qualitative Versorgungs- forschung in der Allgemeinmedizin

Schauen wir uns die Landschaft der sich national und international immer weiter verbreitenden und immer mehr Interesse findenden qualitativen Versorgungsforschung an, dann können wir ganz allgemein eine Einigkeit darüber feststellen, dass die Methoden der qualitativen Forschung Erkenntnismöglichkeiten bieten, die der quantitativen Forschung verschlossen bleiben. Vor allem für Forschungsfragen, die sich z.B. auf die Perspektive von ÄrztInnen oder PatientInnen beziehen, die die Arzt-Patient-Beziehung untersuchen oder die auf zugrunde liegende Konzepte wie Lebensqualität, Compliance oder Zufriedenheit gründen, sind qualitative Methoden besonders geeignet.

Einerseits ist noch immer die fälschliche Annahme weit verbreitet, qualitative Forschung sei so wenig aufwendig und mühelos durchführbar, dass man eigentlich keine besonderen Vorkenntnisse für die Datenerhebung und -auswertung brauche. Dass qualitative Datenerhebung mehr ist als eine freundliche kollegiale Unterhaltung und qualitative Datenauswertung nicht nur bedeutet, Inhalte wortgenau abzubilden und zu kategorisieren, wird häufig übersehen. Andererseits führt die Komplexität der qualitativen Methoden dazu, dass jene, die gewissenhaft mit ihnen arbeiten wollen, davor zurückschrecken. Sich in der gesamten Breite der qualitativen Forschungsmöglichkeiten auszukennen und auch einzelne Methoden vollständig zu durchdringen, erfordert recht umfangreiche theoretische Kenntnisse und praktische Erfahrungen. Dies aufzulösen kann und soll dieser Artikel nicht leisten. Stattdessen richten wir unseren Fokus zunächst auf die grundlegende Gemeinsamkeit aller qualitativen Methoden: die interpretative, hermeneutische Herangehensweise an das Datenmaterial1.

Um der Komplexität qualitativer Forschung gerecht zu werden, wollen wir uns in einer kleinen Serie jeweils einem Schwerpunktthema widmen. Unser Ziel ist es nicht, die Einführungsliteratur (Tab. 1) um weitere Artikel zu ergänzen. Vielmehr möchten wir uns als qualitative Forscherinnen in der Allgemeinmedizin auf jene Aspekte konzentrieren, von denen wir aufgrund unserer bisherigen Erfahrung und aus Gesprächen mit KollegInnen annehmen, dass sie eine besondere Relevanz besitzen. Wir hoffen, zu einem größeren Verständnis für die Möglichkeiten und den Nutzen einzelner Erhebungs- und Auswertungsverfahren beizutragen, damit ForscherInnen in der Allgemeinmedizin geeignete Anwendungsfelder besser einschätzen und den zu erwartenden Erkenntnisgewinn besser bestimmen können.

In diesem Artikel werden wir neben einer generellen Unterscheidung zwischen quantitativen und qualitativen Forschungsgrundsätzen einen Einblick in die verschiedenen Ansätze qualitativer Forschung und ihre methodologischen2 Grundlagen geben. An einigen Stellen mag den LeserInnen die Auseinandersetzung mit dem Thema ein wenig zu theoretisch vorkommen, für das Nachvollziehen der oft als „Sisyphos-Arbeit“ empfundenen Vorgehensweise qualitativen, d.h. interpretativen Forschens ist dies unseres Erachtens jedoch grundlegend, notwendig und später bei der konkreten Arbeit hilfreich3.

Charakteristische Unterschiede zwischen qualitativer und quantitativer Forschung

Bezogen auf die Allgemeinmedizinische Versorgungsforschung, die zu einem großen Teil Befragungen (Interviews, Gruppendiskussionen, Fokusgruppen) durchführt, lassen sich verschiedene theoretische und forschungspraktische Unterschiede feststellen4.

Qualitative Forschung ist im Gegen- satz zur quantitativen Forschung ein Ansatz zur Erhebung und Auswertung nicht standardisierter Daten und deren interpretative, hermeneutische Auswertung mit dem Ziel der Theorien- oder Typenbildung.

In quantitativen Studien werden vor der Datenerhebung – auf der Grundlage von Vorwissen und bestehender Theorie – eine oder mehrere konkrete Hypothesen formuliert mit dem Ziel, diese durch die Untersuchung zu bestätigen oder zu verwerfen. Vereinfacht, in ein Beispiel gekleidet, bedeutet dies: Hat man die (begründete) Annahme, dass Frauen zu Beginn einer neuen beruflichen Stelle mehr Angst haben als Männer, würde man entsprechende „Berufsanfänger“ – Männer und Frauen – bitten, einen standardisierten Fragebogen zur Erhebung der Angst (Angstfragebogen) auszufüllen, um zu überprüfen, ob die Annahme stimmte. Quantitative Forschung ist also Hypothesen prüfend, ihre Ergebnisse werden als objektiv angenommen. An diesem Ziel orientiert sich auch die Konstruktion von Fragebögen oder Interviews5 . Um durch sie gültige (valide) Aussagen und vergleichbare Ergebnisse zu erhalten, sind eine Standardisierung der Formulierung sowie der Reihenfolge der Fragen notwendige Voraussetzungen, diese gelten vor allem auch, wenn standardisierte Interviews geführt werden. Eine Kommunikation zwischen ForscherInnen und Befragten ist damit stark eingeschränkt, da die Datenerhebung von der Unabhängigkeit der ForscherInnen geprägt ist. Dies hat den Vorteil, dass standardisierte Befragungen aufgrund ihrer Struktur kontrolliert erfolgen und somit recht forschungsökonomisch durchgeführt werden können (Verschicken von Fragebögen per Post, leichtes Erlernen der Interviewtechnik oder ggf. Auslagern standardisierter Interviews). Auch die elektronische Erfassung standardisiert erhobener Daten ist mit wenig Aufwand durchzuführen, da diese an verschiedene Personen ohne Forschungserfahrung weitergegeben werden kann (z.B. wiss. Hilfskräfte). Die Auswertung standardisierter Daten erfolgt durch verschiedene statistische Berechnungen, die eine vorherige Quantifizierung des erhobenen Materials notwendig machen. Schließlich lassen sich auf dieser Basis Aussagen über Häufigkeiten, Vergleiche zwischen Gruppen oder Zusammenhänge und Korrelationen zwischen Variablen bestimmter Phänomene herstellen. Ein großer Vorteil ist dabei, dass Computerprogramme (z.B. SAS, SPSS) die Statistik übernehmen. Die nicht immer ganz einfache Interpretation der Ergebnisse kann durch externe Biometriker, die den medizinischen Abteilungen in der Regel zur Verfügung stehen, unterstützt werden.

Die qualitative Forschung nähert sich einem Forschungsthema mit weitaus mehr Offenheit. Auf der Grundlage von Vorwissen und bestehender Theorie werden zwar Forschungsfragen, jedoch keine determinierenden Hypothesen formuliert. Das Ziel qualitativer Forschung ist es, sich der Beantwortung dieser Fragen (oder besser: der Untersuchung ihrer Forschungsfelder) in einem hermeneutischen Prozess unter Beachtung des Prinzips der Offenheit und des Prinzips der Kommunikation anzunähern (vgl. Tab. 2). Dem Prinzip der Offenheit zufolge ist nicht eine zuvor formulierte Hypothese forschungsleitend, sondern das Verstehen und die Analyse der subjektiven Perspektive, d.h. des subjektiven Sinns oder der Lebenswelt (Alltagswelt) der ProbandInnen. Es geht also nicht um die Auswertung von Häufigkeiten oder das Vergleichen etc. verschiedener Parameter innerhalb einer gesamten Stichprobe, sondern um die Interpretation (Rekonstruktion) tiefer liegender Sinn- und Bedeutungszuschreibungen von Individuen oder Gruppen unter Berücksichtigung ihres jeweiligen Kontextes. Um auf das obige Beispiel zurückzukommen, steht hier nicht die Angst als antizipierte Hypothese im Zentrum des Forschungsinteresses, sondern vielmehr das eigene Erleben der Berufsanfänger. Angst könnte sich dann in der Analyse neben anderen Emotionen als ein strukturales Moment herauskristallisieren, vielleicht würde es aber in der Wahrnehmung der Proband-Innen auch keine Rolle spielen.

Eine scheinbar unstrukturierte aber dennoch methodisch kontrollierte Datenerhebung, wie beispielsweise durch narrative Interviews oder offene Leitfadeninterviews, erhält ihre Kontrolle durch das Befolgen des Prinzips der Kommunikation. Dementsprechend orientiert sich die Formulierung der Fragen an der Alltagssprache und der kommunikativen Leistungen der einzelnen InterviewpartnerInnen sowie an der Erzählung der Befragten im Interviewverlauf. Daneben besteht in der Interviewsituation die beiderseitige Möglichkeit nachzufragen und Missverständnisse zu klären. Die ForscherInnen selbst werden zudem als Teil des Forschungsprozesses angesehen und unterliegen einem fortwährenden Reflexionsprozess ihres eigenen Handelns6, sodass z.B. bei der Datenerhebung gemachte „Fehler“7 während der Auswertung erkannt und bei der Interpretation sowie der weiteren Datenerhebung berücksichtigt werden können. Es sollte nicht verschwiegen werden, dass die Datenerhebung mit einem erheblichen zeitlichen und vor allem fachlichen Aufwand verbunden ist. Selbst offene Leitfadeninterviews können eine Stunde oder mehr Zeit in Anspruch nehmen. Hinzu kommt, dass die InterviewerInnen, sofern sie von der Studienleitung nicht selbst durchgeführt werden, in der offenen Interviewtechnik durch praktische Übungen und Probeinterviews geschult werden müssen. Die Transkription des auditiven Materials (wortgenaue Verschriftlichung nach bestimmten Regeln) kann bisher nicht von Computern durchgeführt werden, sondern erfordert personellen Aufwand. Allerdings gibt es auch die Möglichkeit diesen Arbeitsschritt auszulagern.

Qualitative Untersuchungen werden in der allgemeinmedizinischen Forschung häufig dann durchgeführt, wenn ein bestimmtes Forschungsthema bisher nur wenig untersucht ist, sodass die Ergebnisse einen ersten Überblick liefern sollen. Häufig unterschätzt wird aber, dass auch qualitative Studien dazu geeignet sind, eigenständige und gültige Ergebnisse zu liefern. Ihre Stärke besteht darin, neue Hypothesen und Theorien generieren zu können. Vor allem die abduktive Auswertung der Daten (vgl. den Abschnitt „Ziel und Vorgehensweise qualitativer Forschung“) erfordert Forschungserfahrung und wird – dies ist ein Grundsatz in der qualitativen Forschung insgesamt – in einer Forschergruppe durchgeführt, die optimalerweise interdisziplinär zusammengesetzt ist (zu der Gruppe können ausgebildete Studierende und KollegInnen gehören). Eine technische Unterstützung durch Auswertungsprogramme (z.B. atlas.ti) dient mehr der Strukturierung der Daten und kann die analytische Arbeit nicht ersetzen.

Die qualitative Forschung trägt mit ihren Grundsätzen wesentlich zur Produktion neuenwissenschaftlichen Wissens bei. Dies wird als besondere Stärke qualitativer Forschungsansätze und gleichzeitig Ausdruck ihrer forscherischen Haltung angesehen.

Theoretische Grundlagen qualitativer Sozialforschung

Im Wesentlichen gründet die qualitative, interpretative Sozialforschung auf drei Theorien:

(1) den Symbolischen Interaktionismus (Herbert Blumer),

(2) die Phänomenologie (Alfred Schütz) und

(3) die Ethnomethodologie (Harold Garfinkel).

Ohne im Einzelnen auf die jeweils sehr umfangreichen und über Jahrzehnte teilweise parallel (weiter-)entwickelten Theorien einzugehen, werden hier nur einige zentrale Aspekte herausgestellt, die die Grundhaltung qualitativer Forschung – die Notwendigkeit der Interpretation zur Erfassung der subjektiven Sichtweise – nachvollziehbar machen sollen. Diese Theorien erläutern mit jeweils eigener Schwerpunktsetzung wie soziales Handeln (Alltagshandeln) entsteht.

(1) Der symbolische Interaktionismus geht davon aus, dass „Menschen auf der Grundlage ihrer Deutungen der sozialen Wirklichkeit handeln und diese Wirklichkeit nach bestimmten sozialen Regeln immer wieder neu interaktiv handelnd herstellen“ [2]. Für eine gelungene Interaktion ist das Vorhandensein einer gemeinsamen Basis des Verständnisses von Wirklichkeit notwendige Voraussetzung. Ansonsten würde sich das Handeln der Menschen dem Verstehen der anderen entziehen, sodass Interaktion von Missverständnissen geprägt und eine (gelungene) Verständigung praktisch nicht möglich wäre. Interaktionen orientieren sich an Regeln, die jedoch häufig zwischen den Kulturen aber auch innerhalb eines Kulturkreises verschieden sind. So sind z.B. Begrüßungsrituale und -gesten in Mitteleuropa anders als in Asien. Was bei uns als höflich gilt, ist in anderen Ländern nicht unbedingt gleichbedeutend. Ähnlich verhält es sich auch in unterschiedlichen Gruppen oder Milieus innerhalb derselben Gesellschaft. Soziale Wirklichkeit entsteht nach Blumer erst durch wechselseitige Interpretation von Interaktionssituationen, d.h. von „Gesten“, zu denen auch die Sprache gehört [3]. In der Alltagskommunikation und -interaktion sind viele Interpretationen allerdings implizit und werden nicht reflektiert. Wenn wir also eine bekannte oder fremde Person treffen und diese streckt uns lächelnd die Hand entgegen, so gehen wir davon aus, dass es sich um ein Begrüßungsritual handelt, und wir strecken „automatisch“ ebenfalls die Hand aus, um die Begrüßung zu erwidern. Die Interaktion mit Angehörigen unterschiedlicher Milieus oder Kulturen verläuft oft missverständlich, da die InteraktionspartnerInnen „falsch“ interpretieren, indem sie auf die Erfahrungen und Routinen aus ihrem eigenen Milieu oder Kulturkreis zurückreifen.

(2) Auch die Phänomenologie betont den sozialen Charakter der Wirklichkeit (Lebenswelt), die auf individuell unterschiedliche Weise und in Abhängigkeit von den gesellschaftlichen Erfahrungen gedeutet (also interpretiert) wird. Bei der Deutung von „Dingen“ (dazu gehören lebendige und leblose Dinge sowie die Sprache) greifen Individuen auf drei Ebenen zurück: Wissensvorräte, Erfahrungen und Typiken8 [4]. Die Deutung der Dinge unterliegt zudem Veränderungen, sodass soziale Wirklichkeit nicht als statisch, sondern als wandelbar angesehen werden muss. Dies impliziert zum einen, dass die uns als gegeben wahrgenommene Wirklichkeit gesellschaftlich konstruiert wird und zum anderen, dass es ohne die dahinter liegenden Bedeutungs- und Sinnstrukturen eines jeden Einzelnen keine menschliche Gesellschaft gäbe [5]. „Begreift man Gesellschaft [also] als eine durch handelnde Subjekte konstruierte Wirklichkeit, dann ist diese Wirklichkeit erst erfaßt, wenn die Sinnsetzungsprozesse der Handelnden und der dafür relevante Bezugsrahmen nachgezeichnet [d.h. rekonstruiert] sind“ [6].

(3) Das Interesse der Ethnomethodologie bei der Rekonstruktion subjektiver Sinnsetzungsprozesse gilt der Aufdeckung von Praxen9, die „Mitglieder einer Gruppe von Menschen (Ethnie) verwenden, um ihre alltäglichen Handlungen und Sinndeutungen zu generieren“ [8]. Die Untrennbarkeit sprachlicher Äußerungen von ihrem Kontext (Indexikalität) ist dafür grundlegend. Sprache ist demnach nur in ihrem jeweiligen Zusammenhang zu verstehen. Der subjektive Charakter und die Wandelbarkeit von Interpretationen und Deutungen können aber immer auch zu Missverständnissen bei der – alltagsweltlichen genauso wie bei der wissenschaftlichen – Deutung von Gesten oder Dingen führen. Um die Konstruktion subjektiver Bedeutungszuschreibungen verstehen und angemessen rekonstruieren zu können, hat die Ethnomethodologie vorgeschlagen, die Methode des Fremdverstehens – ähnlich wie bei der Interaktion mit fremden Kulturen – auch innerhalb des eigenen Kulturkreises, der eigenen Gesellschaft und Gruppe anzuwenden. Zur Vermeidung von Fehlinterpretationen und um die Perspektiven der Befragten verstehen zu können, gilt es demnach sowohl in der konkreten Interviewsituation zu bitten, einzelne Gesichtspunkte näher zu erläutern, als auch an das Datenmaterial detaillierte Fragen zu stellen.

Vorgehensweisen und Ziele qualitativer Forschung

In der qualitativen Forschung finden sich eine Vielzahl von Methoden und Theorien, die darauf abzielen, die oben angesprochenen Interpretationsleistungen und Sinngebungsprozesse, also die Symbole zur Konstruktion einer sozialen Wirklichkeit zu analysieren und zu dechiffrieren. Damit kann z.B. das Erleben einer Erkrankung, das Verhältnis zum Arzt/zur Ärztin, die Bedeutung von Macht oder Schwäche in der Arzt-Patienten-Interaktion untersucht werden, letztlich das, was Menschen in ihrem Handeln bestimmt. Auf dieser Basis gilt es dann, Regelmäßigkeiten gesellschaftlicher Gegebenheiten (sozialer Phänomene), also Theorien und Typiken sozialen Handelns zu formulieren.

Indem neben dem WAS gesellschaftlicher Gegebenheiten auch immer das WIE der Herstellung dieser sozialen Phänomene analysiert und beschrieben werden, sollen nicht nur bisher unbekannte Forschungsgebiete und deren Mitglieder in ihrem Handeln untersucht, sondern vor allem auch alltägliche Handlungsmuster der Gesellschaft hinterfragt und verstanden werden. Aus diesem Blickwinkel sind in der Hausarztpraxis also beispielsweise nicht die PatientInnen als „Objekte“ mit akuten oder chronischen Erkrankungen von Interesse, sondern deren subjektive Herstellung von Bedeutungszuweisung im Kontext dieser Erkrankungen.

Dabei wird im Datenmaterial von einer Spannung zwischen manifestem (bewusstem, reflektiertem) und latentem (unbewusstem, nicht reflektiertem) Sinn ausgegangen. Die Dechiffrierung und Rekonstruktion des hinter dem zu beobachtenden Phänomen verborgenen „Wesens“ – also des Latenten – am einzelnen Fall10 soll zur Aufdeckung gesellschaftlicher Verhältnisse beitragen und somit zu generalisierbaren Aussagen führen [9, 10]. Dabei geht es jedoch nicht etwa darum, den Wahrheitsgehalt des dargestellten Phänomens zu entschlüsseln. Es ist vielmehr das Ziel, die sich im Material dokumentierten Sinn- und Bedeutungszuschreibungen einzelner Personen oder Personengruppen zu rekonstruieren [11], also „methodisch kontrolliert herauszuarbeiten, aufgrund welcher Sinnbezüge gerade so gehandelt wurde, wie gehandelt wurde“ [6]. Um sich diesem Ziel zu nähern, gibt es eine Vielzahl verschiedener qualitativer Datenerhebungs- und Auswertungsmethoden. Zu den Methoden der Erhebung verbaler Daten gehören z.B. das fokussierte narrative Interview, das biographisch narrative Interview, das leitfadengestützte Interview (im Sinne eines Themenkataloges) und die Gruppendiskussion11. Je geschlossener die Fragen formuliert sind, die im Interview oder in der Gruppendiskussion gestellt werden, umso weniger Spielraum haben die Beforschten, ihre eigene Perspektive auf die Fragestellung darzustellen. Zum Beispiel erlaubt die Frage „War es Ihnen unangenehm mit dem Arzt über Ihr Problem zu sprechen“ den Interviewten nur wenig Raum für ihre Antwort. Vielmehr wird hier bereits vorausgesetzt, dass das Gespräch mit dem Arzt/der Ärztin als „unangenehm“ empfunden wurde. Im Gegensatz dazu ermöglicht es den Interviewten auf die Frage „Erzählen Sie bitte über Ihren letzten Arztbesuch“ selbst zu entscheiden, was dabei für sie wichtig war, und ob das Gefühl des „Unangenehmen“ überhaupt von Bedeutung war.

Eine entsprechende Offenheit gilt auch für die Auswertungsmethoden. Im Wesentlichen kann zwischen folgenden soziologischen Verfahren unterschie-den werden: objektive Hermeneutik (Ulrich Oevermann), narrationsanalytische Verfahren (Fritz Schütze; Bruno Hildenbrand; Gabriele Rosenthal), dokumentarische Methode (Ralf Bohnsack; Arndt-Michael Nohl) und Grounded Theory (Anselm Strauss; Anselm Strauss/Juliet Corbin).12 Diese Verfahren greifen wiederum auf verschiedene Vorgehensweisen bei der Analyse zurück, die teilweise auch in Kombination Anwendung finden. Dazu gehören die Sequenzanalyse, die Feinanalyse oder die Kategorienbildung.

Ohne an dieser Stelle die einzelnen Methoden und ihre jeweilige Vorgehensweise zu beleuchten, werden wir zunächst die den Methoden zugrunde liegenden Schlussfolgerungsverfahren bei der Datenanalyse beschreiben. Grundsätzlich können dabei drei Verfahren zur Bearbeitung von Datenmaterial unterschieden werden: Abduktion, Induktion und Deduktion (vgl. Tab. 3). Erfahrene ForscherInnen werden an dieser Stelle vermutlich hellhörig und zu Recht anmerken, dass die Deduktion mit Interpretation eigentlich nichts zu tun hat und vor allem in der quantitativen Forschung angewendet wird. Das stimmt zunächst, aber als Teilschritt der Abduktion (s.u.) wird sie auch im Rahmen interpretativer Forschung, gewissermaßen als technischer Zwischenschritt, genutzt.

Wir beginnen mit der Abduktion, da diese in der sozialwissenschaftlichen interpretativen Datenanalyse die übliche Vorgehensweise ist.

Abduktion

Die Vorgehensweise, die der abduktiven Logik folgt, ist vor allem dann einzusetzen, wenn bisher keine entsprechenden Wissensvorräte existieren, anhand derer die Analyse sich orientieren kann, oder wenn Erkenntnisse über bereits bestehende Theorien (Ordnungen und Regeln) hinaus entworfen, also neues Wissen produziert werden soll. „Eine solche Bildung eines neuen ‚types‘, also die Zusammenstellung einer neuen typischen Merkmalskombination ist ein kreativer Schluss, der eine neue Idee in die Welt bringt“ [12]. Das Wesen dieser Vorgehensweise besteht darin, sich auf neue Deutungsprozesse einzulassen, die zwar gedankenexperimentell entstehen, jedoch nicht völlig aus dem begründeten Zusammenhang herausgenommen werden. Das heißt, die abduktive Vorgehensweise erfordert eine gewisse Kreativität bei der Formulierung neuer Hypothesen, die das beobachtete Phänomen erklären sollen. Damit sie aber nicht Produkt „zufälligen Ratens“ werden, ist eine „sehr gute Kenntnis der Daten“ [12] und eine plausible Begründung der Idee sowie die Möglichkeit der Überprüfung dieser Hypothesen unabdingbar [2]. Unter der Befreiung vom alltäglichen Handlungsdruck (Interpretation braucht eine gewisse Zeit und einen entsprechenden ruhigen Rahmen) und einer künstlichen „Dummstellung“ (im Sinne eines sich Fremd-Machens) gegenüber den eigenen Wissensbeständen sowie des Wissens über das Forschungsfeld [13, 14] wird die Analyse in drei sich fortwährend wiederholenden Schritten durchgeführt:

(1) Entwickeln von Hypothesen zu einem kleinen Textsegment (Sequenz),

(2) Ableiten von Voraussagen, d.h. von Folgehypothesen (mit der Frage, was in den nächsten Sequenzen folgen könnte),

(3) Suche nach den Fakten, die das Interpretierte und Vorausgesagte belegen, indem sie wiederum an das Material zurückgespiegelt werden [13].

Die Überprüfung der aus dem Material heraus formulierten Hypothesen an eben diesem Material erfolgt durch deduktive (Schritt 2) und induktive (Schritt 3) Schlussfolgerung. Obwohl das abduktive Schließen also auch deduktive und induktive Schlussfolgerungsprozesse beinhaltet, besteht der wesentliche Unterschied darin, dass „die Abduktion mit der Betrachtung eines empirischen Phänomens“ beginnt, während „bei der Deduktion von einer Theorie und bei der Induktion von einer Hypothese ausgegangen wird“13 [2].

Das Ziel der konsequent abduktiven Vorgehensweise als sequenzanalytische (Einzel)Fallrekonstruktion ist es, die Fallstruktur des untersuchten Datenmaterials zu rekonstruieren, um methodisch-kontrolliert „text-immanente Bedeutungen“ [15] und auf dieser Grundlage „unbewusste Sinnzusammenhänge“ [10] zu analysieren und somit auf die „selbstverständlichen“ Strukturen und Funktionen des Alltagswissens und des Alltagsverstandes aufmerksam zu machen, diese also offenzulegen.

Da bei der abduktiven Vorgehensweise die zugrunde liegende Forschungsfrage zunächst in den Hintergrund gestellt und versucht wird, sich dem Material möglichst offen zu nähern (sich dem Material „fremd zu machen“), ist es möglich, auch über die Fragestellung hinaus Antworten (im Sinne neuer Erkenntnisse) zu erhalten. In einer Untersuchung zur Lebensqualität rauchender AsthmapatientInnen, die gemäß bisher (hier angenommenem) bekanntem Wissen als eher gering anzusehen ist, fragen wir z.B. in offenen Interviews nach dem Leben mit Asthma. Dabei erhalten die Befragten ausreichend Raum, ihre Geschichte „Leben mit Asthma“ zu erzählen. Gemäß der abduktiven Vorgehensweise, „vergessen“ wir bei der Analyse das bisher bekannte Wissen und gehen das Material möglichst unvoreingenommen Sequenz für Sequenz in der zuvor beschriebenen Weise durch. Dabei generieren wir nicht nur Hypothesen im Kontext des eigentlichen Forschungsinteresses, sondern auch zu Themen, die vorher nicht bedacht wurden, z.B. dass das Rauchen von den PatientInnen subjektiv als stresslösend empfunden wird, und sie damit nicht aufhören können, weil sie sich in einer schwierigen privaten Situation befinden – die subjektiv als stark belastend erlebt wird. Oder: dass sie sich von ihrem Arzt nicht verstanden fühlen, da er nicht mit ihnen über ihre privaten Probleme spricht, sondern nur über das Rauchen. Beides hat möglicherweise einen Einfluss auf die Lebensqualität von rauchenden AsthmapatientInnen. Auf dieser Basis könnten verschiedene Patiententypen erarbeitet werden oder ein Bewusstsein dafür entstehen, dass Lebensqualität im Kontext jeweils individueller Relevanzen zu beurteilen ist, wobei andere Faktoren als das Rauchen als einschränkend erlebt werden.

Induktion

Bei der Induktion werden aus dem Datenmaterial abgeleitete Merkmale (Kategorien, Hypothesen) zu Ordnungen oder Regeln abgeleitet (verallgemeinert), d.h. es wird von einzelnen Fällen auf eine bekannte Regel oder Theorie geschlossen [12]. Die Induktion orientiert sich also bei der Analyse zunächst an dem vorliegenden Material und stellt bestimmte qualitative Merkmale einer Stichprobe (Hypothese) dann so heraus, dass sie zu einer bereits bestehenden Ordnung (Theorie) passen, d.h. mit dieser vergleichbar sind. Konkret bedeutet dies, dass zur Interpretation und Erklärung einzelner Merkmale externe Daten (bekanntes Wissen) hinzugezogen werden. Existierende Begriffe können somit auf die neue Stichprobe übertragen werden. Im Material wird fortlaufend nach Belegen (Fakten) gesucht, welche die aus den Daten generierten Hypothesen bestätigen. Analysieren wir also unser o. g. Beispielmaterial mit der induktiven Vorgehensweise, so werden wir alle aus den Daten generierten Hypothesen in einen theoretischen Zusammenhang mit den Ausgangsthemen „Lebensqualität“, „Rauchen“ oder „Asthma“ setzen und uns darauf konzentrieren. Die schwierige private Situation würde uns bei der Analyse vermutlich nur auffallen, wenn darüber explizit gesprochen würde. Das gesamte Material würde unter Zuhilfenahme der bekannten Definition von Lebensqualität untersucht werden. Die Induktion dient folglich der Erweiterung bisher bekannter Themenfelder, bleibt jedoch wirklich neuem (bisher unberücksichtigtem) Wissen weitgehend verschlossen. Dabei erhebt sie nicht den Anspruch Wahrheiten herzustellen, sondern produziert Wahrscheinlichkeiten, mit denen soziale Phänomene erklärt werden.

Deduktion

Die Deduktion orientiert sich an bereits bestehenden Theorien oder Regeln über soziale Phänomene, anhand derer der zu untersuchende Fall erforscht wird. Statt von Deduktion wird auch von Subsumtion oder „subsumtionslogischem“ Vorgehen [2] gesprochen, da der zu untersuchende Fall einer bekannten (als wahr angenommenen) Theorie untergeordnet (subsumiert) wird. Aus bereits bekanntem wissenschaftlichem Wissen (Literatur) werden Hypothesen formuliert, die in der Untersuchung überprüft werden. Dabei wird eine allgemeine Regel auf den Einzelfall angewendet, also vom Allgemeinen auf das Besondere geschlossen. Wird die der Untersuchung zugrunde gelegte Theorie oder Regel als „wahr“ angenommen, so gelten auch die Ergebnisse als „wahr“. Die Deduktion als isoliertes Verfahren dient der Überprüfung von bekannten Regeln und Theorien, womit sie dem quantitativen Paradigma zuzuordnen ist. Als alleiniges Verfahren im Rahmen qualitativer Analysen angewendet, würden demzufolge bei der Datenauswertung lediglich Informationen gesucht, die bereits bestehendem Wissen unterzuordnen sind. In unserer Beispiel-Untersuchung zur Lebensqualität rauchender Asthmapatient-Innen suchen wir bei der Analyse (der offenen Interviews) nach Bestätigung unserer Annahme, indem wir vor allem die Textstellen hervorheben, die die Aussage über die schlechte Lebensqualität bei Asthma und gleichzeitigem Rauchen bestätigen. Als Teilschritt der Abduktion ist sie notwendiger Bestandteil zur Überprüfung der aus den einzelnen Sequenzen generierten Hypothesen, um diese in eine neue, gültige Theorie zu überführen (vgl. den Abschnitt Abduktion).

Fazit für die Forschungs- praxis

Aus dem bisher Dargelegten sollte deutlich geworden sein, dass qualitative Forschung – und hier vor allem die Datenanalyse – sehr komplex ist. Es gibt verschiedene Methoden der Datenerhebung und der Datenauswertung mit jeweils variierenden Methodologien. Aus diesem Grund gibt es auch nicht die qualitative Forschung. Zudem gilt: Obwohl es das ureigene Ziel qualitativer Forschung ist, die Hypothesen in einem hermeneutischen Prozess aus dem Material heraus zu entwickeln, gibt es auch qualitative Methoden, die stärker an den Prinzipien der quantitativen Forschung und der induktiven Schlussfolgerung orientiert sind14. Ist die Erforschung neuer Felder, die Hervorbringung neuen Wissens oder die Rekonstruktion subjektiver Sinn- und Bedeutungszuschreibungen das Ziel der Untersuchung, so ist eine interpretative Vorgehensweise, die der abduktiven Schlussfolgerung verpflichtet ist, unumgänglich15. Aufgrund der eben geschilderten Zielsetzungen der qualitativen Forschung, wird in den Sozialwissenschaften in den letzten Jahren vermehrt von interpretativer oder rekonstruktiver Forschung gesprochen, die sich dem Prinzip der Kommunikation, dem Prinzip der Offenheit und der abduktiven Analysetechnik verpflichtet fühlt.

Qualitative Forschung und hausärztliches Handeln

Qualitative Forschung ist der täglichen konzeptionellen Arbeit in der Hausarztpraxis bei näherer Betrachtung gar nicht so unähnlich: In beiden Fällen ist es notwendig, sich an Regeln und erprobten Vorgehensweisen zu orientieren (evidenzbasierte Medizin – ausgearbeitete Methoden). Es mag banal klingen, doch kann es hilfreich sein, sich hin und wieder bewusst zu machen, dass man nur dann ein guter Arzt/eine gute Ärztin bzw. ein guter Forscher/eine gute Forscherin sein kann, wenn zu dem Grundlagenwissen auch die Erfahrung hinzukommt.

HausärztInnen und ForscherInnen schlussfolgern aus dem Kontext heraus, indem sie PatientInnen bzw. ProbandInnen als ExpertInnen zu dem jeweils eigenen Thema wahrnehmen und bereit sind, von ihnen zu lernen und die subjektive Perspektive zu verstehen. Beide generieren Hypothesen und verändern diese im Prozess der Betreuung bzw. des Forschens. Und beide interessieren sich neben dem WAS, vor allem auch für das WIE des zu untersuchenden Phäno-mens (Beschwerdesymptomatik bzw. Forschungsthema).

Wie HausärztInnen bei jeder Patientin oder jedem Patienten individuelle Entscheidungen für eine angemessene Behandlung treffen müssen, so müssen ForscherInnen zu Beginn jeder Studie entscheiden, welches Verfahren der Datenerhebung und -analyse angewendet werden soll. Diese Entscheidung orientiert sich jeweils an der Fragestellung bzw. dem Forschungsgegenstand, dem zu analysierenden Material und dem Ziel der Untersuchung (Erkenntnisgewinn oder Erweiterung bzw. Überprüfung des Bekannten).

Wie im hausärztlichen Alltag, so können angemessene Entscheidungen auch in der Forschung nur dann getroffen werden, wenn eine ausreichende Kenntnis über mögliche Verfahren besteht. Nun ist es vermutlich nicht möglich, ExpertIn für alles zu werden. Ebenso, wie der Hausarzt/die Hausärztin bei Unsicherheiten eine Überweisung empfiehlt, so sollte auch der Forscher/die Forscherin Experten um Rat fragen, wenn das eigene Wissen und die eigene Erfahrung nicht ausreichen.

Ausblick

Zur Vertiefung des Verständnisses der unterschiedlichen Zielsetzung und Erkenntnismöglichkeiten qualitativer Analysemethoden sollen in Teil 2 dieser Serie (voraussichtlich ZFA 06/09) zwei in der allgemeinmedizinischen Versorgungsforschung weit verbrei-tete Methoden der Datenauswertung im Zentrum stehen: die qualitative Inhaltsanalyse und die Grounded Theory.

Interessenkonflikte: keine angegeben.

Korrespondenzadresse:

Gabriella Marx, M.A.

Abteilung Allgemeinmedizin

Georg-August-Universität Göttingen

Humboldtallee 38

37073 Göttingen

Tel.: (0551) 39–9250

Fax: (0551) 39–14222

E-Mail: gmarx@gwdg.de

Literatur

1 Hopf C. Qualitative Interviews – ein Überblick. In: Flick U, Kardorff E v, Steinke I (Hrsg) Qualitative Forschung. Ein Handbuch. Reinbek bei Hamburg: Rowohlt, 2004: 349–360

2 Rosenthal G. Interpretative Sozialforschung. Eine Einführung. Weinheim: Juventa, 2005

3 Blumer H. Der methodologische Standort des symbolischen Interaktionismus. In: Arbeitsgruppe Bielefelder Soziologen (Hrsg) Alltagswissen, Interaktion und gesellschaftliche Wirklichkeit, Bd. 1, 5. Aufl. Opladen: Westdeutscher Verlag, 1981: 80–146

4 Schütz A, Luckmann T. Strukturen der Lebenswelt. Konstanz: UVK, 2003

5 Berger PL, Luckmann T. Die gesellschaftliche Konstruktion der Wirklichkeit. Frankfurt am Main: Fischer, 1980

6 Schröer N. Wissenssoziologische Hermeneutik. In: Hitzler R, Honer A (Hrsg) Sozialwissenschaftliche Hermeneutik. Eine Einführung. Opladen: Leske + Budrich, 1997: 109–129

7 Treibel A. Einführung in soziologische Theorien der Gegenwart. 3. Aufl. Opladen: Leske + Budrich, 1995

8 Eickelpasch R. Handlungssinn und Fremdverstehen. Grundkonzepte einer interpretativen Soziologie. In: Kneer G, Kraemer K, Nassehi A (Hrsg) Soziologie. Zugänge zur Gesellschaft. Münster: Lit-Verlag, 1994: 119–144

9 Adorno TW. Gesellschaftstheorie und empirische Forschung. In: Tiedemann R (Hrsg) Gesammelte Schriften, Bd. 8. Frankfurt am Main: Suhrkamp, 1969: 538–546

10 König H-D. Tiefenhermeneutik. In: Hitzler R, Honer A (Hrsg) Sozialwissenschaftliche Hermeneutik. Eine Einführung. Opladen: Leske + Budrich, 1997: 213–241

11 Bohnsack R. Rekonstruktive Sozialforschung, Einführung in qualitative Methoden. 6.Aufl. Opladen, Farmington Hills: UTB, Budrich 2007

12 Reicherts J. Abduktion. In: Bohnsack R, Marotzki W, Meuser M (Hrsg) Hauptbegriffe Qualitativer Sozialforschung. Opladen: Leske + Budrich, 2003

13 Reichertz J. Objektive Hermeneutik. In: Hitzler R, Honer A (Hrsg) Sozialwissenschaftliche Hermeneutik. Eine Einführung. Opladen: Leske + Budrich, 1997: 31–55

14 Soeffner HG. Auslegung des Alltags – Der Alltag der Auslegung. Konstanz: UKV, 2004

15 Hitzler R, Honer A. Einleitung: Hermeneutik in der deutschsprachigen Soziologie heute. In: Hitzler R, Honer A (Hrsg) Sozialwissenschaftliche Hermeneutik. Eine Einführung. Opladen: Leske + Budrich, 1997: 7–27

Abbildungen:

Tabelle 1 Empfehlenswerte Literatur zur Einführung in qualitative Forschung.

(Zusammenstellung durch die Autorinnen)

 

Tabelle 2 Prinzipien der qualitativen Forschung.

(Tab. 2: nach Bohnsack R, 2007; Rosenthal G, 2005)

 

Tabelle 3 Schlussfolgerungsverfahren der empirischen Sozialforschung.

(Tab. 3: nach Rosenthal G, 2005; Reicherts J, 2003)

 

1 Abteilung Allgemeinmedizin, Universitätsmedizin Göttingen 2 Abteilung für Allgemeinmedizin, Universitätsklinikum Düsseldorf Peer reviewed article eingereicht: 17.12.2008, akzeptiert: 20.01.2009 DOI 10.3238/zfa.2009.0105

1 Mit (Daten-)Material ist hier immer das zur Analyse vorliegende Transkript einer Audio- oder Videoaufnahme gemeint, dem eine bestimmte Art der Datenerhebung schon voraus gegangen ist.

2 Methodologie ist die Lehre von den Methoden und bezieht sich demzufolge auf die den Methoden zugrunde liegenden (Gesellschafts-)Theorien. 3 Vor allem in der deutschen Sozialforschung wird (anders als im amerikanischen Raum) der theoretischen Fundierung bei der methodischen Anwendung und Weiterentwicklung große Aufmerksamkeit gewidmet.

4 Da die quantitative ebenso wie die qualitative Forschung auf umfassenden theoretischen – und oft ideologisch geprägten – Überlegungen aufbaut, werden wir im Folgenden nur auf einige zentrale Aspekte eingehen. LeserInnen, die sich der quantitativen Forschung verschrieben haben, mögen die hier stark verkürzte Darstellung des quantitativen Paradigmas verzeihen.

5 An dieser Stelle vernachlässigen wir andere standardisierte Verfahren wie Experimente oder Beobachtungen und beziehen uns lediglich auf schriftlich oder mündlich durchgeführte Befragungen.

6 Subjektivität spielt also sowohl auf der Ebene der Datenerhebung als auch auf der Ebene der Datenauswertung eine gewünschte und in den Forschungsprozess eingewobene Rolle.

7 Zu häufigen Fehlern bei der Interviewführung gehören: Unterbrechung der Befragten, Orientierung an dem eigenen Interesse statt an dem Interesse der Befragten (z.B. die Reihenfolge des Interviewleitfadens strikt einhalten, obwohl die Befragten ein anderes Thema eröffnen) oder die Tendenz zu einem dominierenden Kommunikationsstil (z.B. durch Häufung von suggestiven Fragen) [1].

8 Wissensvorräte – als erste Ebene – sind vielfach routiniertes und somit gewohntes Wissen, das bewusst oder unbewusst in unser Handeln einfließt (Routinehandeln). Dazu gehören automatisierte Fertigkeiten (z.B. das Essen mit Besteck), das Gebrauchswissen, das nicht mehr als eigentliches Handeln angesehen wird (z.B. Kopfrechnen) oder das Rezeptwissen, das am wenigsten automatisiert ist (z.B. Blutabnahmen bei medizinischem Personal). Individuell gemachte Erfahrungen – als zweite Ebene – beeinflussen das Handeln, indem in der aktuellen Situation auf sie zurückgegriffen wird. Dabei verlassen wir uns darauf, dass bestimmte Prozesse ähnlich oder gleich ablaufen. In neuen Situationen können Erfahrungen allerdings ihre Wirksamkeit verlieren, wenn die bisherigen Erfahrungen nicht auf die Situation anwendbar sind. Typisierungen – als dritte Ebene – beziehen sich auf Typisches in der Sozialwelt: Wenn ich in eine Arztpraxis gehe, treffe ich dort andere PatientInnen und werde von meinem Arzt/meiner Ärztin untersucht. Typisierungen werden bei bestimmten Handlungsabläufen insofern wirksam, als im Vorfeld der Handlung ein typischer Verlauf der Handlung entworfen wird (wenn ich Blut abnehme, halte ich die Nadel in einem bestimmten Winkel, steche sie in einer bestimmten Tiefe in den Körper hinein etc.). Die Grenzen aller hier geschilderten Ebenen sind jedoch fließend. So wie Erfahrungen ihre Wirksamkeit in neuen Situationen verlieren können und somit neue Typiken entworfen werden müssen, kann auch häufig wiederkehrendes Handeln in den Wissensvorrat übergehen und zu Rezeptwissen werden (Blutabnehmen) [7, 4].

9 Eine „Praxis“ ist im sozial- und kulturwissenschaftlichen Sprachgebrauch als praktisches, unreflektiertes Handeln zu verstehen (also alltägliches Handeln), im Gegensatz dazu steht die „Praktik“, die als theoretisch reflektiert gilt.

10 Unter „Fall“ kann nicht nur ein Individuum, sondern auch eine Gruppe verstanden werden.

11 Der Umfang dieses Artikels reicht nicht aus, um ausführlich auf die einzelnen Methoden einzugehen. Ausgewählte Verfahren sollen daher im Verlauf der Serie aufgegriffen und vertieft werden.

12 Inhaltsanalytische Verfahren (Philipp Mayring) nehmen unter den qualitativen Methoden eine gewisse Sonderstellung ein, da sie nicht explizit der Rekonstruktion latenter Strukturen (also der Interpretation) verpflichtet sind.

13 Bei der Induktion als empirisches Schlussfolgerungsverfahren muss die Hypothese nicht zwangläufig im Vorfeld der Datenanalyse feststehen, sondern kann auch beispielhaft am Material entwickelt werden. Vgl. den folgenden Abschnitt zur Induktion.

14 Hierzu gehören beispielsweise das Leitfadeninterview nach Witzel und die qualitative Inhaltsanalyse nach Mayring. Beide Vorgehensweisen sind zwar der qualitativen Methode zuzuordnen, jedoch sollte den ForscherInnen dabei bewusst sein, dass der Erkenntnisgewinn begrenzt ist. Für eine Reihe von Fragestellungen ist dies durchaus ausreichend und gewünscht.

15 Methoden, die dieser Vorgehensweise folgen, sind z.B. narrationsanalytische Verfahren, die objektive Hermeneutik oder die dokumentarische Methode. Die Grounded Theory gehört zwar auch zu den interpretativen Verfahren, folgt jedoch nicht der sequenziellen Vorgehensweise. D.h. sie berücksichtigt nicht den Interviewverlauf in seiner zeitlichen Abfolge, wodurch eine abduktive Vorgehensweise im strengen Sinne nicht möglich ist. Zudem „verführt“ das Verfahren des Kodierens die ForscherInnen dazu, subsumtionslogisch (also deduktiv) vorzugehen [2].


(Stand: 27.07.2011)

Als Abonnent können Sie die vollständigen Artikel gezielt über das Inhaltsverzeichnis der jeweiligen Ausgabe aufrufen. Jeder Artikel lässt sich dann komplett auf der Webseite anzeigen oder als PDF herunterladen.