Veröffentlicht am von Patricia Schulz
Die Reliabilität ist eines der Gütekriterien quantitativer Forschung. Alle Gütekriterien dienen der Messgenauigkeit. Auf reliable Weise vorgehen bedeutet, dass deine Messung unter gleichen Bedingungen ähnliche Resultate erzielen würde. Ohne Reliabilität, also Zuverlässigkeit, ist das Ergebnis einer Forschung nicht vertrauenswürdig, hat keinen wirklichen Wert und leistet keine wissenschaftlich relevanten Beiträge. Erfahre mehr darüber in diesem Artikel von Studi-Kompass!
Definition Reliabilität
Reliabilität ist Begriff und Messmethode zugleich. Als Begriff bezeichnet es ein Gütekriterium, das bei der Messung theoretischer Konstrukte zur Anwendung kommt und Aufschluss darüber gibt, dass eine Messung replizierbar ist, etwa bei Wiederholungsmessungen. Als Messmethode etwa bei einer Test-Retest-Reliabilität lassen sich die Einstellungen einer Gruppe mit der gleichen Methode, aber zu verschiedenen Zeitpunkten messen. In beiden Fällen bezeichnet Reliabilität die Genauigkeit und Nachvollziehbarkeit beim Verfahren in der Forschung.Man unterscheidet 5 Arten der Reliabilität:
- Interrater Reliabilität
- Retest Reliabilität
- Paralleltest Reliabilität
- Split Half Reliabilität
- Interne Konsistenz Reliabilität
Anwendung der Reliabilität
Um ein Beispiel für angewendete Reliabilität zu geben, kannst du dir eine Befragung als Grundlage einer quantitativen Analyse vorstellen. Wird die Befragung in persönlichen Interviews durchgeführt, lässt sich die Messung kaum auf exakt dieselbe Weise wiederholen. Verwendest du hingegen einen standardisierten Fragebogen mit immer gleichen Fragen für alle Teilnehmer, ist die Methode immer identisch und mühelos replizierbar.
Reliabilitätstypen
Die Reliabilität, also die Zuverlässigkeit einer Forschung, wird durch drei Aspekte getragen, die zusammenhängen und die Voraussetzung für methodische Forschung bilden. Die fünf Arten der Reliabilität beziehen sich auf drei Reliabilitätstypen:
- Stabilität
- Konsistenz
- Äquivalenz
Stabilität
Um als zuverlässig zu gelten, muss eine Methode stabil sein, also gleiche oder ähnliche Resultate ergeben, wenn die Messung zu unterschiedlichen Zeiten, aber mit demselben Instrumentarium und vergleichbaren Voraussetzungen, wiederholt wird.
Konsistenz
Konsistenz liegt vor, wenn alle Teilaspekte oder Items in einem Test, die zu einem Merkmal zusammengefasst werden, auch wirklich exakt dasselbe Merkmal messen.
Äquivalenz
Die Gleichwertigkeit aller Messungen erlaubt das Ausschließen von Verzerrungen und ist ebenfalls ein wesentlicher Aspekt der Reliabilität. Werden Items oder Elemente. gegeneinander aufgestellt, etwa in einer Tabelle, die nicht gleichwertig oder auch nur ähnlich sind, liegt keine Äquivalenz vor.
Arten der Reliabilität
Die Überprüfung und Bestimmung der Reliabilität einer wissenschaftlichen Arbeit kann auf fünf verschiedene Arten erfolgen, die durch Thema und Umfang der Forschung, aber auch die Verfügbarkeit von Datenquellen wie messbaren Werten oder befragten Personen mit bestimmt werden. Meist kommt nur eine der fünf folgenden Arten von Reliabilität praktisch zur Anwendung, die anderen sollten jedoch zumindest theoretisch durchgespielt werden. So kannst du zumindest deine Entscheidung für eine bevorzugte Art von Reliabilität begründen – nicht unwichtig, wenn du deine fertige Bachelor- oder Masterarbeit oder sogar eine Dissertation in der mündlichen Prüfung verteidigen musst.
Interrater Reliabilität
Kommt bei der Auswertung der gleichen Daten durch mehrere Personen immer dasselbe Ergebnis zustande, handelt es sich um Interrater Reliabilität. Hiermit lässt sich vor allem Übereinstimmung messen. Diese Art von Reliabilität steht der Objektivität nah und kommt überall dort zum Einsatz, wo kein standardisiertes Vorgehen möglich ist. Bei der Durchführung von Experteninterviews beispielsweise kann in der Analyse notiert werden, wann und wie oft bestimmte Verhalten oder Sprechgewohnheiten festgestellt werden können. Diese Besonderheiten müssen jedoch genau definiert sein. Auf der Grundlage dieser festgelegten Besonderheiten werten weitere Personen das Interview aus, die Ergebnisse werden schließlich miteinander verglichen.
Retest Reliabilität
Wie die Bezeichnung schon vermuten lässt, geht es hierbei um die mehrfache Erhebung der gleichen Daten. Das ist vor allem dann lohnend, wenn ein bestimmtes Merkmal gemessen werden soll, dass sich auch über längere Zeit nicht verändert, kann jedoch nur durchgeführt werden, wenn die Umgebung für die Datenerhebung, beispielsweise die befragten Personen, auch über längere Zeiträume vorgefunden werden. Ein Retest wäre etwa eine Mitarbeiterbefragung im Unternehmen mit standardisierten Fragebogen im Abstand von mehreren Monaten oder Jahren.
Paralleltest Reliabilität
Sprichwörtlich sind dies parallele Messungen, mit zwei verschiedenen Versionen durchgeführt, beispielsweise abweichend konstruierten Fragebögen. Dabei sollten die Ergebnisse, sofern die Methode reliabel ist, möglichst ähnlich sein. Das geht natürlich auch nur, wenn zwei Versionen eines Messinstruments denkbar und verfügbar sind, wenn man sich also der Datenerfassung auf zwei Wegen annähern kann.
Split Half Reliabilität
Bei der sogenannten Split Half Reliabilität teilst du deine Messung in zwei gleich große Hälften, etwa durch die Halbierung eines Fragebogens. Vorstellbar ist eine Befragung, bei der jede einzelne Frage dazu beitragen soll, bestimmte Charakteristika der Persönlichkeit zu ermitteln. Selbst wenn du den Fragebogen teilst, solltest du bei der Auswertung der Testhälften, wenn nicht zu identischen, so doch zu ähnlichen Ergebnissen für beide Teile kommen – ist das nicht der Fall, ist die Fragestellung womöglich nicht ausdrücklich auf den Zweck der Messung zugeschnitten. Die Vorgehensweise eignet sich für Messungen, bei denen weder ein Paralleltest noch ein Retest möglich sind, immer vorausgesetzt, die Gruppe der Testpersonen ist umfangreich genug, um repräsentative Werte zu liefern.
Interne Konsistenz Reliabilität
Wenn die einzelnen Fragen eines Fragebogens oder Interviews miteinander verglichen werden, führt das dazu, dass jede einzelne von ihnen eigenständig behandelt wird. Fallen die Resultate jeder einzelnen Frage weitgehend deckungsgleich mit den Ergebnissen des gesamten Interviews oder Fragebogens aus, liegt eine hohe interne Konsistenz vor. Da bei dieser Art von Reliabilität keine weiteren Tests erforderlich sind, ist sie eine der bevorzugten Arten bei quantitativen Analysen. Ihre Berechnung kann unter anderem durch „Cronbachs Alpha“, einem Maß für interne Konsistenz, oder die „Cohens Kappa“ genannte Gleichung erfolgen.
Cohens Kappa berechnen
Bei Cohens Kappa handelt es sich um eine Methode, die Interne Konsistenz oder Interrater-Reliabilität der Einschätzungen zweier oder mehrerer Probanden zu berechnen. Benannt ist die Gleichung nach Jacob Cohen, der sie erstmals anwendete:κ = p0 − pc
1 − pc
Hier bezeichnet p0 den messbaren Übereinstimmungswert beider Beurteiler, pc hingegen eine zufällig erwartete Übereinstimmung. Stimmen beide Beurteiler vollkommen überein, entspricht κ einem Wert von 1.
FAQ
Validität und Reliabilität, oder anders gesagt, Gültigkeit und Zuverlässigkeit, gehören zu den drei Gütekriterien der quantitativen Forschung. Sie sorgen dafür, dass Forschungsergebnisse relevant, vertrauenswürdig und wiederholbar sind.
Eine gemessene Reliabilität von 0.70 gilt für Gruppenuntersuchungen als ausreichend, erreicht der Wert 0.80, gilt dies als gut. Hohe Reliabilität ist bei oder über 0.90 gegeben.
Häufig wird die interne Konsistenz als eine der Arten von Reliabilität gemessen, denn hier kommt man ohne zusätzliche Tests aus. Für die Messung wird Cronbachs α verwendet, in der jüngeren Literatur als „tau-äquivalente Reliabilität ρT“ bezeichnet, oder auch Cohens Kappa.
Du hast schon abgestimmt. Danke!
War dieser Artikel hilfreich?