Verfahren 7 Die Berechnungsoptionen für Cohens Kappa in den Q-DAS Software-Produkten Verfahren 7: Berechnungsoptionen für Cohens Kappa 1/23 Verfahren 7: Berechnungsoptionen für Cohens Kappa Inhalt Verfahren 7: Berechnungsoptionen für Cohens Kappa...................................................................... 1 Warum dieses Dokument? .............................................................................................................. 2 Aufbau des Beispieldatensatzes aus der AIAG-Richtlinie MSA ....................................................... 3 Beispieldaten ............................................................................................................................... 3 Standardberechnung ....................................................................................................................... 4 AIAG MSA Standard ......................................................................................................................... 7 Datensatz ohne Referenzurteile .................................................................................................. 9 Datensatz mit Referenzurteilen ................................................................................................ 12 AIAG MSA Extended ...................................................................................................................... 15 Datensatz ohne Referenzurteile ................................................................................................ 16 Datensatz mit Referenzurteilen ................................................................................................ 21 Version: A © 2015 Q-DAS GmbH & Co. KG, 69469 Weinheim Cohens_Kappa_solara.docx Verfahren 7: Berechnungsoptionen für Cohens Kappa 2/23 Warum dieses Dokument? In den Programm solara.MP und destra können beim Verfahren 7 verschiedene Berechnungsoptionen für den Kappa-Index nach Cohen eingestellt werden. Worin diese Unterschiede bestehen, kann der Anwender nicht direkt ersehen. Hier wird dem Leser eine Erläuterung geboten, welche Auswirkung das Einstellen einer bestimmten Berechnungsmethode auf die angezeigten Ergebnisse hat. Was mit dem Dokument nicht beabsichtigt ist Das Dokument stellt keine Einführung in die Bestimmung des Kappa-Index nach Cohen dar und es ist auch kein Ersatz für eine Schulung zu diesem Thema. Vielmehr wird das Wissen hier schon vorausgesetzt. Auswertestrategie in solara.MP oder in destra, Modul Messsystemanalyse Wie aus der Abbildung 1 entnommen werden kann, sind drei Berechnungsoptionen für den KappaIndex nach Cohen in der Software verfügbar. Jede Berechnungsoption ist in einem eigenen Kapitel beschrieben, wobei in allen Kapiteln das gleiche Zahlenbeispiel verwendet wurde. Abbildung 1: Auswertestrategie zum Verfahren 7 - Berechnung Cohen's Kappa Das verwendete Zahlenbeispiel stammt aus der AIAG-Richtlinie Measurement System Analysis (4th Edition, Page 134). Aus Platzgründen ist der Rechengang für den Prüfer A jeweils ausführlich dargestellt und derjenige für die weiteren Prüfer – da analog – stets nur angedeutet. Version: A © 2015 Q-DAS GmbH & Co. KG, 69469 Weinheim Cohens_Kappa_solara.docx Verfahren 7: Berechnungsoptionen für Cohens Kappa 3/23 Aufbau des Beispieldatensatzes aus der AIAG-Richtlinie MSA Drei Prüfer haben 50 Einheiten in drei Durchgängen geprüft. Dadurch sind 3 × 3 50 = 450 Prüfergebnisse entstanden. Zusätzlich wurde zu jedem Teil genau eine einzige Referenzbewertung durchgeführt. Somit besteht der Datensatz aus 450 Prüferurteilen und weiteren 50 Referenzurteilen. Beispieldaten Abbildung 2: Beispieldaten aus der AIAG-Richtlinie Measurement System Analysis Version: A © 2015 Q-DAS GmbH & Co. KG, 69469 Weinheim Cohens_Kappa_solara.docx Verfahren 7: Berechnungsoptionen für Cohens Kappa 4/23 Standardberechnung Diese Einstellung ist nur geeignet, wenn in allen Fällen sicher ist, dass die auszuwertenden Datensätze eine Referenzbewertung enthalten. Abbildung 3: Berechnung Cohen's Kappa – Standardberechnung Welche Ergebnisse werden berechnet? Wird ein Datensatz mit Referenzbewertung verwendet und wählt man die Auswertung Cohen’s Kappa – Prüferurteil mit Referenz – Prüferübereinstimmung, so erhält man das in der Fehler! erweisquelle konnte nicht gefunden werden. dargestellte Ergebnis: den Vergleich der Prüferurteile mit den Referenzurteilen, wie z.B. A mit Referenz, B mit Referenz, C mit Referenz und alle Prüfer mit Referenz. Abbildung 4: Ergebnisaufruf bei Einstellung Standardberechnung Abbildung 5: Cohen’s Kappa - Vergleich der Prüferurteile mit der Referenz Version: A © 2015 Q-DAS GmbH & Co. KG, 69469 Weinheim Cohens_Kappa_solara.docx Verfahren 7: Berechnungsoptionen für Cohens Kappa 5/23 Erster Schritt: Die beobachteten Urteilskombinationen der Prüfer werden ausgezählt. Das Ergebnis dieser Zählung ist in der Tabelle 1 dargestellt. Dort bedeutet das Symbol A1, dass hier die Urteile des Prüfers A aus dem ersten Durchgang betrachtet werden. Hinweis: Analog müssen diese Zählungen für die weiteren Durchgänge 2 und 3 durchgeführt werden. A1 mit Referenz Referenz: Teil schlecht = 1 Referenz: Teil gut = 0 Summe Urteil A1: Teil schlecht = 1 34 0 34 Urteil A1: Teil gut = 0 0 16 16 Summe 34 16 50 Tabelle 1: Beobachtete Häufigkeiten der Urteile des Prüfers A Zweiter Schritt: Man berechnet die beobachteten relativen Häufigkeiten der Prüferurteile aus den Zählergebnissen im ersten Schritt. Das Vorgehen mit Ergebnisangabe st in der Tabelle 2 dargestellt. A1 mit Referenz Referenz: Teil schlecht = 1 Referenz: Teil gut = 0 Summe Urteil A1: Teil schlecht = 1 34 = 0.68 50 0 =0 50 0.68 Urteil A1: Teil gut = 0 0 =0 50 16 = 0.32 50 0.32 Summe 0.68 0.32 1 Tabelle 2: Relative Beobachtungshäufigkeit der Urteile des Prüfers A Dritter Schritt: Man berechnet die erwarteten relativen Häufigkeiten, wieder auf der Grundlage der Zählungen im Schritt 1. Das Rechenschema mit Ergebnis ist in der Tabelle 3 dargestellt. A1 mit Referenz Referenz: Teil schlecht = 1 Referenz: Teil gut = 0 Summe Urteil A1: Teil schlecht = 1 34 34 × = 0.4624 50 50 34 16 × = 0.2176 50 50 0.68 Urteil A1: Teil gut = 0 16 34 × = 0.2176 50 50 16 16 × = 0.1024 50 50 0.32 Summe 0.68 0.32 1 Tabelle 3: Erwartete relative Häufigkeiten der Urteile des Prüfers A Vierter Schritt: Es wird der Anteilswert Po = beobachteter Anteil übereinstimmender Prüferurteile und der Anteilswert Pe = Erwarteter Anteil übereinstimmender Prüferurteile berechnet. Dazu werden die Inhalte (Anteilswerte) der Hauptdiagonalzellen in Tabelle 2 bzw. Tabelle 3, addiert. Beobachteter Anteil übereinstimmender Prüferentscheidungen (aus Tabelle 2): 𝑃𝑜 = 0.68 + 0.32 = 1.0 Formel 1: Beobachteter Anteil gleicher Urteile, berechnet für den ersten Durchlauf Prüfer A mit Referenz Version: A © 2015 Q-DAS GmbH & Co. KG, 69469 Weinheim Cohens_Kappa_solara.docx Verfahren 7: Berechnungsoptionen für Cohens Kappa 6/23 Erwarteter Anteil übereinstimmender Prüferentscheidungen (aus Tabelle 3): 𝑃𝑒 = 0.4624 + 0.1024 = 0.5648 Formel 2: Erwarteter Anteil gleicher Urteile, berechnet für den ersten Durchlauf Prüfer A mit Referenz Fünfter Schritt: Es wird der Kappa-Index nach Cohen anhand der im Schritt vier ermittelten Anteilswerte berechnet. Für das Beispiel - Vergleich der Prüferurteile von Prüfer A im ersten Prüfdurchgang mit der Referenzbewertung – ist das Ergebnis dargestellt: 𝜅𝐴1𝑅 = 𝑃𝑜 − 𝑃𝑒 1 − 0.5648 = = 1.0 1 − 𝑃𝑒 1 − 0.5648 Formel 3: Kappa-Index nach Cohen, berechnet für den ersten Durchlauf Prüfer A mit Referenz Für den zweiten Prüfdurchgang des Prüfers A erhält man analog nach dem oben angegebenen FünfSchritt-Schema den Kappa-Werte 𝜿𝑨𝟐𝑹 = 0.9081 und für den dritten Durchgang den Wert 𝜿𝑨𝟑𝑹 = 0,7331. Der Kappa-Index für den Prüfer A ist der Mittelwert aus den drei Kappa-Werten, die man für die drei Durchgänge des Prüfers A zuvor berechnet hat: 𝜅𝐴 = 𝜅𝐴1𝑅 + 𝜅𝐴2𝑅 + 𝜅𝐴3𝑅 1.0 + 0.9081 + 0.7331 = = 0.880 3 3 Formel 4: Kappa-Index nach Cohen, berechnet als Mittelwert Hinweis: Um alle Ergebnisse für das Zahlenbeispiel zu erhalten, muss das Fünf-Schritte-Schema – wie es am Beispiel des Prüfers A beschrieben wurde – auch für die Prüfer B und C ausgeführt werden. In der Tabelle 4 ist das Rechenschema zur Bestimmung der Kappa-Werte dargestellt. 𝜅𝐴 = 𝜅𝐴1𝑅 𝜅𝐴1𝑅 + 𝜅𝐴2𝑅 + 𝜅𝐴3𝑅 3 𝜅𝐴2𝑅 𝜅𝐴3𝑅 𝜅𝐴 + 𝜅𝐵 + 𝜅𝐶 𝜅𝑎𝑙𝑙 = 3 𝜅𝐵1𝑅 + 𝜅𝐵2𝑅 + 𝜅𝐵3𝑅 𝜅𝐵 = 3 𝜅𝐵1𝑅 𝜅𝐵2𝑅 𝜅𝐵3𝑅 𝜅𝐶 = 𝜅𝐶1𝑅 𝜅𝐶1𝑅 + 𝜅𝐶2𝑅 + 𝜅𝐶3𝑅 3 𝜅𝐶2𝑅 𝜅𝐶3𝑅 Tabelle 4: Übersicht zur Bildung der Kappa-Werte, Einstellung Standardberechnung Version: A © 2015 Q-DAS GmbH & Co. KG, 69469 Weinheim Cohens_Kappa_solara.docx Verfahren 7: Berechnungsoptionen für Cohens Kappa 7/23 AIAG MSA Standard Bei dieser Einstellung wird das Rechenschema aus der AIAG-Richtlinie Measurement System Analysis (4th Edition) verwendet. Wer die Ergebnisse genauso wie in der Richtlinie dargestellt erhalten möchte, sollte diese Einstellung in der Software wählen. Abbildung 6: Berechnung Cohen's Kappa - AIAG MSA Standard Welche Ergebnisse werden berechnet? Wird ein Datensatz ohne Referenzwerte geladen, so werden die paarweisen Vergleicher der Prüfer untereinander bestimmt. Paarweiser Vergleich der Prüfer im Beispiel: A mit B, A mit C und B mit C. Abbildung 7: Aufruf der Ergebnisse im "Assistenten" Abbildung 8: Cohen’s Kappa - AIAG MSA Standard, links ohne und rechts mit Referenzwerte-Vergleich unter Verwendung eines Datensatzes ohne Referenzwerte Version: A © 2015 Q-DAS GmbH & Co. KG, 69469 Weinheim Cohens_Kappa_solara.docx Verfahren 7: Berechnungsoptionen für Cohens Kappa 8/23 Bei einem Datensatz mit Referenzwerten werden folgende Ergebnisse ausgegeben: Paarweise Vergleicher der Prüfer untereinander Paarweise Vergleiche der Prüfer mit den Referenzwerten Exemplarisch für die Daten des Beispiels erhält man die folgenden Vergleiche: Abbildung 9: Aufruf der Ergebnisse im "Assistenten" Abbildung 10: Cohen’s Kappa - AIAG MSA Standard – links ohne und rechts mit Referenzwerte-Vergleich unter Verwendung eines Datensatzes mit Referenzwerten Version: A © 2015 Q-DAS GmbH & Co. KG, 69469 Weinheim Cohens_Kappa_solara.docx Verfahren 7: Berechnungsoptionen für Cohens Kappa 9/23 Datensatz ohne Referenzurteile Betrachtet wird das Auswerten gemäß der Auswahl Cohen’s Kappa - Prüferurteil ohne Referenz – Prüferübereinstimmung. Paarweise Vergleiche der Prüferurteile Für die Auswertung werden Urteilspaare gebildet. Die Tabelle 5 zeigt, welche Paarungen im Beispieldatensatz miteinander verglichen werden müssen. Dabei ist die symbolische Schreibweise – bestehend aus Buchstabe und Zahl – wie folgt zu deuten: A1 = Prüfer A im ersten Durchgang, A2 = Prüfer A im zweiten Durchgang, usw. A mit B A1 = B1; A2 = B2; A3 = B3 A mit C A1 = C1; A2 = C2; A3 = C3 B mit C B1 = C1; B2 = C2; B3 = C3 Tabelle 5: Übersicht der paarweisen Urteilsvergleiche Erster Schritt: Bei jedem Durchgang trifft ein Prüfer 50 Prüfentscheidungen. Somit sind für den paarweisen Vergleich der Urteile der beiden Prüfer A und B insgesamt 150 Urteilspaare auszuzählen: 50 Urteilspaare im ersten Durchgang, 50 Urteilspaare im zweiten Durchgang und schließlich 50 Urteilspaare im dritten Durchgang. Das Ergebnis dieser Zählungen ist in der Tabelle 6 dargestellt. A mit B Urteil B: Teil schlecht = 1 Urteil B: Teil gut = 0 Summe Urteil A: Teil schlecht = 1 97 3 100 Urteil A: Teil gut = 0 6 44 50 Summe 103 47 150 Tabelle 6: Beobachtete Häufigkeiten der paarweise miteinander verglichenen Urteile der Prüfer A und B Vierter Schritt: Aus den Ergebnissen der beobachteten Häufigkeiten werden die relativen Häufigkeiten berechnet. A mit B Urteil B: Teil schlecht = 1 Urteil B: Teil gut = 0 Summe Urteil A: Teil schlecht = 1 97 = 0.6467 150 3 = 0.02 150 0.6667 Urteil A: Teil gut = 0 6 = 0.04 150 44 = 0.2933 150 0.3333 Summe 0.6867 0.3133 1 Tabelle 7: Beobachtete relative Häufigkeiten der paarweise verglichenen Urteile der Prüfer A und B Version: A © 2015 Q-DAS GmbH & Co. KG, 69469 Weinheim Cohens_Kappa_solara.docx Verfahren 7: Berechnungsoptionen für Cohens Kappa 10/23 Dritter Schritt: Nun werden die erwarteten relativen Häufigkeiten der paarweisen Urteile berechnet: A mit B Urteil B: Teil schlecht = 1 Urteil B: Teil gut = 0 Summe Urteil A: Teil schlecht = 1 103 100 × = 0.4578 150 150 47 100 × = 0.2089 150 150 0.6667 Urteil A: Teil gut = 0 103 50 × = 0.2289 150 150 47 50 × = 0.1044 150 150 0.3333 Summe 0.6867 0.3133 1 Tabelle 8: Erwartete relative Häufigkeiten der paarweise verglichenen Urteile der Prüfer A und B Vierter Schritt: Mit den Ergebnissen in den Hauptdiagonal-Zellen der Tabelle 7 berechnet man den beobachteten Anteil übereinstimmender Prüferurteile: 𝑃𝑜 = 0.6467 + 0.2933 = 0.94 Formel 5: Beobachteter Anteil gleicher Urteile, berechnet für den Vergleich der Prüfer A und B Mit den Ergebnissen in den Hauptdiagonal-Zellen in der Tabelle 8 berechnet man den erwarteten Anteil übereinstimmender Prüferurteile: 𝑃𝑒 = 0.4578 + 0.1044 = 0.5622 Formel 6: Erwarteter Anteil gleicher Urteile, berechnet für den Vergleich der Prüfer A und B Fünfter Schritt: Nun wird mit den im Schritt 4 berechneten Anteilswerten der Kappa-Index nach Cohen berechnet. 𝜅𝑐 (𝐴 × 𝐵) = 𝑃𝑜 − 𝑃𝑒 0.94 − 0.5622 = = 0.8629 1 − 𝑃𝑒 1 − 0.5622 Formel 7: Kappa-Index nach Cohen, berechnet für den Vergleich der Prüfer A und B Hinweis: Analog werden die Kappa-Werte für den paarweisen Vergleich A mit C und B mit C berechnet. Zur Erinnerung: Im Programm erhält man das Ergebnis, wenn man Cohen’s Kappa - Prüferurteil ohne Referenz – Prüferübereinstimmung auswählt. Version: A © 2015 Q-DAS GmbH & Co. KG, 69469 Weinheim Cohens_Kappa_solara.docx Verfahren 7: Berechnungsoptionen für Cohens Kappa 11/23 Abbildung 11: Cohen's Kappa - MSA AIAG Standard – ohne Referenzwerte-Vergleich Version: A © 2015 Q-DAS GmbH & Co. KG, 69469 Weinheim Cohens_Kappa_solara.docx Verfahren 7: Berechnungsoptionen für Cohens Kappa 12/23 Datensatz mit Referenzurteilen Wählt man Cohen’s Kappa - Prüferurteil mit Referenz – Prüferübereinstimmung, so erhält man die Ergebnisse für den Vergleich der Urteile von jeweils einem Prüfer mit den Referenzurteilen. Übersicht der paarweisen Vergleiche (Prüferurteile mit Referenzbewertung) In der Tabelle 9 ist dargestellt, welche Urteilspaare gebildet werden müssen. Wieder ist die symbolische Schreibweise – Buchstabe und Zahlenwert – wie folgt zu deuten: A1 = Prüfer A im ersten Durchgang, A2 = Prüfer A im zweiten Durchgang, usw. A mit Referenz A1 = Ref.; A2=Ref.; A3 = Ref. B mit Referenz B1 = Ref.; B2 = Ref.; B3 = Ref. C mit Referenz C1 = Ref.; C2 = Ref.; C3 = Ref. Tabelle 9: Übersicht aller paarweise zu vergleichender Urteile - Prüfer mit Referenz Erster Schritt: In jedem Durchgang sind 50 Prüferurteile mit 50 Referenzbewertungen zu vergleichen. Somit sind insgesamt 50 Urteilspaare im ersten Durchgang, 50 Urteilspaare im zweiten Durchgang und schließlich 50 Urteilspaare im dritten Durchgang auszuzählen. Das Ergebnis dieser Zählungen ist in der Tabelle 10 dargestellt. A mit Referenz Referenz: Teil schlecht = 1 Referenz: Teil gut = 0 Summe Urteil A: Teil schlecht = 1 97 3 100 Urteil A: Teil gut = 0 5 45 50 Summe 102 48 150 Tabelle 10: Beobachtete Häufigkeit der paarweise verglichenen Urteile Prüfer A mit Referenz Zweiter Schritt: Mit den Zählergebnissen aus der Tabelle 10 berechnet man die beobachteten relativen Häufigkeiten der paarweisen Urteilsvergleiche Prüfer mit Referenz. Das Ergebnis ist in der Tabelle 11 dargestellt. A mit Referenz Referenz: Teil schlecht = 1 Referenz: Teil gut = 0 Summe Urteil A: Teil schlecht = 1 97 = 0.6467 150 3 = 0.02 150 0.6667 Urteil A: Teil gut = 0 5 = 0.0333 150 45 = 0.3 150 0.3333 Summe 0.68 0.32 1 Tabelle 11: Beobachtete relative Häufigkeit der paarweise verglichenen Urteile Prüfer A mit Referenz Version: A © 2015 Q-DAS GmbH & Co. KG, 69469 Weinheim Cohens_Kappa_solara.docx Verfahren 7: Berechnungsoptionen für Cohens Kappa 13/23 Dritter Schritt: Auf der Grundlage der beobachteten relativen Häufigkeiten in der Tabelle 11 berechnet man die erwarteten relativen Häufigkeiten. Die Berechnungsschritte mit Ergebnissen sind in Tabelle 12 dargestellt: A mit Referenz Referenz: Teil schlecht = 1 Referenz: Teil gut = 0 Summe Urteil A: Teil schlecht = 1 102 100 × = 0.4533 150 150 48 100 × = 0.2133 150 150 0.6667 Urteil A: Teil gut = 0 102 50 × = 0.2267 150 150 48 50 × = 0.1067 150 150 0.3333 Summe 0.68 0.32 1 Tabelle 12: Erwartete relative Häufigkeiten der paarweise verglichenen Urteile Prüfer A mit Referenz Vierter Schritt: Mit den Ergebnissen aus der Tabelle 11 im zweiten Schritt wird der beobachtet Anteil gleicher Entscheidungen berechnet: 𝑃𝑜 = 0.6467 + 0.3 = 0.9467 Formel 8: Beobachteter Anteil gleicher Urteile, berechnet für den Vergleich Prüfer A mit Referenz Analog wird mit den Ergebnissen aus der Tabelle 12 im dritten Schritt der erwartete Anteil gleicher Entscheidungen berechnet: 𝑃𝑒 = 0.4533 + 0.1067 = 0.56 Formel 9: Erwarteter Anteil gleicher Urteile, berechnet für den Vergleich Prüfer A mit Referenz Fünfter Schritt: Mit den Anteilswerten aus dem vierten Schritt wird der Kappa-Index nach Cohen berechnet. 𝜅𝑐 (𝐴 × 𝑅𝑒𝑓) = 𝑃𝑜 − 𝑃𝑒 0.9467 − 0.56 = ≈ 0.879 1 − 𝑃𝑒 1 − 0.56 Formel 10: Kappa-Index nach Cohen, berechnet für den Vergleich Prüfer A mit Referenz Hinweis: Analog gemäß dem gezeigten Fünf-Schritte-Schema muss der Kappa-Index für den Vergleich Prüfer B mit Referenz und Prüfer C mit Referenz bestimmt werden. Zur Erinnerung: Im Programm muss das Ergebnis mit dem Befehl Cohen’s Kappa - Prüferurteil mit Referenz – Prüferübereinstimmung aufgerufen werden. In der Abbildung 12 ist das Ergebnis für das Zahlenbeispiel mit Ergebnissen für alle Prüfer dargestellt. Version: A © 2015 Q-DAS GmbH & Co. KG, 69469 Weinheim Cohens_Kappa_solara.docx Verfahren 7: Berechnungsoptionen für Cohens Kappa 14/23 Abbildung 12: Ergebnisse für die Auswertung Prüferurteil mit Referenz - Berechnungsmethode AIAG MSA Standard Zur Erinnerung: Im Programm muss das Ergebnis mit dem Befehl Cohen’s Kappa - Prüferurteil ohne Referenz – Prüferübereinstimmung aufgerufen werden. In der Abbildung 13 ist das Ergebnis für das Zahlenbeispiel mit Ergebnissen für alle Prüfer dargestellt Abbildung 13: Cohen’s Kappa - AIAG MSA Standard, Vergleich der Prüfer ohne Referenzwerte-Vergleich Version: A © 2015 Q-DAS GmbH & Co. KG, 69469 Weinheim Cohens_Kappa_solara.docx Verfahren 7: Berechnungsoptionen für Cohens Kappa 15/23 AIAG MSA Extended Diese mit AIAG MSA Extended bezeichnete Berechnungsmethode integriert die Berechnung des Kappa-Index nach Fleiss, um die Wiederholbarkeit (Vergleich der Urteile eines Prüfers von einem Durchlauf zum nächsten) berechnen zu können. Abbildung 14: Einstellung in der Auswertestrategie - Berechnungsmethode AIAG MSA extended Welche Ergebnisse werden dargestellt? Bei einem Datensatz ohne Referenzurteile werden die folgenden Vergleiche durchgeführt: Vergleich der Prüfer untereinander (Vergleichbarkeit) Vergleich der Prüfer mit sich selbst (Wiederholbarkeit) Abbildung 15: Cohen’s Kappa - AIAG MSA extended, links ohne und rechts mit Referenzwerte-Vergleich unter Verwendung eines Datensatzes ohne Referenzwerte Bei einem Datensatz mit Referenzurteilen werden folgende Vergleiche durchgeführt: Version: Vergleich der Prüfer (Wiederholbarkeit) Paarweiser Vergleich der Prüfer (Vergleichbarkeit der Prüfer) Vergleich der Prüfer mit dem Standard (Vergleichbarkeit der Prüfer mit dem Standard) A © 2015 Q-DAS GmbH & Co. KG, 69469 Weinheim Cohens_Kappa_solara.docx Verfahren 7: Berechnungsoptionen für Cohens Kappa 16/23 Abbildung 16: Cohen’s Kappa - AIAG MSA extended, links ohne und rechts mit Referenzwerte-Vergleich unter Verwendung eines Datensatzes mit Referenzwerten Datensatz ohne Referenzurteile Liegt ein Datensatz ohne Referenzurteile vor und wählt man die Auswertung Cohen’s Kappa Prüferurteil ohne Referenz – Prüferübereinstimmung, so erhält man mehrere Ergebnisse: 1. Vergleich innerhalb eines jeden Prüfer – Vergleich der Durchläufe: Wiederholbarkeit. 2. Paarweiser Vergleich der Urteile zwischen den Prüfern: Vergleichbarkeit. Der Aufbau der Vergleiche ist weiter unten im Detail beschrieben. Vergleich der Durchläufe der einzelnen Prüfer mit sich selbst - Wiederholbarkeit In der Tabelle 13 sind alle Kombinationen an Paarvergleichen aufgelistet, die insgesamt mit den Beispieldaten durchgeführt werden müssen: A A1 = A2; A1 = A3; A2 = A3 B B1 = B2; B1 = B3; B2 = B3 C C1 = C2; C1 = C3; C2 = C3 Tabelle 13: Übersicht der Vergleiche innerhalb der Prüfer Im Beispiel ist die Zählung exemplarisch für den Prüfer A ausführlich dargestellt und muss analog für die übrigen Prüfer ausgeführt werden. Erster Schritt: Auszählen der Urteilspaare gemäß der ersten Spalte in der Tabelle 13. Das Ergebnis dieser Zählungen ist in der Tabelle 14 dargestellt. A Urteil A: Teil schlecht = 1 Urteil A: Teil gut = 0 Summe Version: A Urteil A: Teil schlecht = 1 92 10 102 Urteil A: Teil gut = 0 6 42 48 © 2015 Q-DAS GmbH & Co. KG, 69469 Weinheim Summe 98 52 150 Cohens_Kappa_solara.docx Verfahren 7: Berechnungsoptionen für Cohens Kappa 17/23 Tabelle 14: Ergebnis der beobachteten Häufigkeiten für den Prüfer A Zweiter Schritt: Mit den beobachteten Häufigkeiten aus der Tabelle 14 berechnet man die beobachteten relativen Häufigkeiten. Der Rechengang und die Ergebnisse für den Prüfer A sind in der Tabelle 15 enthalten. A Urteil A: Teil schlecht = 1 Urteil A: Teil gut = 0 Summe Urteil A: Teil schlecht = 1 92 = 0.6133 150 10 = 0.0667 150 0.68 Urteil A: Teil gut = 0 6 = 0.04 150 42 = 0.28 150 0.32 Summe 0.6533 0.3467 1 Tabelle 15: Beobachtete relative Häufigkeiten für den Prüfer A Dritter Schritt: Anhand der Ergebnissen aus der Tabelle 15 im zweiten Schritt berechnet man die erwarteten relativen Häufigkeiten. Wieder sind die Berechnungsgrundlagen und Ergebnisse nur für den Prüfer A in der Tabelle 16 dargestellt. A Urteil A: Teil schlecht = 1 Urteil A: Teil gut = 0 Summe Urteil A: Teil schlecht = 1 102 102 × = 0.4443 150 150 48 102 × = 0.2357 150 150 0.68 Urteil A: Teil gut = 0 102 52 × = 0.2091 150 150 48 52 × = 0.1109 150 150 0.32 Summe 0.6533 0.3467 1 Tabelle 16: Erwartete relative Häufigkeiten für den Prüfer A Vierter Schritt: Wählt man aus der Tabelle 15 die beobachteten relativen Häufigkeiten der Hauptdiagonalen, so erhält man den beobachteten Anteil gleicher Urteile: 𝑃𝑜 = 0.6133 + 0.28 = 0.8933 Formel 11: Beobachteter Anteil gleicher Urteile, berechnet für den Prüfer A Analog berechnet man mit den Hauptdiagonalelementen der Tabelle 16 – den erwarteten relativen Häufigkeiten übereinstimmender Urteile – den erwarteten Anteil gleicher Urteile: 𝑃𝑒 = 0.4443 + 0.1109 = 0.5552 Formel 12: Erwarteter Anteil gleicher Urteile, berechnet für den Prüfer A Version: A © 2015 Q-DAS GmbH & Co. KG, 69469 Weinheim Cohens_Kappa_solara.docx Verfahren 7: Berechnungsoptionen für Cohens Kappa 18/23 Fünfter Schritt: Mit den beobachteten und erwarteten Anteilen gleicher Entscheidungen wird der Kappa-Index berechnet: 𝜅𝑐 (𝐴) = 𝑃𝑜 − 𝑃𝑒 0.8933 − 0.5552 = ≈ 0.760 1 − 𝑃𝑒 1 − 0.5552 Formel 13: Kappa-Index nach Cohen für den Prüfer A Im Zähler steht die Differenz zwischen dem beobachteten Anteil übereinstimmender Entscheidungen und dem erwarteten Anteil rein zufällig übereinstimmender Entscheidungen. Somit repräsentiert der Zähler den beobachteten Anteil übereinstimmender Entscheidungen, der über den erwarteten Anteil rein zufällig übereinstimmender Entscheidungen hinausgeht. Im Nenner steht der größtmögliche Wert für den Anteil der nicht zufällig übereinstimmenden Prüferurteile. Abbildung 17: Cohen's Kappa - AIAG MSA Extended, ohne Referenzwerte-Vergleich Hinweis: Analog nach diesem Fünf-Schritte-Schema sind die Kappa-Werte für die Vergleiche der Urteile innerhalb der Prüfer B und C berechnet (die ersten drei Zeilen in der Abbildung 17). Version: A © 2015 Q-DAS GmbH & Co. KG, 69469 Weinheim Cohens_Kappa_solara.docx Verfahren 7: Berechnungsoptionen für Cohens Kappa 19/23 Paarweise Vergleiche aller Prüferurteile Insgesamt müssen mit den Beispieldaten die in der Tabelle 17 dargestellten Paarvergleiche ausgezählt werden. A mit B A mit C B mit C A1=B1; A1=B2; A1 = B3; A2=B1; A2 = B2; A2 = B3; A3 = B1; A3 = B2; A3 = B3 A1=C1; A1=C2; A1 = C3; A2=C1; A2 = C2; A2 = C3; A3 = C1; A3 = C2; A3 = C3 B1=C1; B1=C2; B1 = C3; B2=C1; B2 = C2; B2 = C3; B3 = C1; B3 = C2; B3 = C3 Tabelle 17: Übersicht zu dem paarweisen Vergleich der Prüferurteile Exemplarisch wird hier wieder nur der Rechengang für den Vergleich der Prüfer A und B betrachtet. Erster Schritt: Auszählen der paarweisen Urteilskombinationen der Prüfer A und B (gemäß der ersten Zeile in der Tabelle 17). Das Ergebnis ist in der folgenden Tabelle 18 dargestellt: A mit B Urteil B: Teil schlecht = 1 Urteil B: Teil gut = 0 Summe Urteil A: Teil schlecht = 1 289 11 300 Urteil A: Teil gut = 0 20 130 150 Summe 309 141 450 Tabelle 18: Ergebnis der beobachteten Häufigkeiten des paarweisen Vergleiches der Prüfer A und B Zweiter Schritt: Berechnen der beobachteten relativen Häufigkeiten der Urteilskombinationen anhand der Zählergebnisse aus der Tabelle 18. A mit B Urteil B: Teil schlecht = 1 Urteil B: Teil gut = 0 Summe Urteil A: Teil schlecht = 1 289 = 0.6422 450 11 = 0.0244 450 0.6667 Urteil A: Teil gut = 0 20 = 0.0444 450 130 = 0.2889 450 0.3333 Summe 0.6867 0.3133 1 Tabelle 19: Ergebnis der beobachteten relativen Häufigkeiten des paarweisen Vergleiches der Prüfer A und B Dritter Schritt: Bestimmen der erwarteten relativen Häufigkeiten der Urteilskombinationen anhand der Rechenergebnisse aus der Tabelle 18 : A mit B Urteil B: Teil schlecht = 1 Urteil B: Teil gut = 0 Summe Urteil A: Teil schlecht = 1 300 309 × = 0.4578 450 450 300 141 × = 0.2089 450 450 0.6667 Urteil A: Teil gut = 0 150 309 × = 0.2289 450 450 150 141 × = 0.1044 450 450 0.3333 Summe 0.6867 0.3133 1 Tabelle 20: Ergebnis der erwarteten relativen Häufigkeiten des paarweisen Vergches der Prüfer A und B Vierter Schritt: Mit den Hauptdiagonal-Elementen aus der Tabelle der beobachteten relativen Häufigkeit berechnet man den Anteilswert Po = Anteil der beobachteten übereinstimmenden Prüferurteile 𝑃𝑜 = 0.6422 + 0.2889 = 0.9311 Formel 14: Beobachtete Anteil gleicher Urteile Version: A © 2015 Q-DAS GmbH & Co. KG, 69469 Weinheim Cohens_Kappa_solara.docx Verfahren 7: Berechnungsoptionen für Cohens Kappa 20/23 Analog berechnet man mit den Hauptdiagonal-Elementen der Tabelle der erwarteten relativen Häufigkeiten den Anteilswert Pe = Anteil der erwarteten übereinstimmenden Prüferurteile. 𝑃𝑒 = 0.4578 + 0.1044 = 0.5622 Formel 15: Erwarteter Anteil gleicher Urteile Fünfter Schritt: Der Wert für Kappa wird mit diesen Anteilswerten wie folgt errechnet: 𝜅𝑐 (𝐴 × 𝐵) = 𝑃𝑜 − 𝑃𝑒 0.9311 − 0.5622 = ≈ 0.843 1 − 𝑃𝑒 1 − 0.5622 Formel 16: Kappa-Index nach Cohen für den Vergleich der Urteile der Prüfer A und B Im Zähler steht die Differenz zwischen dem beobachteten Anteil übereinstimmender Entscheidungen und dem erwarteten Anteil rein zufällig übereinstimmender Entscheidungen. Somit repräsentiert der Zähler den beobachteten Anteil übereinstimmender Entscheidungen, der über den erwarteten Anteil rein zufällig übereinstimmender Entscheidungen hinausgeht. Im Nenner steht der größtmögliche Wert für den Anteil der nicht zufällig übereinstimmenden Prüferurteile. Abbildung 18: Cohen's Kappa - AIAG MSA Extended, ohne Referenzwerte-Vergleich Version: A © 2015 Q-DAS GmbH & Co. KG, 69469 Weinheim Cohens_Kappa_solara.docx Verfahren 7: Berechnungsoptionen für Cohens Kappa 21/23 Datensatz mit Referenzurteilen Liegt ein Datensatz mit Referenzbewertungen vor, so werden folgende Auswertungen durchgeführt: 1. 2. 3. 4. Vergleich der Durchläufe eines einzelnen Prüfers: Wiederholbarkeit Paarweise Vergleiche der Prüfer ohne Referenz: Vergleichbarkeit Prüfer mit Referenz: Vergleichbarkeit jedes Prüfers mit der Referenz Alle Prüfer mit Referenz: Vergleichbarkeit aller Prüfer mit der Referenz Die Berechnung der Fälle 1 und 2 entspricht dem Vorgehen gemäß dem Abschnitt „Datensätze ohne Referenz“ (Kapitel AIAG MSA Extended). Daher wird auf eine wiederholte Darstellung des Rechenganges hier verzichtet. Im Folgenden angenommen, dass in der Auswertestrategie die Berechnungsmethode AIAG MSA Extended eingestellt ist. Tabelle 21: Darstellung der Einstellung „AIAG MSA extended“ in der Auswertestrategie Vergleich der Prüferurteile mit der Referenzbewertung Die Übersicht, welche Paarvergleiche mit den Beispieldaten insgesamt durchgeführt werden müssen, ist in der Tabelle 22 dargestellt. A mit Referenz A1 = Ref.; A2 = Ref.; A3 = Ref. B mit Referenz B1 = Ref.; B2 = Ref.; B3 = Ref. C mit Referenz C1 = Ref.; C2 = Ref.; C3 = Ref. Tabelle 22: Übersicht der Vergleiche Prüfer mit Referenz Erster Schritt: Bei jedem Prüfdurchgang wurden 50 Prüfentscheidungen getroffen. Damit sind für jeden Prüfer 150 Paare von Prüferurteilen auszuzählen. Das Ergebnis dieser Zählungen ist in den folgenden Tabelle 23 für den Vergleich der Urteile des Prüfers A dargestellt. A mit Referenz Referenz: Teil schlecht = 1 Referenz: Teil gut = 0 Summe Urteil A: Teil schlecht = 1 97 3 100 Urteil A: Teil gut = 0 5 45 50 Summe 102 48 150 Tabelle 23: Beobachtete Häufigkeit der Urteile, gezählt für den Vergleich Prüfer A mit Referenz Version: A © 2015 Q-DAS GmbH & Co. KG, 69469 Weinheim Cohens_Kappa_solara.docx Verfahren 7: Berechnungsoptionen für Cohens Kappa 22/23 Zweiter Schritt: Anhand der Zählergebnisse in der Tabelle 23 berechnet man die beobachteten relativen Häufigkeiten der Urteilskombinationen. In der Tabelle 24 sind diese für den Vergleich der Urteile des Prüfers A mit der Referenzbeurteilung dargestellt. A mit Referenz Referenz: Teil schlecht = 1 Referenz: Teil gut = 0 Summe Urteil A: Teil schlecht = 1 97 = 0.6467 150 3 = 0.02 150 0.6667 Urteil A: Teil gut = 0 5 = 0.0333 150 45 = 0.3 150 0.3333 Summe 0.68 0.32 1 Tabelle 24: Beobachtete relative Häufigkeit der Urteile, berechnet für den Vergleich Prüfer A mit Referenz Dritter Schritt: Mit den Ergebnissen für die beobachteten relativen Häufigkeiten berechnet man die erwarteten relativen Häufigkeit. In der Tabelle 25 sind die erwarteten relativen Häufigkeiten für den Vergleich des Prüfers A mit der Referenzbewertung dargestellt. A mit Referenz Referenz: Teil schlecht = 1 Referenz: Teil gut = 0 Summe Urteil A: Teil schlecht = 1 102 100 × = 0.4533 150 150 48 100 × = 0.2133 150 150 0.6667 Urteil A: Teil gut = 0 102 50 × = 0.2267 150 150 48 50 × = 0.1067 150 150 0.3333 Summe 0.68 0.32 1 Tabelle 25: Erwartete relative Häufigkeit der Urteile, berechnet für den Vergleich Prüfer A mit Referenz Vierter Schritt: Mit den beiden Hauptdiagonalelementen der beobachteten relativen Häufigkeit in der Tabelle 24 berechnet man den Anteilswert Po = beobachteter Anteil übereinstimmender Prüferurteile. 𝑃𝑜 = 0.6467 + 0.3 = 0.9467 Formel 17: Beobachteter Anteil übereinstimmender Entscheidungen, berechnet für den Vergleich Prüfer A mit Referenz Analog wird mit den Hauptdiagonalelementen der erwarteten relativen Häufigkeit in Tabelle 25 der Anteilswert Pe = erwarteter Anteil der übereinstimmender Prüferurteile berechnet. 𝑃𝑒 = 0.4533 + 0.1067 = 0.56 Formel 18: Erwarteter Anteil übereinstimmender Entscheidungen, berechnet für den Vergleich Prüfer A mit Referenz Version: A © 2015 Q-DAS GmbH & Co. KG, 69469 Weinheim Cohens_Kappa_solara.docx Verfahren 7: Berechnungsoptionen für Cohens Kappa 23/23 Fünfter Schritt: Der Kappa-Index nach Cohen für den Vergleich des Prüfers A mit der Referenz wird mit den Anteilswerten aus dem vierten Schritt berechnet. 𝜅𝑐 (𝐴) = 𝑃𝑜 − 𝑃𝑒 0.9467 − 0.56 = ≈ 0.879 1 − 𝑃𝑒 1 − 0.56 Formel 19: Kappa-Index nach Cohen, berechnet für den Vergleich Prüfer A mit Referenz Hinweis: Analog gemäß dem Fünf-Schritt-Schema müssen die Indizes für die Prüfer A und B berechnet werden. Abbildung 19: Cohen's Kappa – AIAG MSA Extended, mit Referenzwerte-Vergleich Zu ergänzen ist noch, dass der Kappa-Wert für alle Prüfer der arithmetische Mittelwert der drei einzelnen Kappa-Werte der Prüfer A bis C ist. Version: A © 2015 Q-DAS GmbH & Co. KG, 69469 Weinheim Cohens_Kappa_solara.docx
© Copyright 2024 ExpyDoc