Institut für Angewandtes Markt-Management Prof. Dr. Wolfgang Müller Reihe Studienmanuskript Band 10 Marketing Analytics Clusteranalyse Dortmund, WS 2015/2016 Fachhochschule Dortmund University of Applied Sciences Fachbereich Wirtschaft Emil-Figge-Straße 44 44047 Dortmund E-Mail: [email protected] Inhaltsverzeichnis 1. Gegenstand der Clusteranalyse _____________________________________ 3 1.1 Aufgabenstellung der Clusteranalyse________________________________ 3 1.2 Verfahrenskennzeichen der Clusteranalyse ___________________________ 4 1.3 Einsatzfelder der Clusteranalyse im Marketing ________________________ 5 2. Methodische Grundlagen der Clusteranalyse __________________________ 6 2.1 Datenmatrix und Verfahrensablauf der Clusteranalyse __________________ 6 2.2 Proximitätsmaße bei kategorialen Merkmalen ________________________ 9 2.3 Proximitätsmaße bei quantitativen Merkmalen _______________________ 13 2.4 Klassifikationsverfahren im Überblick _____________________________ 16 2.5 Optimale Clusteranzahl _________________________________________ 21 2.5 Clusterdiagnose _______________________________________________ 23 3. Hierarchische Clusteranalyse mit SPSS _____________________________ 24 3.1 Die Datenmatrix des Demonstrationsbeispiels _______________________ 24 3.2 SPSS-Analysemethodik _________________________________________ 26 3.3 Interpretation der Distanzmatrix __________________________________ 30 3.4 Darstellungen des Agglomerationsprozesses _________________________ 31 3.5 Bestimmung der Clusterzahl _____________________________________ 35 3.6 Beschreibungen von Clusterprofilen _______________________________ 38 3.7 Gütebeurteilungen der Clusterlösung ______________________________ 43 4. Partitionierende Clusteranalysen ___________________________________ 46 4.1 Verfahrensmerkmale der Clusterzentrenanalyse (K-Means-Verfahren) ____ 46 4.2 K-Means-Analyse bei bekannten Clusterzentren ______________________ 48 4.3 K-Means-Analyse bei unbekannten Clusterzentren ____________________ 56 5. Fallbeispiele aus der Marketingpraxis _______________________________ 65 5.1 Serviceanalysen im Automobilhandel ______________________________ 65 5.2 Strategische Wettbewerbergruppen im Großhandel ___________________ 68 Literaturverzeichnis _______________________________________________ 72 2 1. Gegenstand der Clusteranalyse 1.1 Aufgabenstellung der Clusteranalyse Eine zentrale Aufgabenstellung in den empirischen Sozialwissenschaften besteht darin, eine Menge von Objekten anhand von ausgewählten Merkmalen zu erfassen und in beschreibbare bzw. sachlich interpretierbare Gruppen aufzuteilen. Solche Teilgruppen können sowohl natürliche Gruppierungen darstellen (z.B. Käufer, Nichtkäufer einer Produktart) als auch das Resultat eines statistischen Klassifikationsverfahrens, wie etwa der Clusteranalyse, bilden. Das Ziel der Clusteranalyse besteht darin, eine Menge von Objekten (z.B. Personen, Produkte, Unternehmen, Regionen, Standorte) anhand ihrer Merkmalsausprägungen solcherart in Gruppen (Cluster, Klassen, Typen) aufzuteilen, dass einerseits die Ähnlichkeit zwischen den Objekten innerhalb einer Gruppe möglichst groß ist und andererseits die Ähnlichkeit zwischen den Gruppen möglichst gering ist (vgl. Bacher et. al. 2008, S. 15 ff.; Bortz/Schuster 2010, S. 453 ff.; Schendera 2010, S. 8 f.); Schlittgen 2009; S. 392 ff). Das clusteranalytische Grundprinzip der Objektgruppierung wird beispielhaft in Abbildung 1 veranschaulicht, in der 11 Nachfrager (A-K) anhand der beiden Merkmale „Markenzufriedenheit“ (1= sehr unzufrieden,…,5 = sehr zufrieden) und „Wiederkaufabsicht“ (1= sehr unwahrscheinlich,…, 5 = sehr wahrscheinlich) in zwei Gruppen unterteilt sind. Die Gruppe I setzt sich aus Nachfragern zusammen, die einerseits jeweils eine geringe Markenzufriedenheit sowie andererseits jeweils eine geringe Wiederkaufsicht besitzen. Diese Gruppe könnte man beispielsweise als „Markenwechsler“ bezeichnen. Demgegenüber befinden sich im Cluster II solche Nachfrager, die sowohl eine ausgeprägte Zufriedenheit als auch eine hohe Wiederkaufabsicht aufweisen und sich demnach als die Gruppe der Stammkunden umschreiben lässt. Abbildung 1: Grundprinzip der Clusterbildung 3 Für Nachfrager K hingegen, der trotz einer geringen Markenzufriedenheit eine hohe Wiederkaufabsicht gegenüber der betreffenden Marke äußert, erweist sich eine Gruppenzuordnung als nicht zweckmäßig. Denn wenngleich das scheinbar widersprüchliche Verhalten beispielsweise durch das Konzept der sog. Wechselbarrieren erklärt werden könnte, so bleibt im Rahmen einer Clusteranalyse dennoch zu prüfen, ob dieser nicht als ein Ausreißer aufzufassen und damit möglicherweise vom Untersuchungsprozess auszuschließen wäre. 1.2 Verfahrenskennzeichen der Clusteranalyse Das statistische Konzept der Clusteranalyse lässt sich durch die folgenden Merkmale kennzeichnen: Explorative Datenreduktion: Die Clusteranalyse bildet ein multivariates Analyseverfahren, das wechselseitige Beziehungen zwischen Objekten untersucht, um empirische Klassifikationen, d.h. abgrenzbare Objektcluster aufzudecken. Das explorative Vorgehen der Clusteranalyse ist insbesondere dann hilfreich, wenn zu Beginn der Analyse keinerlei Informationen über die Anzahl sowie die möglichen Charakteristika von Teilgruppen vorliegen. Im Hinblick auf die auszuwertende Datenmatrix geht die Clusteranalyse gewöhnlich mit einer Zusammenfassung der darin enthaltenen Objekte bzw. eine Gruppierung der Matrixzeilen einher. Neben dieser sog. objektorientierten Clusteranalyse besteht eine weitere Verfahrensvariante in der sog. variablenbezogenen Clusteranalyse, bei der Variablen anhand ihrer Ähnlichkeit in bestimmten Objekten zusammengefasst werden (vgl. Bacher et al. 2010, S. 22 f.). In vergleichbarer Weise knüpft eine Faktorenanalyse an den Variablen der Datenmatrix an und beinhaltet somit eine Gruppierung von Variablen bzw. eine Reduktion der Matrixspalten. Gleichwohl soll im Folgenden die clusteranalytische Methodik auf die Variante der objektorientierten Clusteranalyse beschränkt bleiben. Verfahrensflexibilität: Die Clusteranalyse bildet kein standardisiertes, einzelnes Verfahren, sondern bietet vielfältige Gruppierungsoptionen. Diese betreffen zum einen den Dateninput, denn die Clusteranalyse ermöglicht eine Objektgruppierung auf der Basis von nominalen, ordinalen, metrischen, gemischt-skalierten oder gehäuften Klassifizierungsvariablen. Aber auch im clusteranalytischen Untersuchungsprozess stehen dem Anwender zahlreiche Wahlmöglichkeiten zur Verfügung, die einerseits die Messung der Unterschiedlichkeit von Objekten betreffen und sich andererseits auf die Auswahl von Fusionierungstechniken beziehen. Dies hat zur Folge, dass der Einsatz unterschiedlicher Clustermethoden gewöhnlich zu verschiedenartigen Clusterlösungen (z.B. Objektzuordnungen, Clusterzahl) führt. Clusterbeurteilung: Ein besonderes Augenmerk ist auf die Diagnose der generierten Gruppenbildung zu lenken. Eine Clusteranalyse kann zwar eine formal-statistischen Gruppenbildung herbeiführen, sie stellt jedoch keine verfahrensimmanenten Gütekriterien, wie z.B. Teststatistiken zur Ergebnisbewertung bereit. Dem Anwender obliegt demzufolge eine sorgfältige Entscheidung hinsichtlich zweier Problemstellungen: Er hat zum einen über die sachgerechte Auswahl der statistischen Teilprozeduren einer Clusteranalyse zu entscheiden. Und zum anderen bedarf es einer differenzierten Gütebeurteilung der 4 Clusterlösung (vgl. Bacher et al. 2010, S. 16 ff.). Der Katalog clusteranalytischer Gütekriterien umfasst beispielsweise die zentrale Forderung, dass die Objekte innerhalb eines Clusters einander möglichst ähnlich sind („IntragruppenHomogenität“) und diejenigen Objekte, die unterschiedlichen Clustern angehören, demgegenüber einander möglichst unähnlich sind („Intergruppen-Heterogenität“). Ergänzend sollen die gewonnenen Cluster sachlich interpretierbar sein, eine Stabilität gegenüber alternativen Clusterprozeduren besitzen sowie eine gewisse Mindestgröße aufweisen. Integrierter Verfahrenseinsatz: Die Clusteranalyse lässt sich mit zahlreichen statistischen Analyseverfahren verknüpfen. Möchte man beispielsweise vermeiden, dass eine Clusteranalyse auf der Grundlage intervallskalierter, korrelierender Objektmerkmale durchgeführt wird, so kann mittels einer vorgeschalteten Faktorenanalyse eine Verdichtung auf wenige, unkorrelierte Faktoren erfolgen (vgl. Müller 2015 a). Daneben bietet beispielsweise eine Varianzanalyse Aufschluss darüber, ob die erzeugten Cluster sich signifikant voneinander unterscheiden. Ferner ist es mit Hilfe einer Diskriminanzanalyse möglich, diejenigen Objektmerkmale aufdecken, die eine besonders starke Trennung der ermittelten Gruppen herbeiführen (vgl. Müller 2015 b). Schließlich kann es sinnvoll sein, eine clusteranalytische Güte-evaluation mit Hilfe der Berechnung und Interpretation von speziellen statistischen Maßzahlen, wie z.B. dem sog. Rand-Index der Zuordnungsübereinstimmung, vorzunehmen (vgl. Bacher et. al. 2010, S. 272 ff.; Bortz/ Schuster 2010, S. 467 ff.). 1.3 Einsatzfelder der Clusteranalyse im Marketing Das marketingbezogene Einsatzfeld der Clusteranalyse umfasst primär die nachstehenden Entscheidungsbereiche (vgl. hierzu u.a. Aaker/Kumar/Leone 2013, S. 453 ff.; Churchill/Iacobucci 2005, S. 585 ff.; Homburg 2015; S. 372 ff.; Jensen 2008; Malhotra/Birks/Wills 2013, S. 376 ff.; McDaniel/Gates, 2013, S. 555 ff.): Marktsegmentierung: Ein zentrales marketingrelevantes Einsatzfeld der Clusteranalyse bildet die Abgrenzung und Beschreibung von Käufersegmenten, um konkrete Anhaltspunkte zur zielgruppengerechten Gestaltung der MarketingInstrumente zu erhalten. Das Spektrum von Segmentierungsvariablen des Käuferverhaltens ist breit gesteckt und umfasst sozio-demographische Merkmale (z.B. Alter, Geschlecht von Personen), psychographische Merkmale (z.B. Lebensstile, Einstellungen von Personen) und Merkmale des beobachtbaren Käuferverhaltens (z.B. Markenwahl, Kaufintensität von Nachfragern). Strategische Wettbewerbergruppen: Daneben kann die Clusteranalyse zur Erfassung und Beschreibung von sog. strategischen Wettbewerbergruppen herangezogen werden. Strategische Wettbewerbergruppen setzen sich aus einer Teilmenge von Unternehmen einer bestimmten Branche zusammen, die sich im Hinblick auf den Einsatz von strategischen Unternehmensaktivitäten (z.B. Art des Produktionssystems, Maßnahmen der Personalentwicklung, Instrumente des Marketing-Mix) ähnlich sind. Aus solcherart abgegrenzten Wettbewerbergruppen sollen Anhaltspunkte über Erfolgspotenziale (z.B. Gewinnpotenziale) und die Wettbewerbsdynamik einer Branche gewonnen werden. 5 Markenpositionierung: Ferner erweist sich die Clusteranalyse im Rahmen der sog. Markenpositionierung als überaus hilfreich. Hierbei wird auf der Basis von Produkteigenschaften der in einem bestimmten Produktmarkt (z.B. Markt für Fruchtsaftgetränke) angebotenen Marken angestrebt, zunächst Markengruppen voneinander abzugrenzen und anschließend die Frage zu beantworten, ob Marken beispielsweise mit Wettbewerbsvorteilen oder –Nachteilen ausgestattet sind. Selektion von Ländermärkten: Im Entscheidungsfeld des internationalen Marketings kann eine Aufgabenstellung der Clusteranalyse darin liegen, eine Anzahl von Ländermärkten bezüglich ausgewählter Merkmale (z.B. der politischrechtlichen, der sozio-kulturellen Marktumwelt) zu gruppieren, um eine zieladäquate Ländermarktselektion zu unterstützen. Standortanalyse: Bei betrieblichen Standortanalysen ist es vielfach zweckmäßig, die Menge der Standortalternativen nach Maßgabe ihrer Attraktivität (z.B. verkehrstechnische Infrastruktur) zu Standortclustern zusammenzufassen und hieran anschließend vertiefende Detailanalysen der Standortbewertung und auswahl durchzuführen. Abgrenzung von Testmärkten: Ein weiteres, gleichwohl spezielles Aufgabenfeld der Clusteranalyse besteht darin, im Zuge der experimentellen Untersuchung der Erfolgswirksamkeit von Marketingmaßnahmen (z.B. bei der Markteinführung von Neuprodukten) jene Testmärkte abzugrenzen, in denen der Einsatz bzw. die Variation der testrelevanten Instrumente erfolgen und gemessen werden soll. 2. Methodische Grundlagen der Clusteranalyse 2.1 Datenmatrix und Verfahrensablauf der Clusteranalyse Die clusteranalytische Vorgehensweise umfasst fünf Phasen, wobei die Erstellung der Proximitätsmatrix und die Auswahl der Klassifikationsmethode den methodischen Kern der Analyseprozedur darstellen (vgl. Abb. 2): 6 Abbildung 2: Verfahrensablauf der Clusteranalyse Den Ausgangspunkt einer Clusteranalyse bildet eine Rohdatenmatrix, in der die Merkmalsausprägungen der betrachteten Objekte enthalten sind (vgl. Tabelle 1). Die Auswahl jener Objekte und Merkmale, die als Dateninput des clusteranalytischen Vorgehens dienen sollen, ist aus der konkreten Marketingaufgabe abzuleiten. Je nachdem, ob beispielsweise eine Marktsegmentierung, eine branchenbezogene Unternehmensklassifikation oder eine Gruppierung von Ländermärkten angestrebt wird, handelt es sich bei den relevanten Objekten um die Käufer eines Produktmarktes, die Unternehmen einer spezifischen Branche oder eine bestimmte Anzahl von Ländermärkten. Vergleichbare Überlegungen betreffen die Festlegung der Art sowie der Anzahl untersuchungsrelevanter Klassifizierungsvariablen. So ist beispielsweise vorab darüber zu entscheiden welche Merkmale bei einer Marktsegmentierung (z.B. Markenwahl, Lebensstil, Einkommen von Nachfragern), einer Unternehmensgruppierung (z.B. Jahresgewinn, Rechtsform, Innovationsrate) oder der Zusammenfassung von Ländermärkten (z.B. Einwohnerzahl, Arbeitslosenquote) untersuchungsrelevant sind. Daneben kann es im Einzelfall sinnvoll sein, (metrische) Ausgangsmerkmale mittels einer Faktorenanalyse zu verdichten und die daraus resultierenden Faktorwerte der Objekte als Klassifizierungsmerkmale heranzuziehen (Faktorielle Clusteranalyse). Nach der Zahl der Klassifizierungsvariablen lassen sich generell eindimensionale (monothetische) und mehrdimensionale (polythetische) Klassifikationsanalysen voneinander unterscheiden (vgl. Backhaus et. al. 2011, S. 417). Für den einfachsten 7 Fall eines einzigen Merkmals entspricht die Gruppierungsaufgabe dem in der deskriptiven Statistik geläufigen Problem der Klassierung von Variablen. Hierbei bildet man etwa Einkommens-klassen von Nachfragern oder Umsatzklassen von Unternehmen, um entsprechende Häufigkeitsverteilungen zu erstellen, wobei sich die Nachfrager bzw. Unternehmen innerhalb einer Klasse ähnlicher sind als jene zwischen den Klassen. Bei der clusteranalytischen Klassifikation von Objekten wird man in der Regel auf einen polythetischen Ansatz zurückgreifen, bei dem die Clusterbildung auf der Grundlage einer simultanen Analyse von mehreren Objektmerkmalen erfolgt. Tabelle 1: Rohdatenmatrix Um die betrachteten Objekte entsprechend ihrer Ähnlichkeit zu Teilgruppen zusammenfassen zu können, muss die Unterschiedlichkeit (Proximität) von Objekten anhand einer statistischen Maßzahl erfasst werden. Daher wird im zweiten Schritt einer Clusteranalyse die Datenmatrix der Rohdaten in eine Proximitätsmatrix überführt (vgl. Tabelle 2). In dieser wird die paarweise Unterschiedlichkeit zwischen den Objekten quantifiziert und dargestellt, wobei in Abhängigkeit vom Skalenniveau der Objektmerkmale zwei Ansätze zu unterscheiden sind: Distanzmatrix: Bei quantitativen bzw. metrisch skalierten Merkmalen erfolgt die Quantifizierung der Unterschiedlichkeit von Objekten zumeist in Form einer Distanzmessung, d.h. anhand von Abständen auf der verwendeten Skala eines jeden Merkmals. Hiernach sind Objekte umso unterschiedlicher bzw. unähnlicher, je größer die merkmalsbezogenen Skalendistanzen sind. Da in der Distanzmatrix zum einen dn1 = d1n gilt und zum anderen die Distanz eines Objektes zu sich selber Null ist, ist die Matrix symmetrisch an ihrer Hauptdiagonalen, welche nur Nullen enthält. Distanzmaße werden jedoch auch durch die Maßeinheit, in der die Merkmale gemessen werden, beeinflusst. In Abhängigkeit von der jeweiligen Größenordnung der Merkmalswerte geht damit eine Ungleichgewichtung der Merkmale einher, die zu Distanzverzerrungen führen kann. Daher ist es zumeist ratsam, metrisch skalierte Merkmale zunächst in standardisierte Merkmalswerte zu transformieren, wobei dem Verfahren der z-Standardisierung eine besondere Bedeutung zukommt (vgl. Bacher et. al. 2010, S. 175 ff.). Die (dimensionslose) Vereinheitlichung der Variablen führt dazu, dass Variablen mit einem großem Mittelwert und großer Streuung (z.B. jährliches Haushaltseinkommen von Personen zwischen 15.000 € und 250.000 €) kein größeres Gewicht erhalten als die Merkmale mit einer geringeren Streuung (z.B. Haushaltsgröße zwischen 1 und 6 Personen). 8 Ähnlichkeitsmatrix: Bei kategorialen bzw. nominal- oder ordinalskalierten Merkmalen kann die Unterschiedlichkeit von Objekten mittels Ähnlichkeitsmaßen erfasst werden. Diese quantifizieren die Ähnlichkeit zwischen zwei Objekten in Form von Kennzahlen hinsichtlich der Übereinstimmung in ihren Ausprägungen und sind gewöhnlich auf das Intervall [0,1] normiert: Nimmt die entsprechende Kennzahl den Wert 0 an, dann gibt es keinerlei Übereinstimmung zwischen zwei Objekten, während der Wert 1 eine vollständige (prozentuale) Übereinstimmung eines Objektpaares anzeigt. Für die daraus resultierende Ähnlichkeitsmatrix gilt: Je größer der Wert eines Ähnlichkeitsmaßes, desto ähnlicher sind sich zwei Objekte (vgl. die in Klammern angeführten Werte in der Tabelle 2). Die Hauptdiagonale in der Ähnlichkeitsmatrix enthält nur den Wert 1, da die Ähnlichkeit eines Objektes mit selber zu 100 Prozent übereinstimmt. Ergänzend ist darauf hinzuweisen, dass sich jedes Ähnlichkeitsmaß in ein Distanzmaß transformieren lässt und umgekehrt (vgl. Bortz/Schuster 2010, S. 454 ff.). Tabelle 2: Proximitätsmatrix 2.2 Proximitätsmaße bei kategorialen Merkmalen Zur Messung der Unterschiedlichkeit von Objekten bei kategorialen Klassifizierungsmerkmalen kann auf eine Vielzahl von Ähnlichkeitsmaßen und sog. binären Distanzmaßen zurückgegriffen werden (vgl. hierzu den Überblick bei Bacher et. al. 2010, S. 196 ff.; Backhaus et. al. 2011; S. 309 ff.; Bortz/Schuster 2010, S. 460 ff; Brosius 2011, S. 701 ff.). Deren Auswahl hängt neben untersuchungsrelevanten Überlegungen maßgeblich vom Merkmalstyp ab. Dabei ist die Unterscheidung in dichotome (binäre), polytome (mehrkategoriale) und ordinal skalierte Merkmale von Bedeutung (vgl. Tabelle 3). 9 Tabelle 3: Proximitätsmaße im Überblick Als dichotome Klassifizierungsmerkmale werden nominale Merkmale bezeichnet, die in zweifach gestufter (binärer) Ausprägung vorliegen. Diese werden gewöhnlich derart operationalisiert bzw. kodiert, dass jeder Merkmalsausprägung entweder der Wert 1 (= Eigenschaft vorhanden) oder der Wert 0 (= Eigenschaft nicht vorhanden) zugewiesen wird. Zur Berechnung von Proximitätsmaßen bei binären Merkmalen kann man für jedes Objektpaar eine Vierfelder-Tafel konzipieren, in der die Häufigkeiten der vier unterschiedlichen Merkmalskombinationen dargestellt werden. Die Struktur einer solchen Vierfelder-Tafel verdeutlicht die nachstehende Tabelle 4, in der sämtliche Kombinationen von m binären Merkmalen für die beiden Objekte i und j angeführt sind. Objekt j Zeilensumme ∑ Objekt i Merkmalsausprägung vorhanden (1) Merkmalsausprägung nicht vorhanden (0) Merkmalsausprägung vorhanden (1) a b a +b Merkmalsausprägung nicht vorhanden (0) c d c +d Spaltensumme ∑ a +c b+d a +b+c +d=m ► a = Anzahl der Merkmale, die bei beiden Objekten gleichzeitig vorhanden sind (1;1) ► b = Anzahl der Merkmale, die bei Objekt i, nicht jedoch bei Objekt j vorhanden sind (0;1) ► c = Anzahl der Merkmale, die bei Objekt j, jedoch nicht bei Objekt i vorhanden sind (1;0) ► d = Anzahl der Merkmale, die bei beiden Objekten gleichzeitig nicht vorhanden sind (0,0) Tabelle 4: Vierfelder-Tafel zum Vergleich zweier Objekte Durch unterschiedliche Kombination der Größen a, b, c und d, kann eine Reihe von Proximitätsmaßen konstruiert werden. Diese unterscheiden sich primär darin, in welcher Weise positive Übereinstimmungen (a), Nicht-Übereinstimmungen (b und c) sowie negative Übereinstimmungen (d) zwischen den Merkmalen beider Objekte berücksichtigt werden: Ähnlichkeitsmaße setzen die Häufigkeiten, mit der zwei gleiche Werte auftreten [1/1; 0/0], in Beziehung zur Anzahl aller Wertepaare. Demgegenüber vergleichen binäre Distanzmaße die Anzahl der jeweiligen Wertekombinationen mit unterschiedlichen Ausprägungen [1/0; 0/1] mit der Gesamtzahl der Wertepaare. 10 Die Ermittlung von Ähnlichkeits- und Distanzmaßen bei binärer Merkmalsstruktur soll im Folgenden anhand der in der Tabelle 5 angezeigten Merkmalswerte verdeutlicht werden. Die Rohdatenmatrix beinhaltet die Werte von drei binär kodierten Merkmalen (1 = Eigenschaft vorhanden; 0 = Eigenschaft nicht vorhanden) ausgewählter Fernsehgeräte von vier Anbietern. Für das exemplarisch betrachtete Objektpaar „Philips/Grundig“ ergibt sich die im rechten Teil dargestellte VierfelderTafel. Philips Drehfuss Smart-TV Kopfhöreranschluss 1 0 1 Grundig Samsung 0 1 0 Sony 1 0 Grundig 0 0 Philips vorhanden nicht vorhanden 1 vorhanden 1 1 1 nicht vorhanden 0 1 Tabelle 5: Rohdatenmatrix und exemplarische Vierfelder-Tafel bei binären Merkmalen Auf der Grundlage der Vierfelder-Tafel lassen sich unterschiedliche Ähnlichkeitsund Distanzmaße ermitteln (vgl. Tabelle 6): Beispiel: „Philips/Grundig“ Proximitätsmaß Simple-Matching-Koeffizient (SMC): SMC(i , j ) SMC( Philips,Grundig ) ad abcd 11 0,667 1 0 11 Jaccard-Ähnlichkeitskoeffizient (J): J (i , j ) J ( Philips ,Grundig ) a abc 1 0,500 1 0 1 Russel & Rao-Koeffizienten (RR): RR(i , j ) a abcd RR( Philips ,Grundig ) 1 0,333 1 0 11 RT( Philips ,Grundig ) 11 0,500 1 1 2 * (1 0) Rogers & Tanimoto-Ähnlichkeitsmaß (RT): RT(i , j ) ad a d 2 * (b c) Binäre Euklidische Distanz (EUKD): EUKD(Philips, Grundig) = 1 + 0 = 1 EUKD(i,j)= b + d Tabelle 6: Ausgewählte Proximitätsmaße für binäre Klassifizierungsvariablen Der Simple-Matching-Koeffizient (SMC), der auch als „M-Koeffizient“ oder „Einfache Übereinstimmung“ bezeichnet wird, dividiert die Anzahl gleicher Wertepaare, d.h. die Zahl der positiven und negativen Übereinstimmungen bei den beiden Objekten i und j, durch die Anzahl aller Wertepaare. Für die Daten des Beispiels führt der SMC zur nachstehenden Ähnlichkeitsmatrix (vgl. Tabelle 7). 11 Tabelle 7: Ähnlichkeitsmatrix auf der Basis des SMC-Koeffizienten Der Jaccard-Ähnlichkeitskoeffizient (J) dividiert die Anzahl der Wertepaare, bei denen die interessierende Merkmalsprägung gemeinsam vorkommt (1/1), durch die Anzahl aller Wertepaare, bei denen die betreffende Eigenschaft mindestens einmal auftritt. Demzufolge bleibt das gemeinsame Nichtvorhandensein (0/0) von Objektmerkmalen unberücksichtigt: Die Ähnlichkeitsmessung nach dem Russel & Rao-Koeffizienten (RR) berücksichtigt im Gegensatz zum Jaccard-Maß im Nenner auch diejenigen Fälle, bei denen beide Objekte das interessierende Merkmal nicht aufweisen (0/0). Somit erhält man diesen, indem die Anzahl der Wertepaare, bei denen die interessierende Merkmalsausprägung bei beiden Objekten vorhanden ist (1/1), durch die Anzahl aller Wertepaare dividiert wird. Das Rogers & Tanimoto-Ähnlichkeitsmaß (RT) entspricht im Zähler dem SMC-Koeffizienten, gewichtet im Gegensatz zu diesem jedoch die ungleichen Wertepaare (0/1; 1/0) im Nenner doppelt. Ein gebräuchliches Distanzmaß für einen Objektvergleich bei binären Merkmalen bildet beispielsweise die Binäre Euklidische Distanz, die sich als Quadratwurzel aus der Anzahl ungleicher Wertepaare (1/0; 0/1) der beiden Objekte i und j ergibt. Unter Verwendung des Euklidischen Distanzmaßes kann die in Tabelle 5 dargestellte Rohdatenmatrix in die nachstehende Distanzmatrix überführt werden. Tabelle 8: Distanzmatrix auf Basis der Binären Euklidischen Distanz Um bei nominalen Merkmalen, die mehr als zwei Kategorien aufweisen (mehrfach gestufte Merkmale, polytome Merkmale), die zuvor erläuterten Proximitätsmaße anwenden zu können, sind diese vorab in binäre Merkmale zu zerlegen. Hierzu bietet sich eine Dummy-Codierung an, bei der ein Merkmal mit p Kategorien in p -1 Dummyvariablen transformiert wird, wobei jeder Merkmalsausprägung der Wert 1 (= Merkmalsausprägung vorhanden) oder der Wert 0 (= Merkmalsausprägung nicht vorhanden) zugeordnet wird (vgl. Bacher et. al. 2010, S. 207 ff.; Backhaus et. al. 2011, S. 407 f.; Bortz/Schuster 2010, S. 455 f.). 12 Liegen hingegen ordinalskalierte Merkmale vor, so werden diese zumeist mit Hilfe einer Mediandichotomisierung auf ein nominales Skalenniveau zurückgeführt (z.B. ein Merkmal mit p Ausprägungen wird in p binäre bzw. Dummy-Merkmale zerlegt), um auf die Proximitätsmaße für Nominaldaten zurückgreifen zu können. Weiterhin besteht die Möglichkeit, auf Basis einer Rangziffernbildung spezielle Ähnlichkeitsmaße für Ordinaldaten, wie z.B. die sog. Canberra-Metrik oder den Rangkorrelationskoeffizienten heranzuziehen. Schließlich werden in der Praxis ordinale Daten recht häufig auch als metrisch skalierte Größen aufgefasst, für die spezielle Distanzmaße bestimmbar sind (vgl. Bacher et. al. 2010, S. 211 ff.; Bortz/Schuster 2010, S. 456). 2.3 Proximitätsmaße bei quantitativen Merkmalen Bei quantitativen Merkmalen erfolgt die Proximitätsmessung gewöhnlich mit den aus der verallgemeinerten Minkowski-Metrik ableitbaren Distanzmaßen (vgl. Bacher et. al. 2010, S. 219 ff.; Backhaus et. al. 2011, S. 409 ff.; Bortz/Schuster 2010, S. 456 ff.). Distanzmaße sind als inverse Ähnlichkeitsmaße zu interpretieren, d.h. je größer die Distanz eines Objektpaares ist, desto geringer ist die Ähnlichkeit beider Objekte. Die Minkowski-Metriken (oder sog. L-Normen) ermitteln Distanzen als Summe von merkmalsspezifischen Differenzen zwischen den intervallskalierten Werten eines Objektpaares, wobei die Distanzen in den einzelnen Merkmalen mit Hilfe eines Metrik-Parameters verschieden gewichtet werden: 1 d(i,j) r r K xik x jk k 1 mit: d(i,j) = Distanz zwischen Objekt i und j, xik = Wert des Merkmals k bei Objekt i (k = 1,2,…K) xjk = Wert des Merkmals k bei Objekt j (k = 1,2,…K) r ≥ 1 = Minkowski-Parameter (Konstante). In Abhängigkeit vom Wert der Minkowski-Konstanten r können verschiedene Distanzmaße gebildet werden, z.B. die Euklidische Distanz (r =2, sog. L2-Norm) oder die City-Block-Distanz (r =1; L1-Norm). Die Ermittlung der verschiedenen Distanzmaße sollen nachfolgend anhand eines Beispiels verdeutlicht. Hierbei werden die Zufriedenheitsurteile (1= sehr zufrieden, 5 = sehr unzufrieden) von sechs Nachfragern hinsichtlich der Produkt- und der Serviceleistung eines Unternehmens betrachtet. Die entsprechenden Ausgangsdaten sind in Tabelle 9 sowie im Streudiagramm der Abbildung 3 wiedergegeben. Nachfrager A B C D E Produktzufriedenheit 2 1 2 4 5 Servicezufriedenheit 5 3 3 1 2 Tabelle 9: Beispieldaten für Minkowski-Metriken 13 Abbildung 3: Geometrische Darstellung von Minkowski-Metriken Die Euklidische Distanz ergibt sich als Quadratwurzel der Summe der quadrierten Differenzen zwischen den Merkmalsausprägungen zweier Objekte: d(i,j) K x ik k 1 x jk 2 Beispielhaft errechnet sich die Euklidische Distanz zwischen den Nachfragern D und E als: d DE 4 52 1 22 1,41 Bei der Euklidischen Distanz führt der Metrik-Parameter bzw. die Quadrierung der Merkmalsunterschiede dazu, dass große Differenzwerte in den einzelnen Merkmalen stärker gewichtet werden kleinere Abstandswerte. Geometrisch entspricht die Euklidische Distanz der direkten Distanz zwischen einem Objektpaar. Diese lässt sich nach dem Satz von Pythagoras als Hypothenuse eines „gedachten“ rechtwinkligen Dreiecks berechnen. Hiernach ist im Merkmalsraum der Abbildung 3 die Euklidische Distanz c zwischen den beiden Nachfragern D und E durch die Wurzel der Summe der beiden Kathetenquadrate a2 und b2 gegeben. Für die Beispieldaten erhält man bei Verwendung des Euklidischen Distanzmaßes die nachstehende Distanzmatrix der Tabelle 10, aus der u.a. ersichtlich ist, dass die beiden Nachfrager B und C die geringste Distanz zueinander besitzen, während die Nachfrager am unähnlichsten sind. 14 Tabelle 10: Euklidische Distanzmatrix der Beispieldaten Die Quadrierte Euklidische Distanz berechnet sich als die Summe der quadrierten Merkmalsdifferenzen: d(i , j ) K x ik x jk k 1 2 Für die Quadrierte Euklidische Distanz zwischen den Nachfragern D und E erhält man beispielsweise: d DE (4 5) 2 (1 2) 2 2 . Geometrisch entspricht die Quadrierte Euklidische Distanz c der Summe der beiden Kathetenquadrate a2 und b2. 2 Bei Verwendung der quadrierten euklidischen Distanz anstelle der euklidischen Distanz bleibt die Rangfolge der ähnlichen Objektpaare unverändert. Es verändern sich jedoch die Abstandsverhältnisse, was mitunter einen Einfluss auf die zu ermittelnde Clusterzahl ausüben kann. Sollen alle Merkmalsdifferenzen gleichgewichtig in ein Distanzmaß einfließen, so bietet sich die Ermittlung der sog. City-Block-Distanz an, die als die Summe der absoluten Merkmalsdifferenzen definiert ist: d(i , j ) K x ik x jk k 1 Diese ergibt sich für das Nachfragerpaar D und E als: d DE 4 5 1 2 2 In Abbildung 3 lässt sich demnach der Abstand zwischen den Nachfragern D und E nicht als nur als direkte Verbindung bzw. Euklidische Distanz erfassen, sondern auch durch die rechtwinklige Distanzmessung der City-Block-Metrik, indem man sich zunächst von Person D parallel zur x-Achse nach rechts bis zum Skalenwert 5 und anschließend parallel zur y-Achse bis zur Person E bewegt. Bei den Minkowski-Metriken gehen sämtliche Merkmale mit dem gleichen Gewicht in die Distanzmessung ein. Korrelative Beziehungen zwischen den Merkmalen bleiben daher unberücksichtigt und können zu einer Verzerrung der Distanzmessung führen. Um im Fall von korrelierenden Merkmalen eine Gleichgewichtung der Variablen zu erreichen, ist eine Distanzmessung mit Hilfe des sog. MahalanobisDistanzmaßes sinnvoll (vgl. Bacher et al. 2010, S. 339 ff) oder eine Faktorenanalyse zur Erzeugung von unabhängigen Klassifizierungsdimensionen vorzuschalten (vgl. Kapitel 3.1). Wenn darüber hinaus die Zielsetzung darin besteht, anstelle einer Distanzmessung ein metrisches Ähnlichkeitsmaß zu verwenden, so 15 bietet sich die Bestimmung des sog. Q-Korrelationskoeffizienten an. Dieser stellt eine Über-tragung des variablenbezogenen Bravais-Pearson-Koeffizienten (RKonzept) auf den Bereich des Zusammenhangsmessung von Objektpaaren dar (vgl. Bacher et al. 2011, S. 219 ff.). Neben den zuvor angeführten Datenstrukturen sind bei einer Proximitätsmessung auf Basis metrischer Merkmale spezielle Skalensituationen zu berücksichtigen: Bei Vorliegen gemischt-skalierter Merkmale bieten sich vornehmlich zwei Ansätze zur Proximitätsmessung an (vgl. Bortz/Schuster 2010, S. 458 ff.). Eine erste Vorgehensweise besteht darin, Merkmale mit unterschiedlichen Skalenniveaus auf ein einheitliches Messniveau zu transformieren. Dabei werden Merkmale mit einem höheren Skalenniveau zunächst in Merkmale mit einem niedrigeren Skalenniveau umgewandelt, auf deren Grundlage anschließend eine gemeinsame Proximitätsmessung durchgeführt werden kann. Im Rahmen eines alternativen Ansatzes werden für die verschiedenen Merkmalstypen jeweils getrennt die adäquaten Proximitätsmaße berechnet und diese anschließend zu einem „gewogenen, mittleren Distanzwert“ zusammengefasst. Die Gewichtungsstruktur soll dabei dem relativen Anteil der Anzahl einer Skalierungsart an der Gesamtzahl der Merkmale entsprechen (vgl. hierzu ein Beispiel bei Backhaus et al. 2011, S. 415 ff.). Bei gehäuften Klassifizierungsvariablen, d.h. Merkmalen, deren Werte absolute Häufigkeiten repräsentieren, besteht zum einen die Option, diese als metrisch skalierte Variable zu behandeln. Zum anderen kann es jedoch auch zweckmäßig sein, für Häufigkeitsvariablen spezielle 2-basierte Ähnlichkeitsmaße, wie z.B. das Chi-Quadrat-Maß zu verwenden, bei welchem die Distanz zwischen zwei Objekten der Quadratwurzel der 2–Statistik entspricht. Hierbei werden die quadrierten Differenzen aus den beobachten und den - bei Unabhängigkeit der Merkmale - sog. erwarteten Häufigkeiten ermittelt und anschließend durch die erwarteten Häufigkeiten dividiert. Aus der Summation dieser Quotienten erhält man das 2-Maß (vgl. zu einem Beispiel Backhaus et al. 2011, S. 408 f.). 2.4 Klassifikationsverfahren im Überblick Die Ähnlichkeits- bzw. Distanzwerte der Proximitätsmatrix bilden die Datenbasis zur Gruppierung von Objekten. Das Gruppierungsprinzip besteht allgemein darin, Objekte mit geringen Distanzen bzw. großer Ähnlichkeit zu einem Cluster zusammenzufassen und solche Objekte, zwischen denen große Distanzen bzw. geringe Ähnlichkeiten bestehen, unterschiedlichen Clustern zuzuordnen. Zur Gruppierung einer gegebenen Objektmenge ist der Einsatz einer Clustermethode erforderlich, wozu dem Anwender ein breites Verfahrensspektrum zur Verfügung steht (vgl. ausführlich bei Bacher et al. 2010, S. 233 ff.; Backhaus et al. 2011, S. 417 ff.; Bortz/Schuster 2010, S. 458 ff.; Schendera 2010, S. 23 ff.; Schlittgen 2009, S. 397 ff.). Von grundsätzlicher Bedeutung ist in diesem Zusammenhang die Unterscheidung zwischen deterministischen, probabilistischen und geometrischen Clusteranalyseverfahren (vgl. Bacher 2010, S. 18 ff.). Bei deterministischen Clusteranalyseverfahren (z.B. hierarchische, partitionierende Clustermethoden) werden die 16 Clusterobjekte mit einer Wahrscheinlichkeit von 1 einem oder mehreren Clustern zugewiesen bzw. mit einer Wahrscheinlichkeit von 0 nicht zugeordnet. Die deterministische Clusterbildung schließt jedoch nicht aus, dass z.B. ein Objekt mehreren Cluster gleichzeitig angehört und die Cluster demzufolge einander überlappen können (sog. nicht-exhaustive Zuordnung). Demgegenüber liegt bei probabilistischen Clusteranalyseverfahren (z.B. der Two-Step-Clusteranalyse) die Wahrscheinlichkeit für eine Objektzuordnung zu einem Cluster im Intervall zwischen größer 0 und kleiner 1. So ist beispielsweise der Fall denkbar, dass ein bestimmtes Objekt mit einer Wahrscheinlichkeit von 0,7 dem Cluster 1 und mit einer Wahrscheinlichkeit von 0,3 dem Cluster 2 angehörig ist. Eine Sonderrolle nehmen geometrische Klassifikationsverfahren ein, denn diese ermöglichen lediglich eine räumliche Darstellung einer Objekteverteilung in einem maximal dreidimensionalen Raum vornehmen, wie z.B. das baumbasierte Klassifizierungsmodell (z.B. CHAID-, TREE-, QUEST-Algorithmus) oder die Methode „Nächstgelegener Nachbar“ (vgl. Bacher et al. 2010, S. 460 ff. sowie ausgewählte SPSS-Beispiele bei Bühl 2012, S. 689 ff.; Schendera 2010, S. 145 ff.). In der Marketingpraxis besitzen deterministische Clustermethoden den weitaus größeren Stellenwert, so dass sich die nachfolgenden Ausführungen auf diesen Verfahrenstyp beschränken. Hierzu vermittelt die Tabelle 11 einen Methodenüberblick Tabelle 11: Ausgewählte deterministische Clusteranalyseverfahren Der Einsatz von hierarchischen Clusterverfahren bietet sich dann an, wenn keinerlei Vorkenntnisse über die Anzahl der zu bildenden Gruppen vorhanden sind (z.B. bei einer Marktsegmentierung für eine Produktinnovation). Im Zuge der Gruppierung wird eine hierarchische Verschachtelung von Ober- und Untergruppen gebildet, die mit Hilfe agglomerativer oder divisiver Fusionierungsalgorithmen vorgenommen werden kann. Divisive Verfahren, die in der empirischen Statistik überaus selten zur Anwendung gelangen, starten den Gruppierungsprozess mit einer Gruppe, die alle Objekte enthält, und spalten dann von dieser schrittweise solange Teilgruppen ab, bis alle Objekte jeweils ein Cluster bilden. Agglomerative Verfahren beschreiten den umgekehrten Weg, indem Objekte ausgehend von der feinsten Gruppierung einelementiger Cluster sukzessive solange zusammengefasst werden, bis alle Objekte in einem gemeinsamen Cluster enthalten sind. Auf diese Weise entsteht eine Hierarchie von Clustern innerhalb des mehrstufigen Verschmelzungsprozesses, wobei jene Objekte, die bereits einmal zu 17 einem Cluster zusammengefasst wurden, auf den späteren Stufen der Clusterbildung nicht mehr getrennt werden und die Cluster auf jeder Stufe disjunkt sind. Bei der agglomerativen Gruppierung werden somit die Gruppen von Stufe zu Stufe heterogener, da immer „entferntere“ Objekte hinzukommen, bis sich schließlich alle Objekte in einem Cluster befinden. Agglomerative Verfahren sind dadurch gekennzeichnet, dass auf jeder Stufe die paarweisen Distanzen bzw. Ähnlichkeiten aller Cluster zueinander ermittelt werden und jene beiden Gruppen fusioniert werden, welche die geringste Distanz oder die größte Ähnlichkeit aufweisen. Dadurch reduziert sich die Anzahl der im darauffolgenden Fusionsschritt zu vergleichenden Cluster um 1. Für diese werden erneut die Clusterdistanzen (bzw. Ähnlichkeiten) berechnet und anschließend werden entweder zwei Objekte zu einem neuen Cluster vereinigt, ein Objekt einem bereits vorhandenen Cluster zugeordnet oder es werden zwei in den vorangegangenen Stufen gebildete Cluster zu einem größeren Cluster zusammengefasst. Auf diese Weise verringert sich mit jeder Stufe die Anzahl der Cluster um 1, bis im letzten Schritt sämtliche Objekte zu einem Cluster vereinigt. Anzumerken ist, dass eine Fusionierung die Proximitätswerte (z.B. Distanzwerte) der geclusterten Objekte verändert, während diese bei den noch nicht vereinigten Objekten davon unbeeinflusst bleiben. Auf der ersten Fusionierungsstufe unterscheiden sich die verschiedenen hierarchischen Gruppierungsverfahren nicht voneinander, da in der Ausgangspartition jedes Cluster aus lediglich einem Objekt besteht und daher die Clusterdistanzen (Clusterähnlichkeiten) exakt den in der Proximitätsmatrix berechneten Distanzen der Einzelobjekte (Objektähnlichkeiten) entsprechen. Auf der Grundlage des verwendeten Distanzmaßes oder Ähnlichkeitsmaßes erhält man daher im ersten Schritt der Clusterbildung stets dasselbe Fusionsergebnis. In den darauffolgenden Fusionsstufen hingegen unterscheiden sich die Clusterlösungen der Agglomerationsverfahren gewöhnlich voneinander, da die Clusterbildung auf unterschiedlichen Fusionskriterien beruhen kann (vgl. Abbildung 4): 18 Abbildung 4: Hierarchisch-agglomerative Verfahren im Überblick Beim Single-Linkage-Verfahren (Minimummethode, Nächstgelegener Nachbar, nearest neighbor rule), das für beliebige Skalenniveaus geeignet ist, wird die Distanz zwischen zwei Clustern (bzw. einem Einzelobjekt und einem Cluster) durch die Distanz der beiden am nächsten liegenden Einzelobjekte beider Gruppen gemessen. Es werden dann stets jene beiden Cluster zusammengefasst, deren Clusterdistanz minimal ist. Die Verbindung zweier Objekte wird somit „brückenförmig“ durch je ein Objekt der beiden Objektmengen („single link“) hergestellt. Da hierbei als neue Distanz zwischen zwei Gruppen immer der kleinste Wert der Einzeldistanzen herangezogen wird, eignet sich das SingleLinkage-Verfahren in besonderer Weise dazu, Ausreißer in einer Objektgruppe zu identifizieren. Hiermit einher geht jedoch die Tendenz zur Kettenbildung (chainig effect), d.h. zur Zusammenfassung von wenigen großen und heterogenen Gruppen (kontrahierendes Verfahren). Das Complete-Linkage-Verfahren (Maximummethode, Entferntester Nachbar, furthest neighbor rule), welches gleichfalls bei einem beliebigen Skalenniveau einsetzbar ist, wird die Distanz zwischen zwei Clustern (bzw. einem Einzelobjekt und einem Cluster) durch die beiden am entferntesten liegenden Einzelobjekte beider Gruppen erfasst. Dabei werden auf jeder Fusionierungsstufe jene zwei Cluster verschmolzen, deren größte Einzeldistanz minimal ist. Im Gegensatz zum Single-Linkage-Verfahren ermöglicht das Complete-Linkage zwar keine Identifikation von Ausreißern; es tendiert jedoch zur Bildung vieler kleiner, kompakter Gruppen, die sich zudem überlappen können und ist daher für praktische Fragestellungen gewöhnlich besser geeignet. 19 Beim Average-Linkage-Verfahren, das kein bestimmtes Skalenniveau erfordert, berechnet man für je zwei Cluster (bzw. einem Objekt und einem Cluster) das arithmetische Mittel aller Objektdistanzen und fusioniert diejenigen Objekte bzw. Cluster, welche die geringste Durchschnittsdistanz aufweisen. Hierbei sind zwei Ansätze zu unterscheiden: Während das sog. „Linkage zwischen den Gruppen“ (average linkage between groups) bei der Distanzberechnung nur jene Objektpaare berücksichtigt, bei denen die Objekte aus verschiedenen Gruppen entstammen, werden beim sog. „Linkage innerhalb der Gruppen“ (average linkage within groups) sämtliche Objektpaare einbezogen, d.h. auch jene Objekte, die einem gemeinsamen Cluster angehören. Das Average-Linkage-Verfahren stellt einen vergleichsweise konservativen Fusionierungsalgorithmus dar, der eine Kompensation von größeren Objektdistanzen durch geringere Distanzen nahe beieinander liegender Objekte gestattet und somit zu Gruppen mit einer vergleichsweise durchschnittlichen Besetzungszahl und Homogonität führt. Im Unterschied zu den Linkage-Verfahren setzen sowohl das Zentroid-Verfahren als auch das Medianverfahren metrisch skalierte Klassifizierungsmerkmale voraus. Beide Verfahren messen die Clusterdistanzen anhand der Abstände bzw. der quadrierten euklidischen Distanzen zwischen den Clusterschwerpunkten; sie unterscheiden sich jedoch hinsichtlich der Gewichtung der Clusterschwerpunkte. Beim Medianverfahren werden diejenigen Cluster vereint, deren quadrierter euklidischer Centroidabstand minimal ist, wobei ein Clustercentroid (Gruppenschwerpunkt) den durchschnittlichen, ungewichteten Merkmalsausprägungen aller Objekte eines Clusters entspricht. Dabei werden allerdings unterschiedliche Objekthäufigkeiten der zu fusionierenden Cluster vernachlässigt, so dass der Centroid eines neu gebildeten Clusters dem Mittelpunkt (Median) der Linie, welche die Centroide der zu fusionierenden Cluster verbindet, entspricht. Sollen unterschiedliche Objekthäufigkeiten der zu fusionierenden Cluster berücksichtigt werden, wählt man das gewichtete Median- oder das Zentroidverfahren. Das Zentroid-Verfahren berechnet die Clusterdistanz im Gegensatz zum AverageLinkage-Verfahren, welches auf durchschnittliche Objektdistanzen abstellt, als quadrierte Euklidische Distanzen zwischen den Clustermittelwerten. Clustermittelwerte bilden ein Maß des Clusterschwerpunktes und dienen als fiktive Objektrepräsentanten der Cluster. Zur Ermittlung des Zentrums von zwei vereinigten Clustern wird das gewichtete arithmetische Mittel der betreffenden Cluster berechnet, wobei die Gewichtungsstruktur dem clusterspezifischen Anteil der Objekte an der Gesamtzahl der Objekte entspricht. Das Ward-Verfahren (Fehlerquadratsummen-Methode, minimum variance method), welches metrische Klassifizierungsmerkmale voraussetzt, unterscheidet sich von den vorhergehend besprochenen Clustermethoden dadurch, dass die Objektgruppierung nicht anhand der geringsten Clusterdistanz, sondern anhand eines vorgegebenen Heterogenitätsmaßes bzw. des Varianzkriteriums erfolgt. Ziel ist es, jeweils diejenigen Objekte bzw. Gruppen zusammenzufassen, welche die Gesamtstreuung in einer Gruppe (Varianz, Fehlerquadratsumme innerhalb der Gruppen, within-groups sum of squares) möglichst wenig erhöhen, so dass die Gruppen intern möglichst homogen sind. Die Varianz der Gruppen ist in der Ausgangspartition, in der noch keine Gruppenbildung erfolgt ist, für jede 20 „Gruppe“ 0. Im Verlauf der darauffolgenden Fusionsstufen verringert sich die Homogenität in Form einer zunehmenden Streuung innerhalb der Gruppen, wobei das Verfahren anstrebt, die Objekte so zusammenzufassen, dass die Varianz der neu gebildeten Gruppen möglichst gering ist. Der Ward-Algorithmus tendiert zur Bildung von kompakten, in sich homogenen sowie überlappungsfreien Clustern mit annähernd gleichgroßen Besetzungszahlen (vgl. Backhaus et al. 2011, S. 430 ff.). Er gehört deshalb zu den am häufigsten eingesetzten Fusionierungsverfahren in der Marketingpraxis, wobei gewöhnlich auf die quadrierte euklidische Distanz als Proximitätsmaß zurück-gegriffen wird (vgl. hierzu auch das SPSS-basierte Beispiel in Kapitel 3). Im Gegensatz zu hierarchischen Verfahren gehen die partitionierenden Verfahren von einer bereits gegebenen Zerlegung der Objektmenge in Cluster aus. Diese wird jedoch nicht als „optimal“ erachtet, so dass versucht wird, die Ausgangspartition durch eine Umgruppierung der Objekte sukzessive zu verbessern. Dabei bleibt jedoch die Anzahl der Cluster in jeder Verfahrensstufe konstant. Partitionierende Verfahren besitzen somit den Vorteil, dass die Zuordnung von Objekten im Gruppierungsprozess revidierbar ist, um zu einer besseren Clusterlösung zu gelangen. Ihr Einsatz bietet sich insbesondere dann an, wenn der Anwender bereits über Vorkenntnisse bezüglich der relevanten Objektstrukturen (z.B. Zusammensetzung von Marktsegmenten) verfügt. In der Marketingpraxis erfolgt deshalb recht häufig eine kombinierte Anwendung von Fusionierungsmethoden (“sog. two-stageclustering“), bei welcher z.B. zunächst mittels des Single-Linkage-Verfahrens einzelne Ausreißer identifiziert bzw. aus dem Datensatz eliminiert werden, anschließend eine Clusterbildung auf Basis des Ward-Verfahrens erfolgt und die daraus resultierende Clusterlösung sodann mit Hilfe eines partitionierenden Verfahrens verfeinert wird. Partitionierende Verfahren können in zwei Methodengruppen unterteilt werden (vgl. Tabelle 11): Jene Verfahren, die eine optimale Teilung der Objektmenge im Hinblick auf ein bestimmtes Kriterium anstreben, werden als Teilungsverfahren (optimierende Austauschverfahren, hill climbing) bezeichnet. Demgegenüber beruhen iterative Minimal-Distanzverfahren (Distanzschwellenverfahren, Clusterzentren-Methode, K-Means-Methode) nicht auf einem expliziten Optimierungskriterium. Vielmehr wird hierbei - analog zum Zentroid-Verfahren – für jedes Cluster der Ausgangspartition zunächst der Gruppenschwerpunkt berechnet. Sodann wird für jedes Objekt die Euklidische Distanz zu allen Clusterschwerpunkten bestimmt. Sofern ein Objekt eine - im Vergleich zur bislang zugehörigen Gruppe - geringere Distanz zu einem Clusterschwerpunkt besitzt, wird das Objekt dem betreffenden anderen Cluster zugewiesen. Nach dieser Umgruppierung werden die Clusterzentren erneut errechnet und die Objekte möglicherweise wiederum umgruppiert. Diese iterativen Schritte werden solange fortgesetzt, bis eine „optimale“ Lösung gefunden ist (vgl. auch die Beispiele in Kapitel 4). 2.5 Optimale Clusteranzahl Während bei partitionierenden Verfahren die Anzahl der Cluster vorzugeben ist, bedarf es bei hierarchischen Fusionierungsverfahren der Festlegung der „richtigen“ Clusterzahl bzw. einer Entscheidung darüber, an welcher Stelle der Verschmelzungs21 prozess abgebrochen werden soll. Hierfür steht dem Anwender allerdings kein fest definiertes Abbruchkriterium zur Verfügung. Neben sachlichen Überlegungen erfolgt daher zumeist ein Rückgriff auf graphische Darstellungen des Fusionierungsprozesses in Form eines Dendrogramms (auch Baumdiagramm genannt) und/oder eines Struktogramms (vgl. Abbildung 5). Abbildung 5: Dendrogramm und Struktogramm Im Dendrogramm ist der hierarchische Verschmelzungsprozess schematisch dargestellt. Zusätzlich wird angezeigt, bei welchem Heterogenitätsgrad eine Fusion zweier Objektmengen, d.h. Objekte oder Cluster stattfindet. Die Messung der Heterogenität erfolgt anhand des dem betreffenden Fusionierungsverfahren zugrundeliegenden Vereinigungsmaßes, wie z.B. der Distanz der beiden zuletzt fusionierten Objektmengen oder der Fehlerquadratsumme. Im Extremfall bildet jedes Objekt einen eigenen Cluster (Heterogenität = Max. bzw. Homogenität = 0) oder alle Objekte sind in einem Cluster vereinigt (Heterogenität = 0 bzw. Homogenität = Max). Im Beispiel der Abbildung 5 werden im ersten Fusionierungsschritt die Objekte 12 zu einer Gruppe vereinigt, während auf der letzten Stufe die aus den Objekten 12 zusammengesetzte Gruppe mit der aus den Objekten 3456 bestehenden Gruppe zu einem Cluster verschmolzen wird. Der Anwender kann anhand des Verlaufs des Heterogenitätsmaßes über die Zahl der „richtigen“ Cluster entscheiden. Legt man hierzu bei einem vorgegebenen Heterogenitätsindex eine vertikale Linie durch das Dendrogramm, dann entspricht die Anzahl der Cluster jener Anzahl der horizontalen Linien, die von dieser geschnitten werden. Legt der Anwender seinen Überlegungen beispielsweise den Heterogenitätsindex h3 zugrunde, dann geht aus Abbildung 5 hervor, dass hieraus einerseits zwei Zweiergruppen mit den Objekten 12 sowie 34 und andererseits zwei einelementige Gruppen der Objekte 5 und 6 resultieren. Betrachtet man hingegen den Indexwert h2 so wird ersichtlich, dass in diesem Fall nur noch zwei 22 Gruppen vorliegen: Das erste Cluster besteht aus den Objekten 12, während das zweite Cluster aus den Objekten 3456 zusammengesetzt ist. Als visuelle Entscheidungshilfe zur Festlegung der Clusterzahl kann jener Bereich des Dendrogramms dienen, bei welchem ein starker Anstieg des Heterogenitätsmaßes erfolgt. Im vorliegenden Beispiel zeigt sich eine sprunghafte Zunahme des Heterogenitätsmaßes beim Index h2, die eine 3-Clusterlösung nahe legt. Eine alternative Darstellungsweise bietet das Struktogramm, bei welchem an der Ordinate die Abnahme des Heterogenitätsmaßes und an der Abzisse die Anzahl der Cluster abgetragen ist. Analog zum sog. Scree-Test einer Faktorenanalyse, kann die „optimale“ Anzahl von Clustern an derjenigen Stelle des Liniendiagrammes abgelesen werden, bei der dieses einen starken Knick (Elbow) aufweist. Bezogen auf das Beispiel der Abbildung 5 wäre demnach von einer 3-Clusterlösung auszugehen. Gleichwohl ist darauf hinzuweisen, dass es im praktischen Anwendungsfall durchaus vorkommen kann, dass man an mehr als einer Stelle einen „Ellenbogen“ vorfindet und dieses Kriterium somit keine eindeutige Lösung gestattet. Hiermit einher geht die generelle Empfehlung, die durch ein Dendrogramm oder Struktogramm identifizierte Clusterzahl stets auch vor dem Hintergrund sachlicher Überlegungen zu überprüfen. 2.5 Clusterdiagnose Die abschließende Phase einer Clusteranalyse besteht in der Diagnose der ermittelten Clusterstruktur. Diese beinhaltet Gütebeurteilung der Clusterlösung sowie die Interpretation von Clustern. Zur Gütebeurteilung der gewonnenen Clusterlösung kann der Anwender nicht auf verfahrensimmanente statistische Kriterien zurückgreifen. Ersatzweise bietet es sich daher an, zum einen mit Hilfe von Varianz- und/oder Diskriminanzanalysen zu untersuchen, ob signifikante Gruppenunterschiede hinsichtlich der Klassifizierungsvariablen vorliegen (vgl. Müller 2015 b). Daneben kann die Stabilität einer Clusterlösung bei Anwendung mehrerer Fusionierungsverfahren überprüft werden. Hierbei ist es zudem möglich, den sog. Rand-Index oder Kappa-Wert als Kenngrößen für den Grad der Übereinstimmung der Clusterlösungen zweier Fusionierungsverfahren zu bestimmen (vgl. Bortz/Schuster 2010, S. 466 ff.). Eine vergleichbare Vorgehensweise ist bei der Interpretation der Cluster hilfreich. Diese knüpft zum einen an den relevanten Klassifizierungsvariablen an, für die sich z.B. im Fall metrischer Variablen graphische Mittelwertprofile und/oder varianzbzw. diskriminanzanalytische Mittelwertuntersuchungen durchführen lassen. Um einen differenzierten Einblick in die Clusterstrukturen zu erlangen, ist es darüber hinaus zweckmäßig, Cluster mit Hilfe sog. passiver Zusatzvariablen, d.h. Merkmalen, die nicht als Klassifizierungsvariablen herangezogen wurden, zu beschreiben. 23 3. Hierarchische Clusteranalyse mit SPSS 3.1 Die Datenmatrix des Demonstrationsbeispiels In der Marketingpraxis ist es vielfach üblich, Informationen über die Leistungsangebote konkurrierender Anbieter auf dem Wege einer Durchsicht von Produktprospekten zu sammeln und in Form einer Leistungstabelle gegenüberzustellen. Ein derartiges Vorgehen unterliegt auch der Zusammenstellung der Leistungsausprägungen verschiedener Marken des bundesdeutschen Pkw-Marktes in der Tabelle 12. In der Datenmatrix sind zwölf Pkw-Modelle anhand von jeweils neun technischen Produkteigenschaften und einem ökonomischen Merkmal bzw. dem Verkaufspreis gegenübergestellt. Ist man nun daran interessiert zu untersuchen, bezüglich welcher Leistungsmerkmale Unterschiede oder Gemeinsamkeiten zwischen den Marken vorliegen, so wird recht schnell deutlich, dass der Vergleich von 12 x 10 = 120 Eigenschaftsausprägungen eine komplexe Beurteilungsaufgabe darstellt, die nicht nur zeitaufwendig ist, sondern auch ein unübersichtliches Leistungsbild vermittelt. Preis (DM) Länge (mm) Breite (mm) Höhe (mm) Audi 80 12655 4383 1682 1365 BMW 320 19300 4355 1610 1380 Citroen GSX 14490 4120 1608 1349 Fiat 131 12590 4264 1651 Ford Taunus 11930 4340 Mercedes 200 20261 4725 Opel Rekord 14685 Peugeot 244 Renault 20 Gewicht (kg) PS Hubraum (ccm) Geschwindigkeit Beschleunigung (Sek. Verbrauch (l (km/h) Für 0-100km/h) pro 100 km) 910 55 1273 145 17,5 8,9 1115 122 1990 181 10,7 9,5 935 55 1130 145 20,8 8,4 1381 1015 75 1585 160 12,8 9,2 1700 1362 1020 55 1285 137 20,3 9,5 1786 1438 1340 94 1988 160 15,2 11,1 4593 1726 1420 1100 75 1875 155 16 10,2 14995 4490 1690 1460 1160 79 1796 154 15,8 10,5 18670 4520 1726 1435 1260 109 1994 173 12,7 10,2 Simca 13224 4245 1680 1390 1075 75 1442 154 13,9 9,7 VW Passat 14925 4290 1615 1360 885 75 1588 164 13 8,8 Volvo 244 17990 4898 1707 1435 1280 90 1986 155 15 11,5 Tabelle 12: Leistungsmerkmale von Automobilen (Quelle: Hammann/Erichson 2000, S. 257) Im vorliegenden Beispiel lässt sich mittels einer Clusteranalyse die Frage beantworten, ob die betrachteten Pkw-Modelle anhand ausgewählter Leistungsmerkmale zu Modellklassen zusammengefasst werden können. Bezogen auf die eingangs diskutierten Einsatzfelder der Cluster im Marketing, ist diese Problemstellung gleichdeutend mit der Abgrenzung von strategischen Wettbewerbergruppen. Bei der Auswahl derjenigen Merkmale, anhand derer die relevanten Untersuchungsobjekte klassifiziert werden sollen, bieten sich für unser Beispiel die folgenden drei Alternativen an: (1) Erstens könnte man versuchen, die Pkw-Modelle hinsichtlich eines einzelnen Leistungsmerkmals (z.B. dem Hubraum, der Länge oder dem Verkaufspreis) zu gruppieren (= eindimensionale bzw. monothetische Clusteranalyse). 24 (2) Eine zweite Alternative besteht in der Markengruppierung auf der Basis von mehreren Leistungseigenschaften (= mehrdimensionale bzw. polythetische Clusteranalyse). (3) Schließlich kann man unmittelbar an den Ergebnissen einer vorgeschalteten Faktorenanalyse ansetzen und die dabei extrahierten Faktoren als Klassifizierungsmerkmale verwenden (= faktorielle Clusteranalyse). Um im Folgenden den integrativen Einsatz von Datenanalyseverfahren demonstrieren zu können, legen wir unserer Markengruppierung eine faktorielle Clusteranalyse zugrunde. Hierzu dienen die Ergebnisse einer vorgeschalteten Faktorenanalyse als Dateninput. Bei der betreffenden Faktorenanalyse (Einstellungen: Extraktionsmethode „Hauptkomponenten“; Varimax-Rotation) wurden die neun technischen Leistungsmerkmale des Datensatzes der Tabelle 12 zu zwei Faktoren verdichtet (erklärte Gesamtvarianz = 95 %) und mit den Bezeichnungen „Geräumigkeit“ und „Sportlichkeit“ versehen. Die zentralen Befunde sind in der Tabelle 13 dargestellt (vgl. ausführlich Müller 2015 b). Jedes der zwölf Pkw-Modelle lässt sich daher neben seinen Leistungsausprägungen zusätzlich durch Faktorwerte, d.h. den Ausprägungen hinsichtlich beider Faktoren beschreiben. Tabelle 13: Komponentenmatrix und Faktorwerte Überträgt man die Faktorwerte in ein Streudiagramm, so erhält man den in Abbildung 6 veranschaulichten sog. Leistungsraum (performance space). 25 Abbildung 6: Streudiagramm auf Basis von Faktorwerten Da die betrachteten Leistungsmerkmale in unterschiedlichen Messdimensionen (z.B. Gewicht in kg, Länge in mm) vorliegen, wurden diese im Rahmen der Faktorenanalyse z-standardisiert. Daher sind auch die Faktorwerte standardisiert und besitzen somit einen Mittelwert von 0 sowie eine Varianz von 1: Ein Faktorwert von 0 indiziert somit, dass das Objekt eine lediglich durchschnittliche Ausprägung besitzt. Demgegenüber zeigt ein positiver (negativer) Faktorwert an, dass das betreffende Objekt eine im Vergleich zu allen anderen Objekten überdurchschnittliche (unterdurchschnittliche) Ausprägung aufweist. Die Verteilung der Markenpositionen legt darüber hinaus den Schluss nahe legt, dass im Zuge einer Clusteranalyse möglicherweise drei Markengruppen (die in Abbildung 6 durch gestrichelte Kreise veranschaulicht sind) gebildet werden können. 3.2 SPSS-Analysemethodik Um die Pkw-Daten mittels einer hierarchischen Clusteranalyse auf der Grundalge von Faktorwerten auszuwerten, ist in SPSS die nachstehende Schrittfolge durchzuführen: (1) Im ersten Schritt einer Clusteranalyse ist die auswertungsrelevante Datenmatrix zu erstellen. Führen Sie zunächst auf Basis des Datensatzes der Tabelle 12 eine Faktorenanalyse durch und speichern Sie die erzeugten Faktoren als Variablen „Geräumigkeit“ sowie „Sportlichkeit“. Speichern Sie die daraus resultierende Datendatei unter der Bezeichnung “Hierarchische Clusteranalyse-Pkw“ (vgl. Tabelle 14). Achten Sie bei der Definition der Fallvariablen „Marke“ darauf, dass diese als Zeichenfolge-Variable definiert ist. Alternativ können Sie auf die Durchführung einer Faktorenanalyse verzichten und anstelle dessen die in der Tabelle 13 angezeigten relevanten Faktorwerte direkt in eine neue Datendatei eingeben. 26 Tabelle 14: Daten-/Variablenansicht der SPSS-Datei „Hierarchische Clusteranalyse-Pkw“ (2) Fordern Sie nun das Dialogmenü der hierarchischen Clusteranalyse durch die Befehlsfolge „Analysieren/Klassifizieren/Hierarchische Cluster...“ an. Das Dialogfeld „ Hierarchische Clusteranalyse“ wird geöffnet (vgl. Abbildung 7). (3) Zunächst wollen wir eine Auswahl der untersuchungsrelevanten Variablen vornehmen: Abbildung 7: Dialogfeld „Hierarchische Clusteranalyse“ ► Markieren Sie daher die beiden Klassifizierungsvariablen „Geräumigkeit“ sowie „Sportlichkeit“ im linken Bereich des Dialogfeldes. 27 ► Überführen Sie anschließend die ausgewählten Merkmale aus diesem sog. Quellverzeichnis durch ein Anklicken des oberen Pfeils in die Liste „Variable(n)“ ► Überführen Sie die Variable „Marke“ in das Feld „Fallbeschriftung“. ► Belassen Sie die Voreinstellungen in den Feldern „Cluster: Fälle“ sowie „Anzeige: Statistik/Diagramme“. (4) Der nächste Schritt besteht in der Ermittlung der Proximitätsmatrix. Ein Klick auf die Schaltfläche „Statistiken“ öffnet das Dialogfenster „Hierarchische Clusteranalyse: Statistik“ (vgl. Abbildung 8). Abbildung 8: Dialogfeld „Hierarchische Clusteranalyse: Statistik“ ► Die Ausgabe der Ähnlichkeitsmatrix ist standardmäßig nicht voreingestellt. Daher fordern wir diese mit einem Klick auf das entsprechende Kästchen an. ► Die voreingestellte, von uns übernommene Option „Zuordnungsübersicht“ liefert ein tabellarisches Protokoll der fortlaufenden Fusionierung der Objekte. ► Sofern Vorkenntnisse über die Zahl der zu bildenden Cluster vorhanden sind, kann im Feld „Cluster-Zugehörigkeit“ die Zahl der Cluster exakt vorgegeben, auf bestimmte Bereiche begrenzt oder auch unbestimmt gelassen werden. In unserem Beispiel hingegen wollen wir bereits an dieser Stelle aufgrund unserer Betrachtung des Faktorraumes der Abbildung 6 davon ausgehen, dass sich die Pkw-Modelle möglicherweise zu zwei, drei oder zu vier Markengruppen zusammenfassen lassen. Da wir jedoch keine Kenntnis über die exakte Clusterzahl verfügen, weisen wir SPSS im Feld „Bereich von Lösungen“ an, die Clusterzugehörigkeit der Fälle für ein Clusterergebnis von zwei bis vier Gruppen auszuweisen. ► Bestätigen Sie Ihre Einstellungen mit „Weiter“. Hierauf öffnet sich erneut das Dialogfeld „ Hierarchische Clusteranalyse“. (5) In einem weiteren Schritt ist das Klassifizierungsverfahren festzulegen. Klicken Sie daher auf die Schaltfläche „Methode...“, worauf sich die Dialogbox „Hierarchische Clusteranalyse: Methode“ öffnet (vgl. Abbildung 9): ► Das Pull-down-Menü „Cluster-Methode“ bietet öffnet eine Liste alternativer Clusterverfahren. Wählen Sie dort die Option „Ward-Methode“. 28 ► Im Feld „Maß“ finden sich für verschiedene Skalenniveaus der Variablen alternative Proximätsmaße. Wählen Sie dort im Kästchen “Intervall“ das Maß „Quadrierter Euklidischer Abstand“. ► Im Feld „Werte transformieren“ können verschiedene Arten der Variablenstandardisierung angefordert werden. Die Klassifizierungsmerkmale unseres Beispiels stellen z-standardisierte Faktorwerte dar, so dass die Voreinstellung „ Keine“ belassen können. ► Bestätigen Sie Ihre Einstellungen „Weiter“. Abbildung 9: Dialogbox „Hierarchische Clusteranalyse: Methode“ (6) Nunmehr sind Informationen zur Clusterdiagnose auszuwählen. Hierzu stellt SPSS im Dialogfenster „Hierarchische Clusteranalyse: Diagramme“ zwei graphische Darstellungsalternativen zum Verlauf des Fusionsprozesses zur Verfügung (vgl. Abbildung 10): ► Dort wählen wir zum einen die Option „Dendrogramm“. ► Zum anderen möchten wir ein „Eiszapfen“-Diagramm betrachten. ► Im Hinblick auf die Darstellungsform wählen wir unter „Orientierung“ die voreingestellte Option „vertikal“. ► Anschließend bestätigen wir unsere Einstellungen mit „Weiter“. 29 Abbildung 10: Dialogbox „ Hierarchische Clusteranalyse: Diagramme“ (7) Schließlich bietet SPSS in die Möglichkeit, die Clusterzugehörigkeit der Fälle als zusätzliche Variable in der Datendatei zu speichern. Hierzu klicken wir in der Dialogbox „Hierarchische Clusteranalyse“ auf die Schaltfläche „Speichern“. Es öffnet sich das Dialogfenster “Hierarchische Clusteranalyse: Speichern“ (vgl. Abbildung 11): ► Im Fall einer stringent explorativen Clusteranalyse, würde man die Clusterlösung erst im Anschluss an die Clusterprozedur und -diagnose festlegen und speichern. ► In unserem Beispiel haben wir allerdings im Schritt (4) SPSS dazu veranlasst, die Analyseprozedur für einen Lösungsbereich von zwei bis vier Clustern durchzuführen. Deshalb wählen wir an dieser Stelle nun die Option, die Clusterzugehörigkeit der Fälle für ein Clusterergebnis von zwei bis vier Gruppen zu speichern. Hiermit fügt SPSS der Datendatei drei neue Variablen unter den Bezeichnungen „CLU4_1; CLU3_1; CLU2_1“ an. Abbildung 11: Dialogbox „Hierarchische Clusteranalyse: Speichern“ 3.3 Interpretation der Distanzmatrix Die Ausgabe umfasst zunächst die von SPSS als Näherungsmatrix bezeichnete Distanzmatrix für die analysierten zwölf Fälle (vgl. Tabelle 15). In dieser wird die paarweise Quadrierte Euklidische Distanz zwischen den zwölf Pkw-Modellen ausgewiesen. Je kleiner der Distanzwert ist, desto ähnlicher sind sich die zwei Fälle bezüglich der beiden Klassifizierungsvariablen Geräumigkeit und Sportlichkeit. Im Beispiel handelt es sich um eine Unähnlichkeitsmatrix (siehe Legende), so dass die 30 Unähnlichkeit (Ähnlichkeit) von zwei Objekten umso geringer (größer) größer ist, je geringer die Distanzwerte sind. Die Matrix ist symmetrisch strukturiert, so dass alle Distanzwerte zweimal angeführt sind. Es genügt daher, entweder das obere rechte Dreieck oder das untere linke Dreieck der Matrix zu betrachten. Die Hauptdiagonalwerte der Matrix, welche die Eigendistanzen der Fälle beinhalten, sind jeweils 0,000. Tabelle 15: Distanzmatrix Die Quadrierte Euklidische Distanz errechnet sich als Summe der quadrierten Differenzen zwischen den Variablenwerten (hier: den Faktorwerten, vgl. Tabelle 13). Beispielsweise bestimmt sich diese für Objektpaar „BMW 320VW Passat“ als: 2,458 = [(- 0,82159) – (-1,26772)]2 + (2,08154 – 0,57850)2. Für das Markenpaar „BMWFord Taunus“ wird hingegen der größte Distanzwert (= 13,954) ausgewiesen. Beide Pkw-Modelle sind sich offenkundig sehr unähnlich; ein Sachverhalt, der vornehmlich auf die starken Unterschiede in der Sportlichkeitsdimension zurückzuführen ist. Demgegenüber weisen die Markenpaare „Volvo 244Mercedes 200“ sowie „Opel RekordPeugeot 244“ vergleichsweise geringe Distanzen auf. Zusammenfassend lässt sich festhalten, dass die Distanzwerte die optischen Objektrelationen des Faktorraumes der Abbildung 7 widerspiegeln. 3.4 Darstellungen des Agglomerationsprozesses Die Ward-Clustermethode ist ein spezielles hierarchisch-agglomeratives Verfahren, bei dem zu Beginn des Verschmelzungsprozesses jedes Objekt ein einzelnes Cluster bildet. Diese werden anschließend fortschreitend vereinigt, bis alle Objekte in einer einzigen Gruppe zusammengefasst sind. Der Verlauf der hierarchischen Clusterbildung wird in der SPSS-Ausgabe durch die drei alternativen Darstellungsweisen der Agglomerationstabelle, des Eiszapfen-Diagramms sowie des Dendrogramms angezeigt. 31 Die Agglomerationstabelle zeigt den Verlauf der Clusterbildung von der ersten Stufe, in der jedes Objekt einen eigenständigen Cluster bildet, bis zur letzten Stufe, in der alle Objekte zu einem Cluster zusammengefasst sind (vgl. Tabelle 16): Tabelle 16: Agglomerationstabelle Jede Zeile der Agglomerationstabelle beschreibt eine einzelne Prozessphase der Clusterbildung, die in der ersten Spalte „Stufe“ angezeigt wird. Bei einer Gesamtzahl von n Objekten werden insgesamt (n–1)-Agglomerationsstufen durchgeführt; im vorliegenden Beispiel daher 11 Stufen. Die Spalte „Zusammengeführte Cluster“ zeigt an, welche Objekte jeweils zusammengefasst werden. Beispielsweise werden im ersten Schritt die Objekte (bzw. die Cluster) mit den Fallnummern 7 (Opel Rekord) und 8 (Peugeot 244) zu einem neuen Cluster verschmolzen. Ein neu gebildetes Cluster wird dabei immer nach der kleinsten Fallzahl benannt, hier also nach dem Objekt 7, wobei die jeweilige Clusterbezeichnung im gesamten Agglomerationsprozess beibehalten bleibt. In der abschließenden Stufe 11 werden die Cluster 1 und 6 zusammengeführt, so dass alle Objekte ein Cluster bilden. In der Spalte „Koeffizienten“ werden gewöhnlich die Distanzwerte zwischen den fusionierten Clustern ausgewiesen. Im Fusionierungsprozess des Ward-Verfahrens werden jedoch nicht diejenigen Objekte zu einem Cluster vereinigt, welche die geringste Distanz zueinander aufweisen. Anstelle dessen vollzieht sich die Clusterbildung auf der Grundlage eines vorgegebenen Heterogenitätsmaßes, das durch die sog. Fehlerquadratsumme (sog. Varianzkriterium) erfasst wird. Dabei ergibt sich die Streuung innerhalb eines Clusters als die Summe der Abweichungsquadrate der (standardisierten) Merkmalswerte des Clusters von den Merkmalsmittelwerten. Aus der Summation der clusterspezifischen Streuungen erhält man die Fehlerquadratsumme (Gesamtstreuung) einer vorliegenden Clusteraufteilung. Mit jedem Fusionierungsschritt geht ein Homogenitätsverlust bzw. ein Heterogenitätszuwachs der Klassifikation in Form einer Steigerung der Streuung innerhalb der Klassen (within-groups sum of squares) einher. Somit werden bei Anwendung des Varianzkriteriums der Ward-Methode in jeder Stufe des Agglomerationsprozesses stets die beiden Cluster zusammengefasst, die zu 32 einer minimalen Erhöhung der Gesamtstreuung führen (vgl. hierzu vertiefend Bacher et al. 2010, S. 286 ff.; Backhaus et al. 2011, s. 426 ff.). Bei Anwendung des Ward-Verfahrens zeigen daher die Koeffizienten die für jeweilige Fusionierungsstufe berechnete Fehlerquadratsumme an. Beispielsweise werden im zweiten Fusionierungsschritt die Fallnummern 6 (Mercedes) sowie 12 (Volvo 244) zu einem Cluster vereinigt, deren Fehlerquadratsumme 0,020 beträgt. Dieser Wert ist zwangsläufig höher als die Fehlerquadratsumme des ersten Fusionierungsschritts. In der Spalte „Nächster Schritt“ wird für jede Agglomerationsstufe dargelegt, in welchem Schritt der gerade neu gebildete Cluster mit einem weiteren Cluster zusammengeführt wird. So wird z.B. angezeigt, dass die auf der ersten Stufe gebildete Gruppe (78) erst in Schritt 7 wieder mit einem anderen Cluster verschmolzen wird. Unter der Überschrift „Erstes Vorkommen des Clusters“ wird zudem angegeben, auf welcher Stufe die betreffende Gruppe in dieser Form gebildet wurde. Da z.B. im Schritt 1 beide Cluster aus lediglich einem Objekt bestehen, finden sich in dieser Spalte ausschließlich Nullen. Demgegenüber erscheint z.B. im Schritt 5 unter „Erstes Vorkommen des Clusters“ eine 3, weil das betreffende Cluster (410) im dritten Schritt gebildet wurde. Dabei werden wie bereits erwähnt, die Cluster stets durch das Objekt mit der niedrigsten Fallnummer gekennzeichnet, das ihm angehört. Dies bedeutet, dass sich im vorliegenden Beispiel die Nummer 4 auf das im dritten Schritt gebildete Cluster (411) bezieht, während die Nummer 10 das nunmehr neu hinzugefügte Einzelobjekt 10 (Simca) anzeigt. Der Agglomerationstabelle ist schließlich zu entnehmen, dass die Zunahme der Fehlerquadratsumme zunächst vergleichsweise gering ist, während diese auf den späteren Stufen größer wird und insbesondere bei den Schritten 9 und 10 deutliche Varianzsprünge aufweist. Dies bedeutet, dass die auf den unteren Stufen gebildeten Cluster noch vergleichsweise homogen sind, während die darauffolgenden Schritte zunehmend heterogene Cluster erzeugen. Das Eiszapfen-Diagramm bildet eine Darstellungsalternative zur Agglomerationstabelle. Es beschreibt, von unten nach oben gelesen, gleichfalls die einzelnen Schritte der Clusterung (vgl. Abbildung 12): Jede Zeile des Eiszapfen-Diagramms bezieht sich auf eine Stufe des Fusionierungsverlaufes, wobei die unterste Zeile den ersten Agglomerationsschritt abbildet. Die von oben nach vollständig ausgefüllten Säulen repräsentieren jeweils ein Objekt, z.B. stellt die erste Säule das Objekt „Renault 20“ dar. In der untersten Zeile sind z.B. die benachbarten Objekte „Mercedes“ und „Simca“ durch einen Freiraum voneinander getrennt. Damit wird angezeigt, dass die beiden Modelle im ersten Agglomerationsschritt zu unterschiedlichen Clustern gehören. Demgegenüber sind die benachbarten Objekte „Peugeot 244 und „Opel Rekord“ nicht durch einen Freiraum voneinander getrennt, sondern durch eine ausgefüllte Fläche miteinander verbunden. Damit wird angezeigt, dass die betreffenden Objekte in der ersten Fusionierungsstufe zu einem Cluster vereint werden. 33 Abbildung 12: Eiszapfen-Diagramm Die auf jeder Stufe vorhandene Clusterzahl durch die Diagrammachse „Anzahl der Cluster“ angezeigt. Nach der ersten Agglomerationsstufe bestehen dementsprechend 11 Cluster, von denen 10 Cluster jeweils nur ein einzelnes PkwModell umfassen und ein Cluster die beiden Objekte „ Peugeot 244“ und „Opel Rekord“ enthält. Im nächsten Schritt (bzw. der Clusterzahl 10) findet eine Zusammenlegung der Fälle 12 (Volvo 244) und 6 (Mercedes) statt. Im letzten Schritt der Agglomeration sind alle Fälle in einem Cluster vereint und durch eine geschlossene Fläche miteinander verbunden. Sowohl die Agglomerationstabelle als auch das Eiszapfen-Diagramm bieten einen teilweise unübersichtlichen Einblick in den Fusionierungsprozess. Eine visuell ansprechendere und mit größerem Informationsgehalt ausgestatte Darstellung liefert das im folgenden Abschnitt erläuterte Dendrogramm. 34 3.5 Bestimmung der Clusterzahl Zur Bestimmung der „optimalen“ Clusterzahl stellt die Clusteranalyse keine statistischen Beurteilungskriterien bereit. Ersatzweise bedarf es daher sachlogischer Überlegungen, die durch drei SPSS-Ausgaben unterstützt werden können: den Distanzkoeffizienten in der Agglomerationstabelle, dem Dendrogramm sowie dem Struktogramm. Einen ersten Hinweis auf eine sachgemäße Clusterzahl kann die Analyse der Distanzkoeffizienten in der Agglomerationstabelle (vgl. Tabelle 16) liefern. Hiernach ist es plausibel, den Verschmelzungsprozess generell an jener Stelle abzubrechen, bei der ein deutlicher Sprung des betreffenden Distanzkoeffizienten auftritt, da andernfalls unähnliche bzw. heterogene Cluster zusammengefasst werden. Im vorliegenden Beispiel ist mit Übergang vom Agglomerationsschritt 9 nach Schritt 10 eine deutliche Sprungstelle verbunden, denn hiermit geht ein Zuwachs des Heterogenitätsmaßes, d.h. der Fehlerquadratsumme von 5,95 nach 12,84 einher. Diese Sprungstelle kann als Entscheidungskriterium für eine sachgemäße Clusteranzahl dienen, so dass es sich hier anbietet, eine Drei-Clusterlösung zu verwenden. Ein Dendrogramm (Baumdiagramm) beschreibt das schrittweise Zusammenfassen von Fällen in schematischer Form. Das beispielhafte Dendrogramm der Abbildung 13 ist von links nach rechts zu lesen und dokumentiert in dieser Richtung die einzelnen Stufen des Fusionierungsablaufs. Jede Zeile des Diagramms repräsentiert ein einzelnes Objekt. Jene Objekte, die durch eine senkrechte Linie miteinander verbunden sind, gehören einem gemeinsamen Cluster an. Die Distanz der Cluster wird durch die Länge der waagerechten Linie angezeigt und mittels der Skala „Kombination skalierter Abstands-Cluster“ quantifiziert. Die in der Skala abgetragenen Distanzwerte entsprechen allerdings nicht den in der Agglomerationstabelle enthaltenen tatsächlichen Distanzwerten. Stattdessen werden die Distanzen mittels einer speziellen Transformationsmethodik auf einen Wertebereich von 0 bis 25 umgerechnet, um die Relationen der Distanzunterschiede optisch hervorzuheben (vgl. dazu ausführlich Rudolf/Müller 2012, S. 289 f.). Beim Ward-Verfahren besteht allerdings eine Besonderheit darin, dass die Koeffizienten der Agglomerationstabelle und somit auch Werte der Distanzskala des Baumdiagramms nicht die Clusterdistanzen, sondern die Werte des Heterogenitätsmaßes bzw. der Fehlerquadratsumme zum Ausdruck bringen. So entspricht z.B. die in der letzten Zeile der Zuordnungstabelle ausgewiesene Fehlerquadratsumme von 22 dem im Dendrogramm angezeigten Skalenwert von 25. 35 Abbildung 13: Dendrogramm für die Beispieldaten Für das vorliegende Beispiel kann der Fusionierungsprozess anhand des Dendrogramms auszugsweise wie folgt beschrieben werden: Das Dendrogramm startet mit der n-Clusterlösung, d.h. zunächst bildet jedes einzelne Objekt ein Cluster. Auf der Ebene der einzelnen Objekte weist das Heterogenitätsmaß daher zunächst den Wert 0 auf. Je länger im anschließenden Fusionierungsprozess die waagerechte Linie wird, desto größer ist die Zunahme der Heterogenität. In den ersten vier Fusionierungsschritten wurden vier Cluster gebildet. Diese bestehen aus den Markenpaaren „Opel RekordPeugeot 244“, „Mercedes 200Volvo 244“, „Audi 80Citroen GSX“ und „Fiat 131VW Passat“. Die damit verbundene Heterogenitätszunahme ist vergleichsweise gering, da die geclusterten Objekte einander noch relativ ähnlich sind. Anschließend wurden einerseits das Objekt „Taunus“ dem bereits bestehenden Cluster „Audi 80Citroen GSX“ zugeordnet und andererseits das Objekt „Simca“ dem ebenfalls bereits gebildeten Cluster „Fiat 131VW Passat“ zugewiesen. In der nächsten Fusionierungsstufe wurden die beiden Cluster „Opel RekordPeugeot 244“ und „Mercedes 200Volvo 244“ zu einem gemeinsamen Cluster verbunden. Im letzten Schritt wurde ein globales, aus sämtlichen 12 Pkw-Modellen zusammengesetztes Cluster gebildet. 36 Bezüglich der Entscheidung über die „optimale“ Clusterzahl, ist es sinnvoll, den Verschmelzungsprozess an jener Stelle des Dendrogramms zu beenden, die durch einen großen Distanzsprung gekennzeichnet ist bzw. bei der sich die Heterogenität sprunghaft erhöht. Denn ein überproportionaler Varianzzuwachs signalisiert, dass die weitere Verringerung der Clusterzahl im Vergleich zur bisherigen Gruppenzahl zu einer überproportionalen Zunahme der gruppeninternen Heterogenität führt. Graphisch bedeutet dies, dass die Länge der waagerechten Linien Rückschlüsse auf die sinnvolle Clusterzahl gewährt. Legt man daher eine senkrechte Parallele durch das Dendrogramm, so lässt sich die formelle Regel formulieren, dass die optimale Anzahl der Cluster der Anzahl der Schnittpunkte mit den waagrechten Linien entspricht. Im Beispiel der Abbildung 13 wurde exemplarisch eine gestrichelte Parallele eingetragen, die dem Heterogenitätswert h1 entspricht. Diese schneidet drei waagerechte Linien, so dass sich eine Drei-Clusterlösung ergibt. Zur Bestimmung der Clusterzahl kann ergänzend ein Struktogramm verwendet werden, das eine grafische Darstellung der Agglomerationstabelle beinhaltet. Das Struktogramm bildet allerdings keinen Bestandteil der Clusterprozedur von SPSS. Insofern bietet es sich beispielsweise an, die Agglomerationstabelle in ein ExcelTabellenblatt zu exportieren und mit den relevanten Daten ein Liniendiagramm zu erstellen (vgl. Abbildung 14). Im Struktogramm sind die Koeffizientenwerte der Agglomerationstabelle an der Ordinate und die Clusteranzahl an der Abzisse abzutragen. Bei dessen Beurteilung kann die Ein-Clusterlösung generell vernachlässigt werden, da sich beim Übergang von einer Zwei- zur Ein-Clusterdarstellung stets der größte Heterogenitätssprung ergibt (vgl. Backhaus et al. 2011, S. 437). Für unser Beispiel legt das Struktogramm in Abbildung 14 gleichfalls eine DreiClusterlösung nahe, da dort ein deutlicher „Knick“ erkennbar ist. Abbildung 14: Beispieldaten und Struktogramm in Excel 37 3.6 Beschreibungen von Clusterprofilen In einem weiteren Schritt der Clusteranalyse sind die ermittelten Cluster inhaltlich zu kennzeichnen. Die Beschreibung von Clusterprofilen umfasst generell drei Aspekte: die Clusterzuordnung der einzelnen Fälle, die Ermittlung von clusterspezifischen Maßzahlen (z.B. Mittelwert) und die Clusterbeschreibung mit Hilfe zusätzlicher Variablen, die bei der Clusterbildung nicht als Klassifizierungsvariablen verwendet wurden (sog. Passualvariablen; vgl. hierzu das Beispiel in Kapitel 5.1). Im vorliegenden Fall beinhaltet der untersuchte Datensatz keine Zusatzvariablen, so dass die Clusterbeschreibung allein auf Basis der Klassifizierungsvariablen erfolgt. Die Gruppenzugehörigkeit bei alternativen Clusterlösungen kann der Zuordnungstabelle entnommen werden. Hiernach setzen sich die Cluster für die von uns bevorzugte Drei-Gruppenlösung wie folgt zusammen (vgl. Tabelle 17): Cluster 1: Audi 80Citroen GSX Ford Taunus, Cluster 2: BMW 320 Fiat 131SimcaVW Passat, Cluster 3: Mercedes 200Opel RekordPeugeot 244Renault 20Volvo 244. Tabelle 17: Clusterzuordnungen der Beispielobjekte Sofern die Clusterbildung auf der Basis von lediglich zwei metrischen Variablen durchgeführt wurde, kann die Clusterzugehörigkeit der Objekte auch in Form eines SPSS-Streudiagramms veranschaulicht werden. Hierzu speichern wir zunächst im Dateneditor von SPSS die neue Gruppenvariable CLU3_1, welche die Clusterzugehörigkeit der zwölf Pkw-Modelle enthält. Für unser Beispiel erhält man die Verteilung der Objekte im Clusterraum der Abbildung 15. 38 Abbildung 15: Streudiagramm zur Clusterzugehörigkeit Daneben umfasst eine Clusterinterpretation die Herausarbeitung von gruppentypischen Merkmalsprofilen. Hierzu ermittelt man gewöhnlich eine Reihe von skalenabhängigen, deskriptiven Maßzahlen (z.B. den Cluster-Mittelwert), anhand derer die verschiedenen Cluster miteinander verglichen werden. Aus Darstellungsgründen ist es sinnvoll, dazu das flexibel zu handhabende SPSS-Menü „Analysen/Tabelle“ zu verwenden und eine sog. benutzerdefinierte Tabelle zu erstellen. Im betreffenden Dialogfenster verschieben die die Clustervariable in die Zeile und die beiden Klassifizierungsvariablen in die Spalten der Vorschautabelle (vgl. Abbildung 16). Mit Hilfe der Schaltfläche Auswertungsstatistik wählen Sie die Maßzahlen „Mittelwert“, Anzahl“ und „Anzahl als Spaltenprozent“ aus. Abbildung 16: Dialogfenster Benutzerdefinierte Tabelle 39 Den daraus resultierenden Vergleich der Clusterprofile gibt die Tabelle 18 wider. Tabelle 18: Deskriptive Clusterstatistiken Demnach können die Clusterprofile wie folgt gekennzeichnet werden: Die drei Cluster wurden auf der Grundlage von (z-standardisierten) Faktorwerten gebildet. Faktorwerte weisen einen Mittelwert von 0 sowie eine Varianz von 1 auf: Ein Faktorwert von 0 indiziert somit, dass das Objekt eine lediglich durchschnittliche Ausprägung besitzt. Demgegenüber zeigt ein positiver (negativer) Faktorwert an, dass das betreffende Objekt eine im Vergleich zu allen anderen Objekten überdurchschnittliche (unterdurchschnittliche) Ausprägung aufweist. Die Faktorwerte der dem Cluster 1 zugehörigen Marken sind durch eine jeweils unterdurchschnittliche Ausprägung bezüglich beider Clustervariablen gekennzeichnet (vgl. auch Abbildung 15). Die daraus resultierenden Mittelwerte des Clusters 1 sind jeweils negativ, so dass sich diese Gruppe mit dem Begriff „Leistungsschwache Pkw-Modelle“ umschreiben lässt. Im Cluster 2 befinden sich Marken, deren Faktorwerte hinsichtlich der Sportlichkeitsdimension überdurchschnittliche Ausprägungen und bezüglich der Geräumigkeitsdimension lediglich unterdurchschnittliche Ausprägungen aufweisen. Daher liegt es nahe, diese Gruppe als „Sportliche Pkw-Modelle“ zu bezeichnen. Die dritte Gruppe enthält Marken, deren Faktorwerte bezüglich der Sportlichkeitsdimension als nahezu durchschnittlich und hinsichtlich der Geräumigkeitsdimension als überdurchschnittlich einzustufen sind. Demzufolge kann diese Gruppe mit der Bezeichnung „Geräumige Pkw-Modelle“ versehen werden. Bezogen auf die Gesamtzahl der Fälle betragen die Besetzungsanteile für das erste Cluster 25%, für Cluster 2 ca. 33,3% und für Cluster 3 ca. 41,7 %. Im Fall von metrischen (bzw. standardisierten) Klassifizierungsvariablen können deskriptive Clusterstatistiken u.a. mit Hilfe von Boxplotdiagrammen veranschaulicht werden. Für unser Beispiel erhält man die in Abbildung 17 dargestellten zwei Boxplotdiagramme. Ein sog. einfaches Boxplotdiagramm beinhaltet für jede auf der x-Achse dargestellte kategoriale Clustervariable eine Reihe deskriptiver Maßzahlen zur Beschreibung einer Klassifizierungsvariablen. Die untere Kante der Kästchen (Boxen) zeigt den 25-Prozentwert (25. Perzentil = 1. Quartil), die obere Kante hingegen den 75–Prozentwert (75. Perzentil = 3. Quartil) an. Die waagerechte Linie entspricht dem Median (50-Prozentwert, Zentralwert = 2. Quartil). Daneben werden durch senkrechte Linien mit Querbalken (sog. whiskers) der 40 jeweils höchste und geringste Wert einer Variablen angezeigt. Ein Vergleich der Clustermediane bestätigt die zuvor erläuterte Kennzeichnung der drei Cluster. So weist beispielsweise Cluster 3 („Geräumigkeitscluster“) einen überdurchschnittlich hohen Median hinsichtlich der Geräumigkeitsvariablen auf. Zusätzlich werden in einem Boxplot die Extremwerte, d.h. Fälle, die mit mehr als drei Kästchenlängen vom oberen bzw. unteren Kästchenrad entfernt liegen, durch einen Stern angezeigt. Im Beispiel wird der dem Cluster 3 angehörige Renault (Fall 9) als Extremwert hinsichtlich seines Faktorwertes in der Sportlichkeitsvariablen (= 1,09; vgl. auch Tabelle 13) ausgewiesen. Abbildung 17: Einfache Boxplotdiagramme der Clustervariablen Die Interpretation von Clustern kann durch die Berechnung von clusterspezifischen t-Werte unterstützt werden (vgl. Backhaus et al. 2011, S. 446 f.). Den t-Wert einer Variablen erhält man, indem zunächst vom Mittelwert der Variablen in einem Cluster der Mittelwert dieser Variablen in den Ausgangsdaten subtrahiert wird und anschließend durch deren Standardabweichung in der Erhebungsgesamtheit dividiert wird: t X ( J , G) X ( J ) S(J ) mit: X ( J , G ) = Mittelwert der Variable J über die Objekte der Gruppe G X (J ) S(J ) = Gesamtmittelwert der Variable J in der Erhebungsgesamtheit = Standardabweichung der Variable J in der Erhebungsgesamtheit Negative t-Werte verweisen darauf, dass die betreffende Variable im Vergleich zur Erhebungsgesamtheit eher unterdurchschnittliche Werte annimmt. Demgegenüber zeigt ein positiver t-Wert an, dass die Variable in der Gruppe im Vergleich zur Erhebungsgesamtheit überrepräsentiert ist. T-Werte bilden allerdings keinen Bestandteil der SPSS-Ausgabe, so dass die erforderlichen Berechnungen mit Hilfe von z.B. Excel durchzuführen sind. Zwecks einer vertiefenden Einsicht in die Clusterstrukturen berechnen wir in unserem Beispiel die t-Werte nicht auf Grundlage der Faktorwerte, sondern auf Basis der Merkmalsausprägungen der Ausgangs41 variablen. Hiernach erhalten wir die in Tabelle 19 angeführten t-Werte. Für die Variable „Länge“ erhält man beispielweise eine Standardabweichung bezüglich aller zwölf Fälle in Höhe von 221,03 (Excel-Tabellenfunktion: STABW.S). Der Mittelwert dieser Variablen beträgt im ersten Cluster 4281,0 und in der Erhebungsgesamtheit 4404,90. Somit ergibt sich der t-Wert für die Variable „Länge“ im Cluster 1 als: t 4281 4409,90 0,56 221, 03 Die t-Werte bestätigen die zuvor formulierten Clusterbeschreibungen: So ist beispielsweise für das Cluster 1 („Leistungsarme Klasse“) zu erkennen, dass sämtliche Variablen (mit Ausnahme der „Beschleunigung“) einen negativen t-Wert aufweisen. Das Sportlichkeits-Cluster 2 hingegen ist insbesondere durch positive tWerte bezüglich der PS-Zahl sowie der Geschwindigkeit gekennzeichnet. Tabelle 19: Excel-Tabelle zur Ermittlung von t-Werten für die Drei-Clusterlösung 42 3.7 Gütebeurteilungen der Clusterlösung Den abschließenden Schritt einer Clusteranalyse bildet eine Beurteilung hinsichtlich der internen Homogenität, der externen Heterogenität sowie der Stabilität der erzeugten Clusterlösung. Ein Kriterium zur Überprüfung der internen Homogenität eines Clusters stellt der sog. F-Wert dar (vgl. Backhaus et. al. 2011, S. 446 f.). Dieser ergibt sich aus der Division der Varianz (V) einer Klassifizierungsvariablen (J) in der Erhebungsgesamtheit und der Varianz dieser Variablen in einer Gruppe (VG) und somit als: V ( J , G) . V (J ) Je kleiner demnach der F-Wert ist, desto geringer ist die Streuung dieser Variablen in einer Gruppe im Vergleich zur Erhebungsgesamtheit. Ein Cluster kann demnach als vollkommen homogen beurteilt werden, wenn die F-Werte für alle Klassifizierungsvariablen kleiner als Eins sind. Wie bereits angesprochen, bilden die beiden faktoriellen Klassifikationsvariablen in unserem Beispiel jeweils standardisierte Werte, so dass in der Erhebungsgesamtheit der Mittelwert gleich 0 ist und die Varianz den Wert 1 aufweist. Das hat zur Folge, dass die Varianz der Clustervariablen in den Gruppen gleich dem F-Wert ist. Aus diesem Grund empfiehlt es sich, F-Werte für die jeweils „hinter den Faktoren“ stehenden Ausgangsvariablen zu berechnen. Das nicht in SPSS ausgewiesene und daher mit Excel ermittelte Ergebnis ist der nachstehenden Tabelle 20 zu entnehmen. F Tabelle 20: Excel-Tabelle zur Ermittlung von F-Werten für die Drei-Cluster-Lösung 43 Für die Variable „Länge“ erhält man beispielweise eine Varianz bezüglich aller zwölf Fälle in Höhe von 48.854, 75 (Excel-Tabellenfunktion: VARIANZA). Die Varianz dieser Variablen weist im ersten Cluster den Wert 19.903 auf. Demzufolge ergibt sich der F-Wert für die Variable „Länge“ im Cluster 1 als: 19.903 0, 41 48.854, 75 Die variablenspezifischen F-Werte besitzen überwiegend einen Wert von kleiner Eins (Ausnahme: Variable „PS“ in Cluster 2), so dass der Homogenitätsgrad der Drei-Clusterlösung insgesamt zufriedenstellend ist. F Zur Überprüfung der externen Clusterheterogenität können sowohl Diskriminanzanalysen (vgl. Müller 2015b) als auch Varianzanalysen durchgeführt werden. So ist z.B. mittels einer Varianzanalyse zu untersuchen, ob sich die Cluster im Hinblick auf ihre Mittelwerte bezüglich der Klassifizierungsvariablen signifikant voneinander unterscheiden. Im vorgegebenen Fall führen zwei einfaktorielle Varianzanalysen zum Ergebnis, dass jeweils hoch-signifikante Mittelwert-unterschiede - angezeigt durch die sog. empirischen Signifikanzniveaus in Höhe von 0,00 - zwischen den Clustern vorliegen (vgl. Tabelle 21). Tabelle 21: SPSS-Dialogbox und Ergebnisse einfaktorieller Varianzanalysen Eine Stabilitätsprüfung beinhaltet den Vergleich der vorliegenden Clusterlösung mit jenen Clusterergebnissen, die sich bei Anwendung alternativer Fusionierungsverfahren ergeben. Für unser Beispiel erbringt z.B. das Linkage-zwischen-den Gruppen-Verfahren auf Basis des Quadrierten Euklidischen Distanzmaßes das in Tabelle 22 angeführte Ergebnis. 44 Tabelle 22: Clusterzugehörigkeit der Pkw-Modelle Hiernach sind im Vergleich zur Drei-Clusterlösung des Ward-Verfahrens drei Modelle bzw. 25% der Fälle anderen Gruppen zugeordnet worden: Fiat 131 gehört nun nicht mehr der Gruppe 2, sondern dem Cluster 1 an. Darüber hinaus werden nunmehr „Simca“ als auch “Volvo 244“, die nach der Ward-Lösung jeweils der Gruppe 2 angehören, der Gruppe 1 bzw. der Gruppe 3 zugewiesen. Ferner ist augenfällig, dass bei Anwendung des Average-Linkage-Verfahrens der „BMW 320“ als „Ausreißer“ zu charakterisieren ist, denn dieser bildet auch bei einer Vier-Clusteroder einer Zwei-Clusterlösung stets das einzige Clusterelement. Zusammenfassend bliebt festzuhalten, dass die mit dem Ward-Verfahren erzeugte Drei-Clusterlösung sowohl inhaltlich interpretierbar ist als auch der Güteforderung nach intern homogenen sowie extern heterogenen Clustern gerecht wird. Abschließend bietet sich daher an, die in der SPSS-Datendatei „Hierarchische Clusteranalyse-Pkw“ eingefügte neue Variable der Drei-Clusterlösung „CLU3_1“ mit den gruppenspezifischen Wertelabels zu versehen (vgl. Abbildung 18) und zu speichern. Abbildung 18: Wertelabels der Gruppenvariable CLU3_1 45 4. Partitionierende Clusteranalysen 4.1 Verfahrensmerkmale der Clusterzentrenanalyse (K-Means-Verfahren) Die in den vorangegangen Abschnitten beschriebene hierarchische Clusteranalyse bietet Anwendern den Vorteil, eine flexible Handhabung bei der Wahl von Proximitätsmaßen sowie von Fusionierungsalgorithmen zu ermöglichen. Darüber hinaus kann jeder einzelne Schritt der Clusterbildung tabellarisch und/oder grafisch dargestellt und dadurch die Festlegung einer Clusteranzahl unterstützt werden. Diesen Vorzügen steht jedoch der gravierende Nachteil gegenüber, dass hierarchische Ansätze sehr umfangreiche Berechnungen erfordern, da in jedem Fusionierungs-schritt eine neue Distanzmatrix ermittelt werden muss und demzufolge bei großen Fallzahlen der Rechenaufwand überproportional zunimmt. In der Marketingpraxis sind hingegen recht häufig große Datendateien (z.B. bei der Abgrenzung von Käufertypologien) clusteranalytisch auszuwerten. Hierzu bietet sich die Clusterzentrenanalyse (K-Means-Analyse, Quick Clustering) an, die im Zuge ihrer iterativen Zuordnung von Objekten in eine bereits bekannte bzw. vorzugebende Clusteranzahl, eine vergleichsweise schnelle Clusteroptimierung erzeugen kann. Die Clusterzentrenanalyse ist durch eine Reihe von Verfahrensbesonderheiten gekennzeichnet (vgl. Bacher et al. 2010, S. 300 ff.; Bortz/Schuster 2010, S. 475 ff.): Vorgabe der Clusteranzahl: Die K-Means-Analyse geht von einer vorgegebenen Anzahl von k Clustern aus, die – im Gegensatz zu hierarchischen Verfahren unverändert bleibt. Wenn nicht bereits aufgrund von Vorinformationen eine bestimmte Anzahl an Clustern vorgegeben werden kann, empfiehlt es sich, diese mittels einer hierarchischen Clusteranalyse zu bestimmen. Dabei kann es im Fall von großen Objektmengen zweckmäßig sein, die hierarchische Clusterbildung auf der Grundlage einer Zufallsstichprobe von Objekten durchzuführen. Vorgabe der Clusterzentren: Eine weitere Besonderheit betrifft den Aspekt, dass der Anfangswert für das Zentrum (bzw. arithmetische Mittel) jedes einzelnen Clusters bekannt sein muss. Denn bei der Clusterzentrenanalyse wird jedes Objekt jenem Cluster zugeordnet, zu dessen Zentrum seine euklidische Distanz am geringsten ist (Minimal-Distanz-Kriterium). Hierdurch entfällt der rechenintensive paarweise Vergleich der hierarchischen Fusionierungsalgorithmen und führt damit - ebenso wie die Vorgabe der Clusterzahl - zu einer Verringerung des Rechenaufwandes. Die Ermittlung von Clusterzentren lässt sich in zweifacher Weise vornehmen: Zum einen kann man diese mit Hilfe einer vorgeschalteten hierarchischen Clusteranalyse bestimmen. Dabei werden zunächst die Mittelwerte der Klassifizierungsmerkmale für jedes Cluster berechnet, diese sodann in einer eigenständigen Datendatei gespeichert und anschließend in die Clusterzentrenanalyse importiert. Zum anderen besteht die Möglichkeit, die Startwerte für die Clusterzentren von SPSS ermitteln zu lassen. In beiden Fällen bilden die Anfangswerte jedoch nur vorläufige Clusterzentren, die im darauffolgenden Analyseprozess verändert werden. Metrische Klassifizierungsvariablen: Die Clusterzentrenanalyse setzt metrische Clustervariablen voraus. Wenn diese unterschiedliche Messdimensionen aufweisen, ist eine Standardisierung der Variablenwerte notwendig. Allerdings 46 bietet SPSS hierzu bei der Clusterzentren-Prozedur keine entsprechende Verfahrensoption an. Deshalb ist die betreffende Rohdatenmatrix bereits vor der Durchführung einer Clusterzentrenanalyse zu standardisieren. Iterationsprozess: Die Clusterzentrenanalyse strebt an, Objekte anhand ihrer Merkmalausprägungen solcherart den vorgegebenen Clustern zuzuordnen, dass die Streuungsquadratsumme in den Clustern minimiert wird. Die Streuungsquadratsumme kann – ebenso wie in der Varianzanalyse - als Fehlerstreuung, d.h. jene Streuung interpretiert werden, die nicht durch die Cluster erklärt wird. Im Unterschied zum gleichfalls streuungsminimierenden Ansatz des WardVerfahrens, erfolgt die Clusterbildung jedoch nicht hierarchisch. Stattdessen erfolgt die Objektzuordnung zu Clustern mittels eines partitionierenden Algorithmus, der als zulässiges Distanzmaß die Euklidische Distanz verwendet. Im ersten Schritt des Iterationsprozesses wird eine Startlösung generiert, in der sämtliche Objekte den vorgegebenen k Clustern zufällig zugeordnet sind. Nach der Zuweisung aller Objekte werden im zweiten Schritt die Clusterzentren neu berechnet. In der darauffolgenden dritten Iterationsstufe werden die Clusterobjekte jener Gruppe zugeordnet, zu dem die quadrierte Euklidische Distanz am geringsten ist. Auf diese Weise wird in jedem Schritt des Iterationsprozesses die Streuungsquadratsumme in den Clustern minimiert. Besitzt beispielsweise ein Objekt zum Zentrum der eigenen Gruppe eine größere Distanz als zu einem anderen Cluster, dann wird dieses Objekt regruppiert, d.h. in dieses Cluster verschoben und es erfolgt eine Neuberechnung der Zentren beider Cluster. Die vorangegangenen Iterationsschritte werden so lange wiederholt, bis sich jedes Objekt in einem Cluster befindet, zu dessen Zentrum es im Vergleich zu den übrigen Clustern die geringste Distanz aufweist oder eine vorgegebene Anzahl von Iterationen erreicht ist. Im Folgenden soll die Durchführung einer Clusterzentrenanalyse anhand zweier Beispiele demonstriert werden. Das erste Fallbeispiel bezieht sich auf eine Analysesituation, in der die Clusterzentren bekannt sind, während im zweiten Beispiel keine Vorinformationen über Clusterzentren vorliegen. 47 4.2 K-Means-Analyse bei bekannten Clusterzentren Das im vorangegangenen Abschnitt erläuterte Fallbeispiel zur hierarchischen Clusteranalyse hat ergeben, dass die betrachteten zwölf Pkw-Modelle in drei Cluster aufgeteilt werden können. Mit Hilfe einer Clusterzentrenanalyse soll nun überprüft werden, ob sich die Zuordnung der Pkw-Modelle zu den vorgegebenen Clustern verbessern lässt. Die benötigten Anfangswerte der drei Clusterzentren wollen wir im allerdings nicht von SPSS ermitteln lassen. Vielmehr sollen diese auf der Grundlage einer hierarchischen Clusteranalyse berechnet werden und als Dateninput der Clusterzentrenanalyse dienen. Im Fall von bekannten Clusterzentren vollzieht sich die Clusterzentrenanalyse in vier Phasen: 1) Ermittlung von Clusterzentren, 2) Erstellung der Clusterzentren-Datenmatrix, 3) Festlegung der SPSS-Auswertungsmethodik, 4) Interpretation der Ergebnisse Ermittlung von Clusterzentren Im Beispiel der Pkw-Modelle ergeben sich die anfänglichen Clusterzentren als zu bestimmen, sind die clusterspezifischen Mittelwerte hinsichtlich der beiden Klassifizierungsvariablen „Geräumigkeit“ und „Sportlichkeit“ zu bestimmen. Hierzu öffnen wir die Datei „Hierarchische Clusteranalyse-Pkw“ und speichern diese zunächst unter der neuen Bezeichnung als „Clusterzentrenanalyse -Pkw“. Im nächsten Schritt sind die Clusterzentren zu berechnen. Hierzu führen wir mittels der SPSS-Befehlsfolge „Analysieren/Mittelwerte vergleichen/Mittelwerte...“ einen Mittelwertvergleich der drei Cluster (unabhängige Variable: „Ward-Method Clu_3“) durch (vgl. Abbildung 19). Abbildung 19: Dialogbox „Mittelwerte vergleichen/Mittelwerte...“ Die ermittelten Mittelwerte bzw. durchschnittlichen Faktorwerte je Cluster werden in der nachstehenden Tabelle 23 ausgewiesen (vgl. auch Tabelle 18). 48 Tabelle 23: Durchschnittliche Faktorwerte der 3-Clusterlösung Erstellung der Clusterzentren-Datenmatrix Damit die SPSS-Prozedur Clusterzentrenanalyse auf die durchschnittlichen Faktorwerte je Cluster zurückgreifen kann, sind diese als anfängliche Clusterzentren in einer eigenständigen Datendatei einzugeben und zu speichern. Die ClusterzentrenDatei erfordert einen speziellen Aufbau, der für das vorliegende Beispiel in der Tabelle 24 dargestellt ist. Diese Datei, die wir unter dem Namen „ClusterzentrenPkw“ speichern, muss als erste Variable eine Clustervariable mit dem Wertebereich von 1 bis w (hier: w = 3) enthalten. Darüber hinaus muss die Variable unter der Bezeichnung „Cluster_“ definiert werden. In den darauffolgenden Spalten ist für jede einzelne Klassifizierungsvariable der jeweilige Clustermittelwert einzugeben, wobei darauf zu achten ist, dass die Variablenbezeichnungen mit denen in der verwendeten Clusterdatendatei (hier: Clusterzentrenanalyse-Pkw) übereinstimmen. Tabelle 24: Datei „Clusterzentren-Pkw“ SPSS-Auswertungsmethodik Zur Durchführung der Clusterzentrenanalyse gehen wir in den nachfolgenden Schritten vor: (1) Zunächst wird die Datei „Clusterzentrenanalyse-Pkw“ geöffnet, in der die zwölf Pkw-Modelle, deren technischen Merkmalsausprägungen sowie die jeweiligen Faktorwerte in den beiden Klassifizierungsvariablen „Geräumig-keit“ und „Sportlichkeit“ enthalten sind (vgl. Abbildung 20). (2) Führen Sie dort die Befehlsfolge „Analysieren/Klassifizieren/Clusterzentrenanalyse...“ aus. 49 Abbildung 20: Datei „Clusterzentrenanalyse-Pkw“ (3) Hierauf öffnet sich die Dialogbox „Clusterzentrenanalyse“ (vgl. Abbildung 21) Abbildung 21: Dialogfeld „Clusterzentrenanalyse“ ► Überführen Sie dort die (standardisierten) Klassifizierungsvariablen „Geräumigkeit“ und „Sportlichkeit“ in das Feld „Variablen“. ► Als Fallbeschriftung verwenden wir die Variable „Marke“. ► Geben Sie in das Feld „Anzahl der Cluster“ die Zahl 3 ein. ► Im Feld „Methode“ behalten wir die Voreinstellung „Iterieren und Klassifizieren“ bei, da generell nicht davon ausgegangen werden kann, dass eine optimale Objektzuordnung bereits nsch dem ersten Iterationsschritt gewonnen wird. 50 ► Um SPSS mitzuteilen, dass auf bekannte Clusterzentren zurückgegriffen werden kann, klicken wir im Feld „Clusterzentren“ auf das Kästchen „Anfangswerte einlesen aus“ und dann auf die Schaltfläche „Datei“. Es öffnet sich die Dialogbox „ Clusterzentrenanalyse: Aus Datei einlesen“, in der wir im Feld „Datei“ jene Datei öffnen, in der die anfänglichen Clusterzentren enthalten sind bzw. im vorliegenden Beispiel die zuvor erstellte Datei „Clusterzentren-Pkw“. ► Wir kehren zur Dialogbox „Clusterzentrenanalyse“ zurück und können dort die Option „Endwerte schreiben in“ aktivieren, mit der SPSS dazu veranlasst wird, die aus der Analyse resultierenden (finalen) Clusterzentren in einer Datendatei zu speichern. Diese können beispielsweise als Startwerte der Cludterzrntren in weiteren Clusteranalysen verwendet werden. Wir belassen die deaktivierte Voreinstellung und klicken auf die Schaltfläche „Iterieren“ (4) Die Dialogbox „Clusterzentrennalyse: Iterieren“ wird geöffnet (vgl. Abbildung 22). Standardmäßig wird, ausgehend von den anfänglichen Clusterzentren, jeder Fall jeweils jenem Cluster zugeordnet, zu dessen Zentrum er die geringste euklidische Distanz besitzt. Nachdem die Fälle zugeordnet sind, werden die Clusterzentren neu berechnet und die Zuordnung wird wiederholt. Der Prozess wird iterativ solange fortgeführt, bis die eingestellte maximale Zahl an Iterationen, die zwischen 1 und 999 Schritte umfassen kann, erreicht oder das Konvergenzkriterium erfüllt ist. Das Konvergenzkriterium bestimmt den Abbruch des Iterationsprozesses und gibt den Anteil der minimalen Distanz zwischen anfänglichen Clusterzentren an. Wenn wir einen Konvergenzwert von z.B. 0,05 festlegen, dann ist der Zuordnungsprozeß dann beendet, wenn eine vollständige Iteration keines der Cluster-Zentren um mehr als fünf Prozent der kleinsten Distanz zwischen zwei Cluster-Zentren der Ausgangslösung verschiebt. Sofern die Option „Gleitende Mittelwerte verwenden“ gewählt wird, so wird das Clusterzentrum nach jedem Fall akutalisiert, ansonsten erst nachdem alle Fälle hinzugefügt wurden. ► Wir belassen die Voreinstellungen und bestätigen mit „Weiter“. Abbildung 22: Dialogbox “Clusterzentrenanalyse: Iterieren’“ (5) Anschließend klicken wir in der Dialogbox „Clusterzentren“ auf die Schaltfläche „Optionen“, worauf sich das Dialogfenster „Clusterzentrenanalyse: Optionen“ öffnet (vgl. Abbildung 23). Hier wählen wir im Feld „Statistik“ die Optionen ► „Anfängliche Clusterzentren“, ► „ANOVA-Tabelle“, ► „Clusterinformationen für jeden Fall“ und ► bestätigen unsere Einstellungen mit „Weiter“. 51 Abbildung 23: Dialogfenster „Clusterzentrenanalyse: Optionen“ (6) Im abschließenden Schritt klicken wir in der Dialogbox „Clusterzentren“ auf die Schaltfläche „Speichern“. Wir aktivieren im daraufhin geöffneten Dialogfenster „Clusterzentrenanalyse: Neue Variablen...“ die Option „Cluster-Zugehörigkeit“, mit der SPSS der Datendatei eine Variable mit der Bezeichnung „QCL_1“ hinzufügt. Wir beschließen unsere Einstellungen mit „Weiter“ und „OK“. Interpretation der SPSS-Ergebnisse Die tabellarische SPSS-Ergebnisausgabe umfasst die anfänglichen Clusterzentren, das Iterationsprotokoll, die finale Clusterzentren, die Distanzen zwischen den finalen Clusterzentren, den varainzanalytischen Mittelwertvergleich der Cluster sowie die Clusterzugehörigkeiten der Fälle. In der SPSS-Ausgabe wird zunächst eine Tabelle mit den anfänglichen Clusterzentren ausgewiesen (vgl. Tabelle 25). Die darin enhaltenen Werte entsprechen den von uns zuvor ermittelten und als Dateninput vorgegebenen Gruppenzentroiden. Tabelle 25: Anfängliche Clusterzentren Aus dem in Tabelle 26 angeführten Iterationsprotokoll ist ersichtlich, dass der Zuordnungsprozess bereits nach der zweiten Iteration abgebrochen wurde. Demzufolge sind von den vorgegebenen 10 Iterationen lediglich zwei Interationen benötigt worden, um eine optimale Zuordnungslösung bzw. die angestrebte 52 Minimaldistanz-Partition zu erzeugen. Für jeden Schritt (Iteration) werden die quantitativen Verschiebungen bzw. Änderungen der Clusterzentren – bzw. Mittelwerte angezeigt. Diese sind allerdings schon nach der ersten Iteration überaus gering und erfüllen bereits nach der zweiten Iteration das vorgegebene Konvergenzkriterium von 0. Tabelle 26: Iterationsprotokoll Die aus dem Iterationsprozeß resultierenden Zentrenänderungen finden in den finalen Clusterzentren ihren Niederschlag. Für das vorliegende Beispiel lässt die Tabelle 27 erkennen, dass sich die finalen Clusterzentren nur marginal von den anfänglichen Zentrenwerten unterscheiden. Tabelle 27: Finale Clusterzentren Mit Hilfe der in der nachstehenden Tabelle 28 enthaltenen Distanzen zwischen den Clusterzentren der finalen Clusterlösung ist eine erste Beurteilung der Gruppeneinteilung möglich. Sofern das mit einer Clusteranalyse verfolgte Ziel einer extern möglichst heterogenen Clusterstuktur erreicht wurde, müssen die Distanzunterschiede zwischen den finalen Clusterzentren möglichst groß sein. Die euklidische Distanz zwischen den Zentren der Gruppen 1 und 3 (Distanzwert: 2,180) ist jeweils größer als die Distanz zwischen den Gruppen 1 und 2 (Distanzwert: 2,006) sowie den Gruppen 2 und 3 (Distanzwert: 1,911). Tabelle 28: Euklidische Distanzen zwischen finalen Clusterzentren 53 Einen Aufschluss darüber, ob die betreffenden Gruppenunterschiede signifikant sind, vermittelt die in Tabelle 29 angeführte Varianztabelle. Der betreffende F-Test geht von der Grundüberlegung aus, dass die Werte der Klassifizierungsvariablen bei intern homogenen Clustern nur geringfügig vom jeweiligen Clustermittelwert abweichen und bei extern heterogenen Clustern recht stark um den Mittelwert der betreffenden Variablen für die Gesamtheit der Fälle streuen. Daher weist die Varianztabelle für jede der beiden Klassifizierungsvariablen die Quadratsumme der Cluster (Spalte „Fehler: Mittel der Quadrate“) sowie die Quadratsumme zwischen den Clustern (Spalte „Cluster: Mittel der Quadrate“) aus. Der als Testgröße dienende F-Wert (Spalte „F“) ergibt sich als Quotient aus der Quadratsumme zwischen den Clustern und der Quadratsumme innerhalb der Cluster. Ein hoher F-Wert und ein geringer Signifikanzwert (Spalte „Sig.“) zeigen somit an, dass die Werte der betreffenden Variablen innerhalb der Gruppen homogener sind als die Merkmalswerte in unterschiedlichen Clustern. Insofern verweisen die Befunde der beiden variablenpezifischen einfaktoriellen Varianzanalysen darauf, dass signifikante Mittelwertunterschiede zwischen den Gruppen vorliegen. Tabelle 29: Varianztabelle Zur Beurteilung der Güte der Clusterlösung ist der F-Test jedoch in nur geringem Maße geeignet; denn die Clusterbildung erfolgte gezielt unter der Bedingung, dass sich möglichst große Distanzen zwischen den Gruppen ergeben. Im praktischen Anwendungsfall wäre die Güteprüfung daher um eine diskriminanzanalytische Untersuchung zu ergänzen (vgl. hierzu Müller 2015 b). Die endgültige Gruppenzugehörigkeit der Objekte sowie die gruppenspezifische Besetzungzahl werden in den Tabellen 30 bzw. 31 (diese enthält zusätzlich die Distanzen der Objekte zu den relevanten Clusterzentren) angezeigt. Ein Vergleich mit den Clusterergebnissen der hierarchischen Analyse (vgl. z.B. Tabelle 17) macht deutlich, dass sich im Zuge der Clusterzentrenanalyse keine Objektumgruppierungen ergeben haben. Aus diesem Grund darf die hier präferierte Drei-Clusterlösung als recht stabil erachtet werden. Tabelle 30. Anzahl der Objekte in den Clustern 54 Tabelle 31: Finale Gruppenzugehörigkeit der Fälle 55 4.3 K-Means-Analyse bei unbekannten Clusterzentren Im Folgenden soll ein Beispiel beahndelt werden, bei welchem die Clusterzentren nicht vorgegeben, sondern von SPSS ermittelt werden. Dabei sei davon ausgegangen, dass bei einer Stichprobe von 30 Nachfragern eine Reihe ausgewählter Personenmerkmale erhoben wurde, deren Werte in der Tabelle 32 angeführt sind. Tabelle 32: (Fiktive) Stichprobe von 30 Nachfragern Mit Hilfe einer Clusterzentranalyse soll nun untersucht werden, ob sich die 30 Nachfrager hinsichtlich ausgewählter Personenmerkmale in Teilgruppen bzw. Marktsegmente aufteilen lassen. Als relevante Segmentierungskriterien sollen dabei die die metrischen Variablen „Alter“, „Einkommen“ und „Preisbereitschaft“ dienen. Im Fall von unbekannten Clusterzentren vollzieht sich die Clusterzentrenanalyse in drei Phasen: Erstellung der Datenmatrix, Festlegung der SPSS-Auswertungsmethodik, Interpretation der Ergebnisse 56 Erstellung der Datenmatrix Zur Erzeugung der Datenmatrix sind im vorliegenden Beispiel zwei Schritte durchzuführen: Zunächst sind die Daten der Tabelle 32 in den Dateneditor von SPSS einzugeben. Hieran anschließend sind die drei Segmentierungsvariablen zu standardisieren, da diese in unterschiedlichen Dimensionen (z.B. Alter in Jahren, Einkommen in Tsd. €) gemessen wurden. Hierzu gehen wir in der folgenden Weise vor: ► Wir wählen die Befehlsfolge „Analysieren/Deskriptive Statistiken/Deskriptive Statistiken...“, worauf sich die Dialogbox „Deskriptive Statistiken“ öffnet (vgl. Abbildung 24). ► Dort überführen wir die drei Segmentierungsvariablen in das Feld „Variable(n)“ und klicken anschließend auf die Option „Standardisierte Werte als Variable speichern“. ► Abschließend bestätigen wir unsere Einstellungen mit „OK“. Abbildung 24: Dialogbox „Deskriptive Statistiken“ ► SPSS fügt nun der Datendatei die drei standardisierten Variablen „Zalter“, „Zeinkomme“ und „zpreisakz“ an. ► Wir speichern die Datendatei unter der Bezeichnung „ClusterzentrenanalyseMarktsegmentierung. SPSS-Auswertungsmethodik Wir öffnen die Dialogbox „Clusterzentrenanalyse“ und wählen dort die nachstehenden Einstellungen (vgl. Abbildung 26): ► Die drei standardisierten Segmentierungsvariablen werden in das Feld „Variablen“ und die Variable „Person“ als Fallbeschriftung übertragen. 57 ► Aufgrund von sachlogischen Überlegungen gehen wir davon aus, dass sich die Stichprobe von 30 Nachfragern in drei Cluster aufteilen lässt. Daher tragen wir unter „Anzahl der Cluster“ die Zahl 3 ein. ► Im Feld „Methode“ belassen wir die Voreinstellung „Iterieren und klassifizieren“. ► Im Gegensatz zur Analyse bei bekannten Clusterzentren nehmen wir im Feld „Clusterzentren“ keine Eintragungen vor, da wir im vorliegenden Beispiel über keine Vorinformationen hinsichtlich der Clusterzentren verfügen. ► Demgegenüber nehmen wir hinsichtlich der Schaltflächen „Iterieren“, „Speichern“ und „Optionen“ dieselben Einstellungen wie im vorangegangen Beispiel der Clusterzentrenanalyse bei bekannten Zentren vor. Abbildung 25: Dialogbox „Clusterzentrenanalyse“ Interpretation der Ergebnisse Die tabellarische SPSS-Ergebnisausgabe umfasst Die anfängliche Clusterzentren, das Iterationsprotokoll, die finalen Clusterzentren, die Distanzen zwischen den finalen Clusterzentren, den varianzanalytischen Mittelwertvergleich der Cluster sowie die Clusterzugehörigkeiten der Fälle. In der SPSS-Ausgabe wird zunächst eine Tabelle mit den anfänglichen Clusterzentren ausgewiesen (vgl. Tabelle 33). Zur Bestimmung der Startwerte für die Clusterzentren geht SPSS folgendermassen vor: Wenn insgesamt k Cluster (hier: 3) gebildet werden sollen, dann werden die ersten k Fälle der Datendatei als vorläufige Clusterzentren verwendet. Im darauffolgenden Schritt werden die übrigen Fälle daraufhin untersucht, ob sie möglicherweise bessere Clusterzentren darstellen als die ersten k Fälle. Hierbei wird ein als provisorisches Clusterzentrum ausgewählter Fall dann durch einen anderen Fall ersetzt, wenn seine kleinste euklidische Distanz zu einem Clusterzentrum größer ist als die Distanz zwischen den beiden nächsten Gruppen. 58 Tabelle 33: Anfängliche Clusterzentren Gemäß des Iterationsprotokolls der Tabelle 34 wurde das Konvergenzkriterium nach drei Iterationsschritten erreicht. So hat sich beispielsweise das Zentrum von Cluster 1 nach dem ersten Schritt durch eine Neuzuteilung bzw. Umgruppierung von Nachfragern um 1,307 und im zweiten Schritt um 0,203 verschoben. Das in der zweiten Iteration gewonnene Ergebnis lässt sich im Hinblick auf das MinimalDistanzkriterium nicht mehr verbessern, so dass der Prozeß abgeschlossen wird. Tabelle 34: Iterationsprotokoll Die Tabelle der endgültigen Clusterzentren zeigt die Zentrenwerte nach Abschluss des Iterationsprozesses für die vorgegebene Drei-Clusterlösung an (vgl. Tabelle 35). Ein Vergleich mit den anfänglichen Clusterzentren macht deutlich, dass sich die variablenspezifischen Zentren bei allen drei Clustern beträchtlich verändert haben. Tabelle 35: Finale Clusterzentren 59 Die in Tabelle 36 ausgewiesenen euklidischen Distanzen zwischen den Clusterzentren der finalen Clusterlösung lassen erkennen, dass die Gruppen 2 und 3 (Distanzwert: 3,245) die größte Unähnlichkeit besitzen, während sich die Gruppen 1 und 2 (Distanzwert: 1,955) am ähnlichsten sind. Tabelle 36: Distanzen der finalen Clusterzentren Darüber hinaus kann anhand der nachstehenden Varianztabelle davon ausgegangen werden, dass sich die Gruppenmittelwerte bezüglich aller drei Segmentierungsvariablen signifikant voneinander unterscheiden. Tabelle 37: Varianztabelle Zur abschließenden Beschreibung der Clusterprofile stehen im Rahmen der Clusterzentrenanalyse drei Informationsbereiche zur Verfügung: clusterspezifsche Fallzahlen, die Clusterzugehörigkeit von Nachfragern sowie eine inhaltliche Kennzeichnung mittels finaler Clusterzentren. Tabelle 38 vermittelt einen Einblick in die clusterspezifischen Fallzahlen. So gehören 14 von 30 Nachfragern bzw. 46,7 % der Stichprobe dem Cluster 1 an, das somit als das besetzungsstärkste Segment zu beurteilen ist. Tabelle 38: Clusterspezifische Fallanzahl 60 Darüber hinaus kann die Gruppenzugehörigkeit der Nachfrager betrachet werden. Nach Tabelle 39, in welcher zusätzlich die Distanzen der Objekte zu den relevanten Clusterzentren angezeigt werden, gehört z.B. Nachfrager 1 dem Cluster 1 an, zu dessen Clustermittelwert er eine Distanz von 0,751 besitzt.. Tabelle 39: Clusterzugehörigkeit der Nachfrager Zur inhaltlichen Kennzeichnung der Clusterprofile anhand der finalen Clusterzentren kann zum einen auf die Ergebnisse der Tabelle 35 zurückgegriffen werden. Zusätzlich können die gruppenspezifischen Zentrenwerte durch ein gruppiertes Boxplotdiagramm veranschaulicht werden (vgl. Abbildung 26). In unserem Beispiel ist zu beachten, dass die finalen Clusterzentren jeweils Mittelwerte der standardisierten Segmentierungsvariablen repräsentieren. Aufgrund der Skalierung der Ausgangsvariablen signalisieren positive (negative) Zentrenwerte jeweils eine hohe bzw. überdurchschnittliche (geringe bzw. unterdurchschnittliche) Ausprägung des betreffenden Personenmerkmals. 61 Abbildung 26: SPSS-Dialogbox und beispielhaftes Boxplotdiagramm Zusammenfassend lassen sich die Cluster inhaltlich wie folgt beschreiben: In Cluster 1 befinden sich Nachfrager, die ein überdurchschnittliches Personenalter, ein durchschnittlliches Einkommen sowie eine durchschnittliche Preisbereitschaft aufweisen. Cluster 2 setzt sich aus Nachfragern zusammen, die ein mittleres Personenalter, ein überdurchschnittliches Einkommen sowie eine überdurchschnittliche Preisbereitschaft besitzen. Dem Cluster 3 gehören Nachfrager an, deren Personenalter, Einkommen sowie Preisbereitschaft jeweils unterdurchschnittlich ausgeprägt ist. Im praktischen Anwendungsfall ist eine ergänzende bzw. detailliertere Clusterbeschreibung mit Hilfe jener Zusatzvariablen (sog. Passualvariablen) vorzunehmen, die nicht als Segmentierungsvariablen herangezogen wurden. Da die Variable „Clusterzugehörigkeit“ ein nominales Datenniveau besitzt, ist die Untersuchung von Zusammenhängen zwischen der Gruppenzugehörigkeit und nominalen Zusatzvariablen (z.B. dem Geschlecht) mittels Kontingenzanalysen durchzuführen, während 62 eine Überprüfung von Gruppenunterschieden bezüglich metrischer Zusatzvariablen (z.B. der Kaufmenge) anhand von Varianzanalysen vorgenommen werden kann: Im betrachteten Beispiel erbringt eine kontingenzanalytische Untersuchung zum einen das Ergebnis, dass zwischen der Clusterzugehörigkeit und dem Geschlecht der Personen kein Zusammenhang besteht (Kontingenzmaß Cramers V = 0,015). Zum anderen kann von einem mittelstarken Zusammenhang zwischen der Clusterzugehörigkeit und dem Familienstand der Nachfrager ausgegangen werden (Assoziationsmaß Cramers V = 0,551). Ergänzend ist der nachstehenden Kreuztabelle ist zu entnehmen, dass dem Cluster 1 nahezu ausschließlich Singles angehörig sind, während sich Cluster 3 ca. 67% verheiratete Personen befinden. Tabelle 40: Kreuztabelle Familienstand nach Clustern Hinsichtlich der metrischen Variable Kaufmenge führt eine Varianzanalyse zu dem Befund, dass signifikante Mittelwertunterschiede zwischen den drei Clustern vorliegen (vgl. Tabelle 41). Tabelle 41: Signifikanzergebnis einer einfaktoriellen Varianzanalyse für die clusterspezifischen Mittelwertunterschiede der Variable Kaufmenge Eine differenzierte Betrachtung kann mit Hilfe eines Fehlerbalkendiagramms mit 95%igem Konfidenzintervall (SPSS-Menü: Grafik/Alte Dialogfelder/Einfaches Fehlerbalkendiagramm) vorgenommen werden. Fehlerbalken beschreiben die Lage des beobachteten Mittelwertes einer Stichprobe sowie deren Ausprägungen in der Grundgesamtheit bei Gültigkeit eines bestimmten Konfidenzintervalls. Für unser Beispiel veranschaulicht die Abbildung 27, in der ein zusätzlich eingetragener Querbalken den Mittelwert der Kaufmenge für die Gesamtstich-Probe anzeigt, dass beispielsweise dem Cluster 2 Personen angehören, die eine deutlich überdurchschnittliche Kaufintensität aufweisen. 63 Abbildung 27: SPSS-Dialogbox und Fehlerbalkendiagramm zum clusterspezifischen Mittelwertvergleich der Variable Kaufmenge Eine Alternative zur Clusterzentrenanalyse stellt die sog. zweistufige Clusteranalyse (Two-Step-Clusteranalyse) dar, bei der sowohl kategoriale Merkmale als auch metrische Merkmale als Clustervariablen verwendet werden können. Hierbei werden in einem ersten Schritt sämtliche Fälle vorgruppiert und anschließend anhand ihrer Merkmalsausprägungen mittels eines modellbasierten hierarchischen Verfahrens den endgültigen (vom Anwender vorgegebenen oder von SPSS automatisch ermittelten) Clustern zugeordnet (vgl. dazu ausführlich bei Bacher et al. 2010, S. 446; Brosius 2011, S. 762 ff; IBM 2011, S. 111 ff.). Für das vorliegende Beispiel führt eine TwoStep-Clusteranalyse, bei die kategoriale Variable Familienstand als zusätzliche bzw. vierte Clustervariable einbezogen wird, zu keiner Güteverbesserung der Clusterlösung (Anmerkung: Das bei einer Two-Step-Clusteranalyse von SPSS ausgewiesene Gütemaß des sog. Silhouetten- bzw. Umrisskoeffizienten bringt zu Ausdruck, wie eng die Fälle zu ihrem jeweiligen Clusterzentren liegen, der für den Beispieldatensatz den lediglich befriedigenden Wert von 0,4 annimmt). 64 5. Fallbeispiele aus der Marketingpraxis 5.1 Serviceanalysen im Automobilhandel Im Rahmen einer vom Verfasser durchgeführten Serviceanalyse für einen Vertragshändler einer bundesdeutschen Premium-Automobilmarke, wurde auf Basis einer Stichprobe von 397 Automobilkunden u.a. die Servicezufriedenheit der Kunden analysiert (Messinstrument: standardisierter Fragebogen; Ratingskalierung: 1 = sehr zufrieden,..,,3 = weder zufrieden noch unzufrieden....,5 = sehr unzufrieden). Neben der Durchführung von Standardauswertungen, wie z.B. der Ermittlung von Zufrieden-heitsprofilen oder der Gegenüberstellung von Zufriedenheitsausprägungen sowie den Beurteilungsgewichten relevanter Servicemerkmale in der sog. Kundenzufriedenheits-Matrix (vgl. Müller 1996), bestand ein wesentliches Analyseziel darin zu untersuchen, ob sich die betreffenden Kunden hinsichtlich ihres Zufriedenheitsgrades voneinander unterscheiden und in sog. Zufriedenheitsgruppen unterteilen lassen. Als Gruppierungsvariablen dienten hierbei die Einzelzufriedenheiten bezüglich von 14 Merkmalen des händlerseitigen Serviceangebots sowie die (globale) Gesamtzufriedenheit der Kunden. Mittels einer Clusterzentrenanalyse, die auf der zufriedenheitstheoretisch begründeten Vorgabe von drei Clustern beruhte, wurden u.a. die nachstehenden Befunde gewonnen: Dem Iterationsprotokoll zufolge (vgl. Tabelle 42), erreichte der iterative Prozeß der distanzminierenden Fallzuordnung nach 16 Schritten das Konvergenzkriterium. Iterationsprotokolla Iteration 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 Änderung in Clus terzentren 1 2 3 4,441 2,986 4,303 ,796 ,196 ,538 ,867 ,176 ,517 ,413 ,210 ,355 ,378 ,176 ,284 ,302 ,305 ,331 ,421 ,339 ,294 ,260 ,239 ,177 ,214 ,103 ,096 ,212 ,036 ,072 ,117 ,038 ,046 ,114 ,000 ,035 ,107 ,018 ,040 ,000 ,052 ,029 ,000 ,022 ,012 ,000 ,000 ,000 a. Konvergenz wurde aufgrund geringer oder keiner Änderungen der Clus terzentren erreicht. Die maxim ale Änderung der abs oluten K oordinaten für jedes Zentrum is t ,000. Die aktuelle Iteration lautet 16. Der Mindes tabs tand zwis chen den anfänglichen Zentren beträgt 8,602. Tabelle 42: Iterationsprotokoll 65 Die in Tabelle 43 angeführten euklidischen Distanzen zwischen den Clusterzentren der finalen Clusterlösung machen u.a. deutlich, dass die Gruppen 1 und 3 (Distanzwert: 6,417) die größte Unähnlichkeit besitzen. Distanz zw ischen Clusterzentren der endgültigen Lösung Clus ter 1 2 3 1 2 6,417 6,417 3,435 3 3,435 3,039 3,039 Tabelle 43: Distanzen zwischen finalen Clusterzentren Die Tabelle der endgültigen Clusterzentren zeigt die Zentrenwerte nach dem Abschluss des Iterationsprozesses bzw. die finalen Clusterzentren für die vorgegebene Drei-Clusterlösung an (vgl. Tabelle 44), die sich im Vergleich zu den anfänglichen Clusterzentren erheblich verschoben haben. Clusterzentren der endgültigen Lösung a 1 atm osphäre im warteraum vereinbarte s ervterm werden eingehalten pos itives Preis -Leis tungs verhältnis vereinbarte Leis tungs umfänge einhalten kurze Wartezeit auf Ins p. /R ep.term ine beratungs qualität des pers onals Qualität der Reparaturarbeiten Qualität der Ins pektions arbeiten freundl. u. hilfs b. Auftreten d. Pers onals Rechng. u. arbeiten werden erklärt verhalten bei kundenbes chw erden keine m ängel bei aus lieferung unbuerok. verhalten b. kleinarbeiten Fahrzeugabholung verlaeuft reibungs los Gesamtzufriedenheit Clus ter 2 3 2,39 1,41 2,07 2,19 1,07 1,67 3,72 1,85 2,72 2,76 1,24 1,93 2,46 1,29 1,92 3,21 1,22 2,11 3,03 1,23 2,01 2,76 1,23 1,99 2,52 1,11 1,83 2,96 1,40 2,19 3,66 1,52 2,35 3,33 1,24 2,08 3,21 1,17 2,17 2,07 1,05 1,79 3,09 1,19 2,05 a. hoch-s ignifikante Gruppenunters chiede bezüglicher aller Merkm ale Tabelle 44: Finale Clusterzentren 66 Die Clusterprofile können anhand der finalen Clusterzentren, die sich signifikant voneinander unterscheiden, wie folgt beschrieben werden: Im Cluster 1 befinden sich Automobilkunden, deren Servicezufriedenheit lediglich durchschnittlich (Ratingwert der Gesamtzufriedenheit = 3) ausgeprägt ist. Diese Gruppe kann demzufolge mit dem Begriff „Indifferenten“ gekennzeichnet werden, der 67 Kunden bzw. 16,7 % der Stichprobe angehören. Cluster 2 setzt sich aus Nachfragern zusammen, die mit dem Händlerservice sehr zufrieden sind (Ratingwert der Gesamtzufriedenheit = 1,19). Insofern liegt es nahe, diese Gruppe, in der sich 118 Kunden bzw. 29,7 % aller Kunden befinden, als die „Begeisterten“ zu interpretieren. Dem Cluster 3 gehören Kunden an, die bezüglich der angebotenen Händlerservices zufrieden sind (Ratingwertwert der Geamtzufriedenheit = 2,05). Daher kann diese Gruppe, der 213 Kunden bzw. 53,6 % der Stichprobe zugehörig sind, als die „Zufriedenen“ beschrieben werden. Im Zuge weiterführender Analysen wurde ferner der Frage nachgegangen, ob sich die Gruppen bezüglich ausgewählter Passualvariablen voneinander unterscheiden. So lässt z.B. eine Kreuztabellierung der beiden Variablen „Fahrzeugklasse“ und „Gruppenzugehörigkeit der Fälle“ erkennen, dass von den insgesamt 62 Besitzern eines Oberklassen-Pkw’s ca. 21 % (= 13/62 * 100) der Gruppe der „Indifferenten“ angehören, während dieser Gruppe lediglich 13% der Besitzer eines Kompakt-Pkw’s zugehörig sind. Hieraus kann die Hypothese formuliert werden, dass die Besitzer von Oberklassen-Pkw’s einen tendenziell geringeren Zufriedenheitsgrad aufweisen als die Besitzer anderer Fahrzeugklassen. Diese Aussage steht im Einklang der theroetisch begründbaren Einsicht, dass die Besitzer von Oberklassen-Pkw’s über höhere Servicerwartungen verfügen als die Besitzer von Mittelklasse- oder Kompaktfahrzeugen. Anzahl Fahrzeugklas s e Oberklas s e Mittelklass e Kompaktklas s e Gesamt 1 13 41 12 66 Clus ter-Nr. des Falls 2 3 18 31 68 132 32 50 118 213 Gesamt 62 241 94 397 Tabelle 45: Kreuztabelle Fahrzeugklassenbesitz nach Zufriedenheitsgruppen 67 5.2 Strategische Wettbewerbergruppen im Großhandel Im Rahmen einer umfassenden Analyse zu den Zukunftsperspektiven des regionalen Großhandels im Kammerbezirk Dortmund war dem Verfasser u.a. die Aufgabe gestellt, auf der Grundlage der Konzeption der strategischen Erfolgsfaktorenforschung strategische Wettbewerbergruppen zu identifizieren, voneinander abzugrenzen und die relevanten Erfolgsfaktoren der Marktbearbeitung herauszuschälen (vgl. Müller 2004 a). Die Erfassung und Abgrenzung von Wettbewerbergruppen auf Basis einer Zufallsstichprobe von 120 Großhandelsbetrieben (Messinstrument: schriftliche Befragung) wurde mittels einer hierarchischen Clusteranalyse (Ward-Verfahren, quadriertes euklidisches Distanzmaß) vorgenommen, bei welcher insgesamt zehn ökonomische, psychographische und soziale Unternehmensziele von Großhandelsbetrieben als Gruppierungskriterien dienten. Der Analyseprozess erbrachte die nachstehenden zentralen Ergebnisse: Im Großhandel agieren zwei Wettbewerbergruppen, die sich als Wettbewerbsführer und Wettbewerbsfolger kennzeichnen lassen (vgl. Abbildung 28). Die Gruppe der Wettbewerbsführer, der 57 % der Großhandelsbetriebe angehören, verfolgt eine Zielkonzeption, in der alle zehn strategischen Zielbereiche einen jeweils hohen Stellenwert einnehmen. Hierbei werden die Unternehmensaktivitäten zukünftig primär auf die Erreichung der vier Kernziele „Unternehmensrentabilität“, „betriebliche Kostensituation“ „Gewinnwachstum“ und „Kundenzufriedenheit“ ausgerichtet. In (signifikantem) Unterschied hierzu ist das Zielsystem der Wettbewerbsfolger dadurch gekennzeichnet, dass dieses einerseits die drei Kernziele der „Unternehmensrentabilität“, Gewinnwachstum“ und „Kunden-zufriedenheit“ umfasst und andererseits den übrigen Zielbereichen einen lediglich mittleren oder geringen Stellenwert beimisst. Augenfällig ist ferner, dass die Wettbewerbsfolger eine „Sicherung von Arbeitsplätzen“ als unbedeutsam erachten. Strategische Wettbewerbergruppen im Großhandel Bedeutung strategischer Unternehmensziele Abbildung 28: Unternehmensziele strategischer Wettbewerbergruppen im Großhandel 68 Die Umsetzung strategischer Unternehmensziele erfolgt durch Marketing-, Beschaffungs-, Kooperations – und Managmentstrategien (vgl. Müller 2004 a). Im Bereich der Marketingstrategien forcieren Wettbwerbsführer die strategische Erschließung neuer Kundengruppen sowie die Bindung des Kundenstamms (vgl. Abbildung 29). Nicht zuletzt vor dem Hintergrund des angestrebten Gewinnwachstums und der beabsichtigten Erhöhung der Kundenzufriedenheit, erscheint eine derartige strategische Schwerpunktbildung als sachlich angemessen. Im Rahmen marktfeldstrategischer Überlegungen nimmt die Durchdringung des nationalen Absatzgebietes einen zentralen Stellenwert ein; ein strategischer Ansatz, der angesichts der bislang praktizierten Absatzfokussierung auf NRW als folgerichtig gewertet werden muss. Der Aufbau bzw. die Festigung von Wettbewerbsvorteilen ist im regionalen Großhandel vorrangig auf das Konzept der Qualitätsführerschaft ( im Verbund mit einem überdurchschnittlich hohen Preisniveau) ausgerichtet. Unternehmen, welche diese wettbewerbsstrategische Variante praktizieren, bemühen sich darum, einerseits den gewachsenen Qualitätsanforderungen ihre Abnehmergruppen umfassend gerecht zu werden und andererseits dem aggressiven Preiswettbewerb zu entgehen. Demgegenüber lassen Wettbewerbsfolger eine Fokussierung der Marketingstrategien vermissen. Vielmehr ist die strategische Marketingbearbeitung dieser Wettbewerbergruppe durch eine größtenteils durchschnittliche Einsatzintensität von zudem nicht auf das Zielsystem abgestimmten Marktstrategien gekenzeichnet. Strategische Wettbewerbergruppen im Großhandel Einsatzintensität von Marketing-Strategien Abbildung 29 Marketingstrategien strategischer Wettbewerbergruppen im Großhandel Die Bedeutsamkeit leistungsfähiger Management-Strategien wird in der betrieblichen Praxis vielfach übersehen. So werden beispielsweise aus einem mangelnden Unternehmenserfolg häufig falsche Schlüsse gezogen und dem69 zufolge die an sich zielgerechten Unternehmensaktivitäten fälschlicherweise verändert oder vollkommen eingestellt. Demgegenüber wäre es im Sinne eines „ structure follows strategy“ vielfach zweckmäßiger, die betrieblichen Managementkonzepte einer kritischen Prüfung zu unterziehen und den geplanten Marktaktivitäten anzupassen, denn diese befinden sich in zahlreichen Fällen auf einem veralteten und wenig effizienten Leistungsniveau. Management-Strategien beinhalten den Aufbau der erforderlichen betrieblichen Ressourcenstruktur, mit deren Hilfe die marktgerichteten strategischen und operativen Unternehmensaktivitäten geplant, umgesetzt und kontrolliert werden können. Personalstrategien bilden den zukünftig bedeutsamsten Managementbereich des Großhandels. Dies gilt insbesondere für die Gruppe der Wettbewerbsführer, welche der Flexibilisierung des Personaleinsatzes, der Verbesserung von Mitarbeiterqualifikationen sowie der Personalkostensenkung einen gewichtigen Stellenwert beimessen (vgl. Abbildung 30). Von gleichfalls überdurchschnittlicher Bedeutsamkeit ist die Implementierung leistungsfähiger Managementsysteme. Wettbewerbsführer werden zukünftig verstärkt den Einsatz neuer Informations-, Controlling und Logistiksysteme forcieren. Darüber hinaus erfolgt im Rahmen des Investitionsmanagements zukünftig eine Fokussierung auf Erweiterungs- sowie auf Rationalisierungsinvestitionen, während Ersatzinvestitionen in vergleichsweise unterdurchschnittlichem Maße getätigt werden. Für die Gruppe der Wettbewerbsfolger ist hingegen – analog zum Bereich der Marktstrategien keine managementstrategische Schwerpunktsetzung zu erkennen. Strategische Wettbewerbergruppen im Großhandel Einsatzintensität von Management-Strategien Abbildung 30: Managementstrategien strategischer Wettbewerbergruppen im Großhandel 70 Eine abschließende Beschreibung der Wettbewerbergruppen mit Hilfe von ausgewählten Merkmalen der Unternehmensstruktur macht deutlich, dass der Gruppe der Wettbewerbsführer tendenziell mehr größere Großhandelsbetriebe, d.h. Unternehmen angehören, deren Mitarbeiterzahl, Kundenzahl und Umsatzhöhe vergleichsweise hoch ist (vgl. Tabelle 46). Produktionsgüterhandel Konsumgüterhandel < 250 Kunden 251 - 1000 Kunden Kunde nzahl > 1000 Kunden 6 - 10 Mio. DM 11 - 50 Mio. DM Um s atzklasse > 50 Mio. DM < 10 Beschäf tigte Beschäftigtenklasse 10 - 50 Beschäf tigte > 50 Beschäf tigte Br anche ntyp *a * * * * Str ategische Wettbew erbergr uppen Wettbew erbs Wettbew erbs-führer folger 55,8% 44,2% 58,1% 41,9% 42,1% 57,9% 56,4% 43,6% 71,8% 28,2% 54,9% 45,1% 56,7% 43,3% 70,0% 30,0% 45,5% 54,5% 59,2% 40,8% 70,8% 29,2% Gesamt 100,0% 100,0% 100,0% 100,0% 100,0% 100,0% 100,0% 100,0% 100,0% 100,0% 100,0% a. * = statistisch signifikante Merkmalsunterschiede (Basis: Verteilungstest) Tabelle 46: Unternehmensmerkmale strategischer Wettbewerbergruppen im Großhandel 71 Literaturverzeichnis Aaker, D., Kumar, V., Leone, R., Day, G. (2013): Marketing Research, 11th Edition, New York, Chichester u.a. Bacher, J., Pöge, A., Wenzig, K. (2010): Clusteranalyse. Anwendungsorientierte Einführung in Klassifikationsverfahren, 3. Auflage, München. Backhaus, K., Erichson, B., Plinke, W., Weiber, R. (2011): Multivariate Analysemethoden: Eine anwendungsorientierte Einführung, 13. Auflage, Wiesbaden. Backhaus, K., Erichson, B.; Weiber, R. (2013) : Fortgeschrittene Multivariate Analysemethoden: Eine anwendungsorientierte Einführung 2. Auflage, New York, Tokyo. Bortz, J., Schuster, C. (2010): Statistik für Human- und Sozialwissenschaftler, 7. Auflage, Berlin, Heidelberg u.a.. Brosius, F. (2013): SPSS 21, Heidelberg. Bühl, A. (2014): SPSS 22: Einführung in die moderne Datenanalyse, 14. Auflage, München. Churchill, G., Iacabucci, D. (2005): Marketing Research, 9th Edition, Mason. Diehl, J., Kohr, H. (1999): Deskriptive Statistik,. 12. Auflage, Frankfurt/M. Eckey, H.-F., Kosfeld, R., Rengers, M. (2002): Multivariate Statistik, Wiesbaden. Field, A. (2013): Discovering Statistics Using SPSS, 4th Edition, London. Freter, H. (2008): Markt- und Kundensegmentierung, 2. Auflage, Stuttgart. Hair, J., Black, W., Babin, B., Anderson, R. (2013): Multivariate Data Analysis, Englewood Cliffs. Ho., R. (2006): Handbook of Univariate and Multivariate Data Analysis and Interpretation with SPSS, Bokan Raton. Homburg, Ch. (2015): Marketing-Management, 5. Auflage, Wiesbaden. IBM (2011): SPSS Statistics Base 22 [ftp://public.dhe.ibm.com/software/analytics/ spss/documentation/statistics/22.0/de/client/Manuals/IBM_SPSS_Statistics_Base.pdf] Janssen, J., Laatz, W. (2013): Statistische Datenanalyse mit SPSS: Eine anwendungsorientierte Einführung in das Basissystem und das Modul Exakte Tests, 8.Auflage, Wiesbaden. Jensen, O. (2008): Clusteranalyse, in: Herrmann, A., Homburg, Ch., Klarmann, M. (Hrsg.): Handbuch Marktforschung. Methoden – Anwendungen, Praxisbeispiele, 3. Auflage, S. 336-372. Malhotra, N., Birks, D., Wills, P. (2013): Essentials of Marketing Research, Harlow. McDaniel, C., Gates, R. (2013): Marketing Research, 9th Edition, Singapore. Müller, W. (1996): Angewandte Kundenzufriedenheitsforschung, in: Marktforschung & Management, Heft 4, S. 149-159. Müller, W. (1997b): Erfolgsfaktoren im Dienstleistungsmanagement des Automobilhandels. Eine empirische Bestandsaufnahme, in: Jahrbuch der Absatz- und Verbrauchsforschung, Heft 1, S. 41-65. Müller, W. (2004): Marktorientierte Unternehmensführung im Großhandel – eine empirische Bestandsaufnahme, in: Baumgarth, C. (Hrsg.): Marktorientierte Unter- 72 nehmensführung, Festschrift zum 60. Geburtstag von Univ.-Prof. Dr. Hermann Freter, Peter Lang Verlag, Frankfurt/M., S. 345-371. Müller (2015a): Marketing Analytics. Faktorenanalyse, Studienmanuskript Band 9, Dortmund. Müller (2015b): Marketing Analytics. Diskriminanzanalyse, Studienmanuskript Band 11, Dortmund. Müller, W. (2015c): Marketing Analytics mit SPSS. Handbuch zum Selbststudium, Studienmanuskript Band 8, WS 2015, Dortmund. Rudolf, M., Müller, J. (2012): Multivariate Verfahren, 2. Auflage, Göttingen. Schendera, Ch. (2010): Clusteranalyse mit SPSS, München. Schlittgen, R. (2009): Multivariate Statistik, München. Sudman, S., Blair, E. (1998): Marketing Research. A Problem Solving Approach, Boston. Tabachnick, B., Fidell, L. (2012): Using Multivariate Statistics, 6th Edition, Boston, London. 73
© Copyright 2024 ExpyDoc