Grundzüge der SPSS-gestützten Marketinganalyse: Teil 2: Bivariate

Institut für Angewandtes Markt-Management
Prof. Dr. Wolfgang Müller
Reihe Studienmanuskript
Band 10
Marketing Analytics
Clusteranalyse
Dortmund, WS 2015/2016
Fachhochschule Dortmund
University of Applied Sciences
Fachbereich Wirtschaft
Emil-Figge-Straße 44
44047 Dortmund
E-Mail: [email protected]
Inhaltsverzeichnis
1. Gegenstand der Clusteranalyse _____________________________________ 3
1.1 Aufgabenstellung der Clusteranalyse________________________________ 3
1.2 Verfahrenskennzeichen der Clusteranalyse ___________________________ 4
1.3 Einsatzfelder der Clusteranalyse im Marketing ________________________ 5
2. Methodische Grundlagen der Clusteranalyse __________________________ 6
2.1 Datenmatrix und Verfahrensablauf der Clusteranalyse __________________ 6
2.2 Proximitätsmaße bei kategorialen Merkmalen ________________________ 9
2.3 Proximitätsmaße bei quantitativen Merkmalen _______________________ 13
2.4 Klassifikationsverfahren im Überblick _____________________________ 16
2.5 Optimale Clusteranzahl _________________________________________ 21
2.5 Clusterdiagnose _______________________________________________ 23
3. Hierarchische Clusteranalyse mit SPSS _____________________________ 24
3.1 Die Datenmatrix des Demonstrationsbeispiels _______________________ 24
3.2 SPSS-Analysemethodik _________________________________________ 26
3.3 Interpretation der Distanzmatrix __________________________________ 30
3.4 Darstellungen des Agglomerationsprozesses _________________________ 31
3.5 Bestimmung der Clusterzahl _____________________________________ 35
3.6 Beschreibungen von Clusterprofilen _______________________________ 38
3.7 Gütebeurteilungen der Clusterlösung ______________________________ 43
4. Partitionierende Clusteranalysen ___________________________________ 46
4.1 Verfahrensmerkmale der Clusterzentrenanalyse (K-Means-Verfahren) ____ 46
4.2 K-Means-Analyse bei bekannten Clusterzentren ______________________ 48
4.3 K-Means-Analyse bei unbekannten Clusterzentren ____________________ 56
5. Fallbeispiele aus der Marketingpraxis _______________________________ 65
5.1 Serviceanalysen im Automobilhandel ______________________________ 65
5.2 Strategische Wettbewerbergruppen im Großhandel ___________________ 68
Literaturverzeichnis _______________________________________________ 72
2
1. Gegenstand der Clusteranalyse
1.1 Aufgabenstellung der Clusteranalyse
Eine zentrale Aufgabenstellung in den empirischen Sozialwissenschaften besteht
darin, eine Menge von Objekten anhand von ausgewählten Merkmalen zu erfassen
und in beschreibbare bzw. sachlich interpretierbare Gruppen aufzuteilen. Solche
Teilgruppen können sowohl natürliche Gruppierungen darstellen (z.B. Käufer,
Nichtkäufer einer Produktart) als auch das Resultat eines statistischen
Klassifikationsverfahrens, wie etwa der Clusteranalyse, bilden. Das Ziel der
Clusteranalyse besteht darin, eine Menge von Objekten (z.B. Personen, Produkte,
Unternehmen, Regionen, Standorte) anhand ihrer Merkmalsausprägungen solcherart
in Gruppen (Cluster, Klassen, Typen) aufzuteilen, dass einerseits die Ähnlichkeit
zwischen den Objekten innerhalb einer Gruppe möglichst groß ist und andererseits
die Ähnlichkeit zwischen den Gruppen möglichst gering ist (vgl. Bacher et. al. 2008,
S. 15 ff.; Bortz/Schuster 2010, S. 453 ff.; Schendera 2010, S. 8 f.); Schlittgen 2009;
S. 392 ff).
Das clusteranalytische Grundprinzip der Objektgruppierung wird beispielhaft in
Abbildung 1 veranschaulicht, in der 11 Nachfrager (A-K) anhand der beiden
Merkmale „Markenzufriedenheit“ (1= sehr unzufrieden,…,5 = sehr zufrieden) und
„Wiederkaufabsicht“ (1= sehr unwahrscheinlich,…, 5 = sehr wahrscheinlich) in zwei
Gruppen unterteilt sind. Die Gruppe I setzt sich aus Nachfragern zusammen, die
einerseits jeweils eine geringe Markenzufriedenheit sowie andererseits jeweils eine
geringe Wiederkaufsicht besitzen. Diese Gruppe könnte man beispielsweise als
„Markenwechsler“ bezeichnen. Demgegenüber befinden sich im Cluster II solche
Nachfrager, die sowohl eine ausgeprägte Zufriedenheit als auch eine hohe
Wiederkaufabsicht aufweisen und sich demnach als die Gruppe der Stammkunden
umschreiben lässt.
Abbildung 1: Grundprinzip der Clusterbildung
3
Für Nachfrager K hingegen, der trotz einer geringen Markenzufriedenheit eine hohe
Wiederkaufabsicht gegenüber der betreffenden Marke äußert, erweist sich eine
Gruppenzuordnung als nicht zweckmäßig. Denn wenngleich das scheinbar
widersprüchliche Verhalten beispielsweise durch das Konzept der sog.
Wechselbarrieren erklärt werden könnte, so bleibt im Rahmen einer Clusteranalyse
dennoch zu prüfen, ob dieser nicht als ein Ausreißer aufzufassen und damit
möglicherweise vom Untersuchungsprozess auszuschließen wäre.
1.2 Verfahrenskennzeichen der Clusteranalyse
Das statistische Konzept der Clusteranalyse lässt sich durch die folgenden Merkmale
kennzeichnen:
 Explorative Datenreduktion: Die Clusteranalyse bildet ein multivariates Analyseverfahren, das wechselseitige Beziehungen zwischen Objekten untersucht, um
empirische Klassifikationen, d.h. abgrenzbare Objektcluster aufzudecken. Das
explorative Vorgehen der Clusteranalyse ist insbesondere dann hilfreich, wenn zu
Beginn der Analyse keinerlei Informationen über die Anzahl sowie die möglichen
Charakteristika von Teilgruppen vorliegen. Im Hinblick auf die auszuwertende
Datenmatrix geht die Clusteranalyse gewöhnlich mit einer Zusammenfassung der
darin enthaltenen Objekte bzw. eine Gruppierung der Matrixzeilen einher. Neben
dieser sog. objektorientierten Clusteranalyse besteht eine weitere Verfahrensvariante in der sog. variablenbezogenen Clusteranalyse, bei der Variablen anhand
ihrer Ähnlichkeit in bestimmten Objekten zusammengefasst werden (vgl. Bacher
et al. 2010, S. 22 f.). In vergleichbarer Weise knüpft eine Faktorenanalyse an den
Variablen der Datenmatrix an und beinhaltet somit eine Gruppierung von
Variablen bzw. eine Reduktion der Matrixspalten. Gleichwohl soll im Folgenden
die clusteranalytische Methodik auf die Variante der objektorientierten
Clusteranalyse beschränkt bleiben.
 Verfahrensflexibilität: Die Clusteranalyse bildet kein standardisiertes, einzelnes
Verfahren, sondern bietet vielfältige Gruppierungsoptionen. Diese betreffen zum
einen den Dateninput, denn die Clusteranalyse ermöglicht eine Objektgruppierung
auf der Basis von nominalen, ordinalen, metrischen, gemischt-skalierten oder
gehäuften Klassifizierungsvariablen. Aber auch im clusteranalytischen
Untersuchungsprozess stehen dem Anwender zahlreiche Wahlmöglichkeiten zur
Verfügung, die einerseits die Messung der Unterschiedlichkeit von Objekten
betreffen und sich andererseits auf die Auswahl von Fusionierungstechniken
beziehen. Dies hat zur Folge, dass der Einsatz unterschiedlicher Clustermethoden
gewöhnlich zu verschiedenartigen Clusterlösungen (z.B. Objektzuordnungen,
Clusterzahl) führt.
 Clusterbeurteilung: Ein besonderes Augenmerk ist auf die Diagnose der
generierten Gruppenbildung zu lenken. Eine Clusteranalyse kann zwar eine
formal-statistischen Gruppenbildung herbeiführen, sie stellt jedoch keine
verfahrensimmanenten Gütekriterien, wie z.B. Teststatistiken zur Ergebnisbewertung bereit. Dem Anwender obliegt demzufolge eine sorgfältige
Entscheidung hinsichtlich zweier Problemstellungen: Er hat zum einen über die
sachgerechte Auswahl der statistischen Teilprozeduren einer Clusteranalyse zu
entscheiden. Und zum anderen bedarf es einer differenzierten Gütebeurteilung der
4
Clusterlösung (vgl. Bacher et al. 2010, S. 16 ff.). Der Katalog clusteranalytischer
Gütekriterien umfasst beispielsweise die zentrale Forderung, dass die Objekte
innerhalb eines Clusters einander möglichst ähnlich sind („IntragruppenHomogenität“) und diejenigen Objekte, die unterschiedlichen Clustern angehören,
demgegenüber einander möglichst unähnlich sind („Intergruppen-Heterogenität“).
Ergänzend sollen die gewonnenen Cluster sachlich interpretierbar sein, eine
Stabilität gegenüber alternativen Clusterprozeduren besitzen sowie eine gewisse
Mindestgröße aufweisen.
 Integrierter Verfahrenseinsatz: Die Clusteranalyse lässt sich mit zahlreichen
statistischen Analyseverfahren verknüpfen. Möchte man beispielsweise
vermeiden, dass eine Clusteranalyse auf der Grundlage intervallskalierter,
korrelierender Objektmerkmale durchgeführt wird, so kann mittels einer
vorgeschalteten Faktorenanalyse eine Verdichtung auf wenige, unkorrelierte
Faktoren erfolgen (vgl. Müller 2015 a). Daneben bietet beispielsweise eine
Varianzanalyse Aufschluss darüber, ob die erzeugten Cluster sich signifikant
voneinander unterscheiden. Ferner ist es mit Hilfe einer Diskriminanzanalyse
möglich, diejenigen Objektmerkmale aufdecken, die eine besonders starke
Trennung der ermittelten Gruppen herbeiführen (vgl. Müller 2015 b). Schließlich
kann es sinnvoll sein, eine clusteranalytische Güte-evaluation mit Hilfe der
Berechnung und Interpretation von speziellen statistischen Maßzahlen, wie z.B.
dem sog. Rand-Index der Zuordnungsübereinstimmung, vorzunehmen (vgl.
Bacher et. al. 2010, S. 272 ff.; Bortz/ Schuster 2010, S. 467 ff.).
1.3 Einsatzfelder der Clusteranalyse im Marketing
Das marketingbezogene Einsatzfeld der Clusteranalyse umfasst primär die
nachstehenden Entscheidungsbereiche (vgl. hierzu u.a. Aaker/Kumar/Leone 2013, S.
453 ff.; Churchill/Iacobucci 2005, S. 585 ff.; Homburg 2015; S. 372 ff.; Jensen 2008;
Malhotra/Birks/Wills 2013, S. 376 ff.; McDaniel/Gates, 2013, S. 555 ff.):
 Marktsegmentierung: Ein zentrales marketingrelevantes Einsatzfeld der Clusteranalyse bildet die Abgrenzung und Beschreibung von Käufersegmenten, um
konkrete Anhaltspunkte zur zielgruppengerechten Gestaltung der MarketingInstrumente zu erhalten. Das Spektrum von Segmentierungsvariablen des
Käuferverhaltens ist breit gesteckt und umfasst sozio-demographische Merkmale
(z.B. Alter, Geschlecht von Personen), psychographische Merkmale (z.B.
Lebensstile, Einstellungen von Personen) und Merkmale des beobachtbaren
Käuferverhaltens (z.B. Markenwahl, Kaufintensität von Nachfragern).
 Strategische Wettbewerbergruppen: Daneben kann die Clusteranalyse zur
Erfassung und Beschreibung von sog. strategischen Wettbewerbergruppen
herangezogen werden. Strategische Wettbewerbergruppen setzen sich aus einer
Teilmenge von Unternehmen einer bestimmten Branche zusammen, die sich im
Hinblick auf den Einsatz von strategischen Unternehmensaktivitäten (z.B. Art des
Produktionssystems, Maßnahmen der Personalentwicklung, Instrumente des
Marketing-Mix) ähnlich sind. Aus solcherart abgegrenzten Wettbewerbergruppen
sollen Anhaltspunkte über Erfolgspotenziale (z.B. Gewinnpotenziale) und die
Wettbewerbsdynamik einer Branche gewonnen werden.
5
 Markenpositionierung: Ferner erweist sich die Clusteranalyse im Rahmen der
sog. Markenpositionierung als überaus hilfreich. Hierbei wird auf der Basis von
Produkteigenschaften der in einem bestimmten Produktmarkt (z.B. Markt für
Fruchtsaftgetränke) angebotenen Marken angestrebt, zunächst Markengruppen
voneinander abzugrenzen und anschließend die Frage zu beantworten, ob Marken
beispielsweise mit Wettbewerbsvorteilen oder –Nachteilen ausgestattet sind.
 Selektion von Ländermärkten: Im Entscheidungsfeld des internationalen
Marketings kann eine Aufgabenstellung der Clusteranalyse darin liegen, eine
Anzahl von Ländermärkten bezüglich ausgewählter Merkmale (z.B. der politischrechtlichen, der sozio-kulturellen Marktumwelt) zu gruppieren, um eine
zieladäquate Ländermarktselektion zu unterstützen.
 Standortanalyse: Bei betrieblichen Standortanalysen ist es vielfach zweckmäßig,
die Menge der Standortalternativen nach Maßgabe ihrer Attraktivität (z.B.
verkehrstechnische Infrastruktur) zu Standortclustern zusammenzufassen und
hieran anschließend vertiefende Detailanalysen der Standortbewertung und auswahl durchzuführen.
 Abgrenzung von Testmärkten: Ein weiteres, gleichwohl spezielles Aufgabenfeld der Clusteranalyse besteht darin, im Zuge der experimentellen Untersuchung
der Erfolgswirksamkeit von Marketingmaßnahmen (z.B. bei der Markteinführung
von Neuprodukten) jene Testmärkte abzugrenzen, in denen der Einsatz bzw. die
Variation der testrelevanten Instrumente erfolgen und gemessen werden soll.
2. Methodische Grundlagen der Clusteranalyse
2.1 Datenmatrix und Verfahrensablauf der Clusteranalyse
Die clusteranalytische Vorgehensweise umfasst fünf Phasen, wobei die Erstellung
der Proximitätsmatrix und die Auswahl der Klassifikationsmethode den
methodischen Kern der Analyseprozedur darstellen (vgl. Abb. 2):
6
Abbildung 2: Verfahrensablauf der Clusteranalyse
Den Ausgangspunkt einer Clusteranalyse bildet eine Rohdatenmatrix, in der die
Merkmalsausprägungen der betrachteten Objekte enthalten sind (vgl. Tabelle 1). Die
Auswahl jener Objekte und Merkmale, die als Dateninput des clusteranalytischen
Vorgehens dienen sollen, ist aus der konkreten Marketingaufgabe abzuleiten. Je
nachdem, ob beispielsweise eine Marktsegmentierung, eine branchenbezogene
Unternehmensklassifikation oder eine Gruppierung von Ländermärkten angestrebt
wird, handelt es sich bei den relevanten Objekten um die Käufer eines Produktmarktes, die Unternehmen einer spezifischen Branche oder eine bestimmte Anzahl
von Ländermärkten.
Vergleichbare Überlegungen betreffen die Festlegung der Art sowie der Anzahl
untersuchungsrelevanter Klassifizierungsvariablen. So ist beispielsweise vorab
darüber zu entscheiden welche Merkmale bei einer Marktsegmentierung (z.B.
Markenwahl, Lebensstil, Einkommen von Nachfragern), einer Unternehmensgruppierung (z.B. Jahresgewinn, Rechtsform, Innovationsrate) oder der Zusammenfassung von Ländermärkten (z.B. Einwohnerzahl, Arbeitslosenquote) untersuchungsrelevant sind. Daneben kann es im Einzelfall sinnvoll sein, (metrische)
Ausgangsmerkmale mittels einer Faktorenanalyse zu verdichten und die daraus
resultierenden Faktorwerte der Objekte als Klassifizierungsmerkmale heranzuziehen
(Faktorielle Clusteranalyse).
Nach der Zahl der Klassifizierungsvariablen lassen sich generell eindimensionale
(monothetische) und mehrdimensionale (polythetische) Klassifikationsanalysen
voneinander unterscheiden (vgl. Backhaus et. al. 2011, S. 417). Für den einfachsten
7
Fall eines einzigen Merkmals entspricht die Gruppierungsaufgabe dem in der
deskriptiven Statistik geläufigen Problem der Klassierung von Variablen. Hierbei
bildet man etwa Einkommens-klassen von Nachfragern oder Umsatzklassen von
Unternehmen, um entsprechende Häufigkeitsverteilungen zu erstellen, wobei sich die
Nachfrager bzw. Unternehmen innerhalb einer Klasse ähnlicher sind als jene
zwischen den Klassen. Bei der clusteranalytischen Klassifikation von Objekten wird
man in der Regel auf einen polythetischen Ansatz zurückgreifen, bei dem die
Clusterbildung auf der Grundlage einer simultanen Analyse von mehreren
Objektmerkmalen erfolgt.
Tabelle 1: Rohdatenmatrix
Um die betrachteten Objekte entsprechend ihrer Ähnlichkeit zu Teilgruppen
zusammenfassen zu können, muss die Unterschiedlichkeit (Proximität) von
Objekten anhand einer statistischen Maßzahl erfasst werden. Daher wird im zweiten
Schritt einer Clusteranalyse die Datenmatrix der Rohdaten in eine Proximitätsmatrix
überführt (vgl. Tabelle 2). In dieser wird die paarweise Unterschiedlichkeit zwischen
den Objekten quantifiziert und dargestellt, wobei in Abhängigkeit vom Skalenniveau
der Objektmerkmale zwei Ansätze zu unterscheiden sind:
 Distanzmatrix: Bei quantitativen bzw. metrisch skalierten Merkmalen erfolgt die
Quantifizierung der Unterschiedlichkeit von Objekten zumeist in Form einer
Distanzmessung, d.h. anhand von Abständen auf der verwendeten Skala eines
jeden Merkmals. Hiernach sind Objekte umso unterschiedlicher bzw. unähnlicher,
je größer die merkmalsbezogenen Skalendistanzen sind. Da in der Distanzmatrix
zum einen dn1 = d1n gilt und zum anderen die Distanz eines Objektes zu sich
selber Null ist, ist die Matrix symmetrisch an ihrer Hauptdiagonalen, welche nur
Nullen enthält. Distanzmaße werden jedoch auch durch die Maßeinheit, in der die
Merkmale gemessen werden, beeinflusst. In Abhängigkeit von der jeweiligen
Größenordnung der Merkmalswerte geht damit eine Ungleichgewichtung der
Merkmale einher, die zu Distanzverzerrungen führen kann. Daher ist es zumeist
ratsam, metrisch skalierte Merkmale zunächst in standardisierte Merkmalswerte
zu transformieren, wobei dem Verfahren der z-Standardisierung eine besondere
Bedeutung zukommt (vgl. Bacher et. al. 2010, S. 175 ff.). Die (dimensionslose)
Vereinheitlichung der Variablen führt dazu, dass Variablen mit einem großem
Mittelwert und großer Streuung (z.B. jährliches Haushaltseinkommen von
Personen zwischen 15.000 € und 250.000 €) kein größeres Gewicht erhalten als
die Merkmale mit einer geringeren Streuung (z.B. Haushaltsgröße zwischen 1 und
6 Personen).
8
 Ähnlichkeitsmatrix: Bei kategorialen bzw. nominal- oder ordinalskalierten
Merkmalen kann die Unterschiedlichkeit von Objekten mittels Ähnlichkeitsmaßen
erfasst werden. Diese quantifizieren die Ähnlichkeit zwischen zwei Objekten in
Form von Kennzahlen hinsichtlich der Übereinstimmung in ihren Ausprägungen
und sind gewöhnlich auf das Intervall [0,1] normiert: Nimmt die entsprechende
Kennzahl den Wert 0 an, dann gibt es keinerlei Übereinstimmung zwischen zwei
Objekten, während der Wert 1 eine vollständige (prozentuale) Übereinstimmung
eines Objektpaares anzeigt. Für die daraus resultierende Ähnlichkeitsmatrix gilt:
Je größer der Wert eines Ähnlichkeitsmaßes, desto ähnlicher sind sich zwei
Objekte (vgl. die in Klammern angeführten Werte in der Tabelle 2). Die
Hauptdiagonale in der Ähnlichkeitsmatrix enthält nur den Wert 1, da die
Ähnlichkeit eines Objektes mit selber zu 100 Prozent übereinstimmt. Ergänzend
ist darauf hinzuweisen, dass sich jedes Ähnlichkeitsmaß in ein Distanzmaß
transformieren lässt und umgekehrt (vgl. Bortz/Schuster 2010, S. 454 ff.).
Tabelle 2: Proximitätsmatrix
2.2 Proximitätsmaße bei kategorialen Merkmalen
Zur Messung der Unterschiedlichkeit von Objekten bei kategorialen Klassifizierungsmerkmalen kann auf eine Vielzahl von Ähnlichkeitsmaßen und sog. binären Distanzmaßen zurückgegriffen werden (vgl. hierzu den Überblick bei Bacher et. al. 2010, S.
196 ff.; Backhaus et. al. 2011; S. 309 ff.; Bortz/Schuster 2010, S. 460 ff; Brosius
2011, S. 701 ff.). Deren Auswahl hängt neben untersuchungsrelevanten Überlegungen maßgeblich vom Merkmalstyp ab. Dabei ist die Unterscheidung in
dichotome (binäre), polytome (mehrkategoriale) und ordinal skalierte Merkmale von
Bedeutung (vgl. Tabelle 3).
9
Tabelle 3: Proximitätsmaße im Überblick
Als dichotome Klassifizierungsmerkmale werden nominale Merkmale bezeichnet,
die in zweifach gestufter (binärer) Ausprägung vorliegen. Diese werden gewöhnlich
derart operationalisiert bzw. kodiert, dass jeder Merkmalsausprägung entweder der
Wert 1 (= Eigenschaft vorhanden) oder der Wert 0 (= Eigenschaft nicht vorhanden)
zugewiesen wird. Zur Berechnung von Proximitätsmaßen bei binären Merkmalen
kann man für jedes Objektpaar eine Vierfelder-Tafel konzipieren, in der die
Häufigkeiten der vier unterschiedlichen Merkmalskombinationen dargestellt werden.
Die Struktur einer solchen Vierfelder-Tafel verdeutlicht die nachstehende Tabelle 4,
in der sämtliche Kombinationen von m binären Merkmalen für die beiden Objekte i
und j angeführt sind.
Objekt j
Zeilensumme
∑
Objekt i
Merkmalsausprägung
vorhanden (1)
Merkmalsausprägung
nicht vorhanden (0)
Merkmalsausprägung
vorhanden (1)
a
b
a +b
Merkmalsausprägung nicht
vorhanden (0)
c
d
c +d
Spaltensumme
∑
a +c
b+d
a +b+c +d=m
► a = Anzahl der Merkmale, die bei beiden Objekten gleichzeitig vorhanden sind (1;1)
► b = Anzahl der Merkmale, die bei Objekt i, nicht jedoch bei Objekt j vorhanden sind (0;1)
► c = Anzahl der Merkmale, die bei Objekt j, jedoch nicht bei Objekt i vorhanden sind (1;0)
► d = Anzahl der Merkmale, die bei beiden Objekten gleichzeitig nicht vorhanden sind (0,0)
Tabelle 4: Vierfelder-Tafel zum Vergleich zweier Objekte
Durch unterschiedliche Kombination der Größen a, b, c und d, kann eine Reihe von
Proximitätsmaßen konstruiert werden. Diese unterscheiden sich primär darin, in
welcher Weise positive Übereinstimmungen (a), Nicht-Übereinstimmungen (b und c)
sowie negative Übereinstimmungen (d) zwischen den Merkmalen beider Objekte
berücksichtigt werden: Ähnlichkeitsmaße setzen die Häufigkeiten, mit der zwei
gleiche Werte auftreten [1/1; 0/0], in Beziehung zur Anzahl aller Wertepaare.
Demgegenüber vergleichen binäre Distanzmaße die Anzahl der jeweiligen Wertekombinationen mit unterschiedlichen Ausprägungen [1/0; 0/1] mit der Gesamtzahl
der Wertepaare.
10
Die Ermittlung von Ähnlichkeits- und Distanzmaßen bei binärer Merkmalsstruktur
soll im Folgenden anhand der in der Tabelle 5 angezeigten Merkmalswerte verdeutlicht werden. Die Rohdatenmatrix beinhaltet die Werte von drei binär kodierten
Merkmalen (1 = Eigenschaft vorhanden; 0 = Eigenschaft nicht vorhanden) ausgewählter Fernsehgeräte von vier Anbietern. Für das exemplarisch betrachtete
Objektpaar „Philips/Grundig“ ergibt sich die im rechten Teil dargestellte VierfelderTafel.
Philips
Drehfuss
Smart-TV
Kopfhöreranschluss
1
0
1
Grundig
Samsung
0
1
0
Sony
1
0
Grundig
0
0
Philips
vorhanden
nicht
vorhanden
1
vorhanden
1
1
1
nicht
vorhanden
0
1
Tabelle 5: Rohdatenmatrix und exemplarische Vierfelder-Tafel bei binären Merkmalen
Auf der Grundlage der Vierfelder-Tafel lassen sich unterschiedliche Ähnlichkeitsund Distanzmaße ermitteln (vgl. Tabelle 6):
Beispiel: „Philips/Grundig“
Proximitätsmaß
Simple-Matching-Koeffizient (SMC):
SMC(i , j )
SMC( Philips,Grundig ) 
ad

abcd
11
 0,667
1 0 11
Jaccard-Ähnlichkeitskoeffizient (J):
J (i , j ) 
J ( Philips ,Grundig ) 
a
abc
1
 0,500
1 0 1
Russel & Rao-Koeffizienten (RR):
RR(i , j )
a

abcd
RR( Philips ,Grundig ) 
1
 0,333
1 0 11
RT( Philips ,Grundig ) 
11
 0,500
1  1  2 * (1  0)
Rogers & Tanimoto-Ähnlichkeitsmaß (RT):
RT(i , j ) 
ad
a  d  2 * (b  c)
Binäre Euklidische Distanz (EUKD):
EUKD(Philips, Grundig) = 1 + 0 = 1
EUKD(i,j)= b + d
Tabelle 6: Ausgewählte Proximitätsmaße für binäre Klassifizierungsvariablen
Der Simple-Matching-Koeffizient (SMC), der auch als „M-Koeffizient“ oder
„Einfache Übereinstimmung“ bezeichnet wird, dividiert die Anzahl gleicher
Wertepaare, d.h. die Zahl der positiven und negativen Übereinstimmungen bei den
beiden Objekten i und j, durch die Anzahl aller Wertepaare. Für die Daten des
Beispiels führt der SMC zur nachstehenden Ähnlichkeitsmatrix (vgl. Tabelle 7).
11
Tabelle 7: Ähnlichkeitsmatrix auf der Basis des SMC-Koeffizienten
Der Jaccard-Ähnlichkeitskoeffizient (J) dividiert die Anzahl der Wertepaare,
bei denen die interessierende Merkmalsprägung gemeinsam vorkommt (1/1),
durch die Anzahl aller Wertepaare, bei denen die betreffende Eigenschaft
mindestens
einmal
auftritt.
Demzufolge
bleibt
das
gemeinsame
Nichtvorhandensein (0/0) von Objektmerkmalen unberücksichtigt:
Die Ähnlichkeitsmessung nach dem Russel & Rao-Koeffizienten (RR)
berücksichtigt im Gegensatz zum Jaccard-Maß im Nenner auch diejenigen Fälle,
bei denen beide Objekte das interessierende Merkmal nicht aufweisen (0/0). Somit
erhält man diesen, indem die Anzahl der Wertepaare, bei denen die interessierende
Merkmalsausprägung bei beiden Objekten vorhanden ist (1/1), durch die Anzahl
aller Wertepaare dividiert wird.
Das Rogers & Tanimoto-Ähnlichkeitsmaß (RT) entspricht im Zähler dem
SMC-Koeffizienten, gewichtet im Gegensatz zu diesem jedoch die ungleichen
Wertepaare (0/1; 1/0) im Nenner doppelt.
Ein gebräuchliches Distanzmaß für einen Objektvergleich bei binären Merkmalen
bildet beispielsweise die Binäre Euklidische Distanz, die sich als Quadratwurzel
aus der Anzahl ungleicher Wertepaare (1/0; 0/1) der beiden Objekte i und j ergibt.
Unter Verwendung des Euklidischen Distanzmaßes kann die in Tabelle 5
dargestellte Rohdatenmatrix in die nachstehende Distanzmatrix überführt werden.
Tabelle 8: Distanzmatrix auf Basis der Binären Euklidischen Distanz
Um bei nominalen Merkmalen, die mehr als zwei Kategorien aufweisen (mehrfach
gestufte Merkmale, polytome Merkmale), die zuvor erläuterten Proximitätsmaße
anwenden zu können, sind diese vorab in binäre Merkmale zu zerlegen. Hierzu bietet
sich eine Dummy-Codierung an, bei der ein Merkmal mit p Kategorien in p -1
Dummyvariablen transformiert wird, wobei jeder Merkmalsausprägung der Wert 1 (=
Merkmalsausprägung vorhanden) oder der Wert 0 (= Merkmalsausprägung nicht
vorhanden) zugeordnet wird (vgl. Bacher et. al. 2010, S. 207 ff.; Backhaus et. al.
2011, S. 407 f.; Bortz/Schuster 2010, S. 455 f.).
12
Liegen hingegen ordinalskalierte Merkmale vor, so werden diese zumeist mit Hilfe
einer Mediandichotomisierung auf ein nominales Skalenniveau zurückgeführt (z.B.
ein Merkmal mit p Ausprägungen wird in p binäre bzw. Dummy-Merkmale zerlegt),
um auf die Proximitätsmaße für Nominaldaten zurückgreifen zu können. Weiterhin
besteht die Möglichkeit, auf Basis einer Rangziffernbildung spezielle Ähnlichkeitsmaße für Ordinaldaten, wie z.B. die sog. Canberra-Metrik oder den Rangkorrelationskoeffizienten heranzuziehen. Schließlich werden in der Praxis ordinale
Daten recht häufig auch als metrisch skalierte Größen aufgefasst, für die spezielle
Distanzmaße bestimmbar sind (vgl. Bacher et. al. 2010, S. 211 ff.; Bortz/Schuster
2010, S. 456).
2.3 Proximitätsmaße bei quantitativen Merkmalen
Bei quantitativen Merkmalen erfolgt die Proximitätsmessung gewöhnlich mit den aus
der verallgemeinerten Minkowski-Metrik ableitbaren Distanzmaßen (vgl. Bacher et.
al. 2010, S. 219 ff.; Backhaus et. al. 2011, S. 409 ff.; Bortz/Schuster 2010, S. 456
ff.). Distanzmaße sind als inverse Ähnlichkeitsmaße zu interpretieren, d.h. je größer
die Distanz eines Objektpaares ist, desto geringer ist die Ähnlichkeit beider Objekte.
Die Minkowski-Metriken (oder sog. L-Normen) ermitteln Distanzen als Summe
von merkmalsspezifischen Differenzen zwischen den intervallskalierten Werten eines
Objektpaares, wobei die Distanzen in den einzelnen Merkmalen mit Hilfe eines
Metrik-Parameters verschieden gewichtet werden:
1
d(i,j)
r r
K
   xik  x jk 
 k 1

mit:
d(i,j) = Distanz zwischen Objekt i und j,
xik = Wert des Merkmals k bei Objekt i (k = 1,2,…K)
xjk = Wert des Merkmals k bei Objekt j (k = 1,2,…K)
r ≥ 1 = Minkowski-Parameter (Konstante).
In Abhängigkeit vom Wert der Minkowski-Konstanten r können verschiedene
Distanzmaße gebildet werden, z.B. die Euklidische Distanz (r =2, sog. L2-Norm)
oder die City-Block-Distanz (r =1; L1-Norm).
Die Ermittlung der verschiedenen Distanzmaße sollen nachfolgend anhand eines
Beispiels verdeutlicht. Hierbei werden die Zufriedenheitsurteile (1= sehr zufrieden, 5
= sehr unzufrieden) von sechs Nachfragern hinsichtlich der Produkt- und der
Serviceleistung eines Unternehmens betrachtet. Die entsprechenden Ausgangsdaten
sind in Tabelle 9 sowie im Streudiagramm der Abbildung 3 wiedergegeben.
Nachfrager
A
B
C
D
E
Produktzufriedenheit
2
1
2
4
5
Servicezufriedenheit
5
3
3
1
2
Tabelle 9: Beispieldaten für Minkowski-Metriken
13
Abbildung 3: Geometrische Darstellung von Minkowski-Metriken
Die Euklidische Distanz ergibt sich als Quadratwurzel der Summe der quadrierten
Differenzen zwischen den Merkmalsausprägungen zweier Objekte:
d(i,j) 
K
 x
ik
k 1
 x jk

2
Beispielhaft errechnet sich die Euklidische Distanz zwischen den Nachfragern D und
E als:
d DE 
 4  52  1  22  1,41
Bei der Euklidischen Distanz führt der Metrik-Parameter bzw. die Quadrierung der
Merkmalsunterschiede dazu, dass große Differenzwerte in den einzelnen Merkmalen
stärker gewichtet werden kleinere Abstandswerte.
Geometrisch entspricht die Euklidische Distanz der direkten Distanz zwischen einem
Objektpaar. Diese lässt sich nach dem Satz von Pythagoras als Hypothenuse eines
„gedachten“ rechtwinkligen Dreiecks berechnen. Hiernach ist im Merkmalsraum der
Abbildung 3 die Euklidische Distanz c zwischen den beiden Nachfragern D und E
durch die Wurzel der Summe der beiden Kathetenquadrate a2 und b2 gegeben.
Für die Beispieldaten erhält man bei Verwendung des Euklidischen Distanzmaßes
die nachstehende Distanzmatrix der Tabelle 10, aus der u.a. ersichtlich ist, dass die
beiden Nachfrager B und C die geringste Distanz zueinander besitzen, während die
Nachfrager am unähnlichsten sind.
14
Tabelle 10: Euklidische Distanzmatrix der Beispieldaten
Die Quadrierte Euklidische Distanz berechnet sich als die Summe der quadrierten
Merkmalsdifferenzen:
d(i , j ) 
K
 x
ik
 x jk
k 1

2
Für die Quadrierte Euklidische Distanz zwischen den Nachfragern D und E erhält
man beispielsweise:
d DE  (4  5) 2  (1  2) 2  2 .
Geometrisch entspricht die Quadrierte Euklidische
Distanz c der Summe der beiden Kathetenquadrate a2 und b2.
2
Bei Verwendung der quadrierten euklidischen Distanz anstelle der euklidischen
Distanz bleibt die Rangfolge der ähnlichen Objektpaare unverändert. Es verändern
sich jedoch die Abstandsverhältnisse, was mitunter einen Einfluss auf die zu
ermittelnde Clusterzahl ausüben kann.
Sollen alle Merkmalsdifferenzen gleichgewichtig in ein Distanzmaß einfließen, so
bietet sich die Ermittlung der sog. City-Block-Distanz an, die als die Summe der
absoluten Merkmalsdifferenzen definiert ist:
d(i , j ) 
K
x
ik
 x jk
k 1
Diese ergibt sich für das Nachfragerpaar D und E als:
d DE  4  5  1  2  2
In Abbildung 3 lässt sich demnach der Abstand zwischen den Nachfragern D und E
nicht als nur als direkte Verbindung bzw. Euklidische Distanz erfassen, sondern auch
durch die rechtwinklige Distanzmessung der City-Block-Metrik, indem man sich
zunächst von Person D parallel zur x-Achse nach rechts bis zum Skalenwert 5 und
anschließend parallel zur y-Achse bis zur Person E bewegt.
Bei den Minkowski-Metriken gehen sämtliche Merkmale mit dem gleichen Gewicht
in die Distanzmessung ein. Korrelative Beziehungen zwischen den Merkmalen
bleiben daher unberücksichtigt und können zu einer Verzerrung der Distanzmessung
führen. Um im Fall von korrelierenden Merkmalen eine Gleichgewichtung der
Variablen zu erreichen, ist eine Distanzmessung mit Hilfe des sog. MahalanobisDistanzmaßes sinnvoll (vgl.
Bacher et al. 2010, S. 339 ff) oder eine
Faktorenanalyse zur Erzeugung von unabhängigen Klassifizierungsdimensionen
vorzuschalten (vgl. Kapitel 3.1). Wenn darüber hinaus die Zielsetzung darin besteht,
anstelle einer Distanzmessung ein metrisches Ähnlichkeitsmaß zu verwenden, so
15
bietet sich die Bestimmung des sog. Q-Korrelationskoeffizienten an. Dieser stellt
eine Über-tragung des variablenbezogenen Bravais-Pearson-Koeffizienten (RKonzept) auf den Bereich des Zusammenhangsmessung von Objektpaaren dar (vgl.
Bacher et al. 2011, S. 219 ff.).
Neben den zuvor angeführten Datenstrukturen sind bei einer Proximitätsmessung auf
Basis metrischer Merkmale spezielle Skalensituationen zu berücksichtigen:
 Bei Vorliegen gemischt-skalierter Merkmale bieten sich vornehmlich zwei
Ansätze zur Proximitätsmessung an (vgl. Bortz/Schuster 2010, S. 458 ff.). Eine
erste Vorgehensweise besteht darin, Merkmale mit unterschiedlichen Skalenniveaus auf ein einheitliches Messniveau zu transformieren. Dabei werden
Merkmale mit einem höheren Skalenniveau zunächst in Merkmale mit einem
niedrigeren Skalenniveau umgewandelt, auf deren Grundlage anschließend eine
gemeinsame Proximitätsmessung durchgeführt werden kann. Im Rahmen eines
alternativen Ansatzes werden für die verschiedenen Merkmalstypen jeweils
getrennt die adäquaten Proximitätsmaße berechnet und diese anschließend zu
einem „gewogenen, mittleren Distanzwert“ zusammengefasst. Die Gewichtungsstruktur soll dabei dem relativen Anteil der Anzahl einer Skalierungsart an der
Gesamtzahl der Merkmale entsprechen (vgl. hierzu ein Beispiel bei Backhaus et
al. 2011, S. 415 ff.).
 Bei gehäuften Klassifizierungsvariablen, d.h. Merkmalen, deren Werte absolute
Häufigkeiten repräsentieren, besteht zum einen die Option, diese als metrisch
skalierte Variable zu behandeln. Zum anderen kann es jedoch auch zweckmäßig
sein, für Häufigkeitsvariablen spezielle 2-basierte Ähnlichkeitsmaße, wie z.B.
das Chi-Quadrat-Maß zu verwenden, bei welchem die Distanz zwischen zwei
Objekten der Quadratwurzel der 2–Statistik entspricht. Hierbei werden die
quadrierten Differenzen aus den beobachten und den - bei Unabhängigkeit der
Merkmale - sog. erwarteten Häufigkeiten ermittelt und anschließend durch die
erwarteten Häufigkeiten dividiert. Aus der Summation dieser Quotienten erhält
man das 2-Maß (vgl. zu einem Beispiel Backhaus et al. 2011, S. 408 f.).
2.4 Klassifikationsverfahren im Überblick
Die Ähnlichkeits- bzw. Distanzwerte der Proximitätsmatrix bilden die Datenbasis zur
Gruppierung von Objekten. Das Gruppierungsprinzip besteht allgemein darin,
Objekte mit geringen Distanzen bzw. großer Ähnlichkeit zu einem Cluster
zusammenzufassen und solche Objekte, zwischen denen große Distanzen bzw.
geringe Ähnlichkeiten bestehen, unterschiedlichen Clustern zuzuordnen. Zur
Gruppierung einer gegebenen Objektmenge ist der Einsatz einer Clustermethode
erforderlich, wozu dem Anwender ein breites Verfahrensspektrum zur Verfügung
steht (vgl. ausführlich bei Bacher et al. 2010, S. 233 ff.; Backhaus et al. 2011, S. 417
ff.; Bortz/Schuster 2010, S. 458 ff.; Schendera 2010, S. 23 ff.; Schlittgen 2009, S.
397 ff.).
Von grundsätzlicher Bedeutung ist in diesem Zusammenhang die Unterscheidung
zwischen deterministischen, probabilistischen und geometrischen Clusteranalyseverfahren (vgl. Bacher 2010, S. 18 ff.). Bei deterministischen Clusteranalyseverfahren (z.B. hierarchische, partitionierende Clustermethoden) werden die
16
Clusterobjekte mit einer Wahrscheinlichkeit von 1 einem oder mehreren Clustern
zugewiesen bzw. mit einer Wahrscheinlichkeit von 0 nicht zugeordnet. Die
deterministische Clusterbildung schließt jedoch nicht aus, dass z.B. ein Objekt
mehreren Cluster gleichzeitig angehört und die Cluster demzufolge einander
überlappen können (sog. nicht-exhaustive Zuordnung). Demgegenüber liegt bei
probabilistischen Clusteranalyseverfahren (z.B. der Two-Step-Clusteranalyse) die
Wahrscheinlichkeit für eine Objektzuordnung zu einem Cluster im Intervall
zwischen größer 0 und kleiner 1. So ist beispielsweise der Fall denkbar, dass ein
bestimmtes Objekt mit einer Wahrscheinlichkeit von 0,7 dem Cluster 1 und mit einer
Wahrscheinlichkeit von 0,3 dem Cluster 2 angehörig ist. Eine Sonderrolle nehmen
geometrische Klassifikationsverfahren ein, denn diese ermöglichen lediglich eine
räumliche Darstellung einer Objekteverteilung in einem maximal dreidimensionalen
Raum vornehmen, wie z.B. das baumbasierte Klassifizierungsmodell (z.B. CHAID-,
TREE-, QUEST-Algorithmus) oder die Methode „Nächstgelegener Nachbar“ (vgl.
Bacher et al. 2010, S. 460 ff. sowie ausgewählte SPSS-Beispiele bei Bühl 2012, S.
689 ff.; Schendera 2010, S. 145 ff.).
In der Marketingpraxis besitzen deterministische Clustermethoden den weitaus
größeren Stellenwert, so dass sich die nachfolgenden Ausführungen auf diesen
Verfahrenstyp beschränken. Hierzu vermittelt die Tabelle 11 einen Methodenüberblick
Tabelle 11: Ausgewählte deterministische Clusteranalyseverfahren
Der Einsatz von hierarchischen Clusterverfahren bietet sich dann an, wenn
keinerlei Vorkenntnisse über die Anzahl der zu bildenden Gruppen vorhanden sind
(z.B. bei einer Marktsegmentierung für eine Produktinnovation). Im Zuge der
Gruppierung wird eine hierarchische Verschachtelung von Ober- und Untergruppen
gebildet, die mit Hilfe agglomerativer oder divisiver Fusionierungsalgorithmen
vorgenommen werden kann. Divisive Verfahren, die in der empirischen Statistik
überaus selten zur Anwendung gelangen, starten den Gruppierungsprozess mit einer
Gruppe, die alle Objekte enthält, und spalten dann von dieser schrittweise solange
Teilgruppen ab, bis alle Objekte jeweils ein Cluster bilden.
Agglomerative Verfahren beschreiten den umgekehrten Weg, indem Objekte
ausgehend von der feinsten Gruppierung einelementiger Cluster sukzessive solange
zusammengefasst werden, bis alle Objekte in einem gemeinsamen Cluster enthalten
sind. Auf diese Weise entsteht eine Hierarchie von Clustern innerhalb des
mehrstufigen Verschmelzungsprozesses, wobei jene Objekte, die bereits einmal zu
17
einem Cluster zusammengefasst wurden, auf den späteren Stufen der Clusterbildung
nicht mehr getrennt werden und die Cluster auf jeder Stufe disjunkt sind. Bei der
agglomerativen Gruppierung werden somit die Gruppen von Stufe zu Stufe
heterogener, da immer „entferntere“ Objekte hinzukommen, bis sich schließlich alle
Objekte in einem Cluster befinden.
Agglomerative Verfahren sind dadurch gekennzeichnet, dass auf jeder Stufe die
paarweisen Distanzen bzw. Ähnlichkeiten aller Cluster zueinander ermittelt werden
und jene beiden Gruppen fusioniert werden, welche die geringste Distanz oder die
größte Ähnlichkeit aufweisen. Dadurch reduziert sich die Anzahl der im
darauffolgenden Fusionsschritt zu vergleichenden Cluster um 1. Für diese werden
erneut die Clusterdistanzen (bzw. Ähnlichkeiten) berechnet und anschließend werden
entweder zwei Objekte zu einem neuen Cluster vereinigt, ein Objekt einem bereits
vorhandenen Cluster zugeordnet oder es werden zwei in den vorangegangenen
Stufen gebildete Cluster zu einem größeren Cluster zusammengefasst. Auf diese
Weise verringert sich mit jeder Stufe die Anzahl der Cluster um 1, bis im letzten
Schritt sämtliche Objekte zu einem Cluster vereinigt. Anzumerken ist, dass eine
Fusionierung die Proximitätswerte (z.B. Distanzwerte) der geclusterten Objekte
verändert, während diese bei den noch nicht vereinigten Objekten davon
unbeeinflusst bleiben.
Auf der ersten Fusionierungsstufe unterscheiden sich die verschiedenen
hierarchischen Gruppierungsverfahren nicht voneinander, da in der Ausgangspartition jedes Cluster aus lediglich einem Objekt besteht und daher die
Clusterdistanzen (Clusterähnlichkeiten) exakt den in der Proximitätsmatrix
berechneten Distanzen der Einzelobjekte (Objektähnlichkeiten) entsprechen. Auf der
Grundlage des verwendeten Distanzmaßes oder Ähnlichkeitsmaßes erhält man daher
im ersten Schritt der Clusterbildung stets dasselbe Fusionsergebnis. In den
darauffolgenden Fusionsstufen hingegen unterscheiden sich die Clusterlösungen der
Agglomerationsverfahren gewöhnlich voneinander, da die Clusterbildung auf
unterschiedlichen Fusionskriterien beruhen kann (vgl. Abbildung 4):
18
Abbildung 4: Hierarchisch-agglomerative Verfahren im Überblick
 Beim Single-Linkage-Verfahren (Minimummethode, Nächstgelegener Nachbar,
nearest neighbor rule), das für beliebige Skalenniveaus geeignet ist, wird die
Distanz zwischen zwei Clustern (bzw. einem Einzelobjekt und einem Cluster)
durch die Distanz der beiden am nächsten liegenden Einzelobjekte beider Gruppen
gemessen. Es werden dann stets jene beiden Cluster zusammengefasst, deren
Clusterdistanz minimal ist. Die Verbindung zweier Objekte wird somit
„brückenförmig“ durch je ein Objekt der beiden Objektmengen („single link“)
hergestellt. Da hierbei als neue Distanz zwischen zwei Gruppen immer der
kleinste Wert der Einzeldistanzen herangezogen wird, eignet sich das SingleLinkage-Verfahren in besonderer Weise dazu, Ausreißer in einer Objektgruppe zu
identifizieren. Hiermit einher geht jedoch die Tendenz zur Kettenbildung (chainig
effect), d.h. zur Zusammenfassung von wenigen großen und heterogenen Gruppen
(kontrahierendes Verfahren).
 Das Complete-Linkage-Verfahren (Maximummethode, Entferntester Nachbar,
furthest neighbor rule), welches gleichfalls bei einem beliebigen Skalenniveau
einsetzbar ist, wird die Distanz zwischen zwei Clustern (bzw. einem Einzelobjekt
und einem Cluster) durch die beiden am entferntesten liegenden Einzelobjekte
beider Gruppen erfasst. Dabei werden auf jeder Fusionierungsstufe jene zwei
Cluster verschmolzen, deren größte Einzeldistanz minimal ist. Im Gegensatz zum
Single-Linkage-Verfahren ermöglicht das Complete-Linkage zwar keine
Identifikation von Ausreißern; es tendiert jedoch zur Bildung vieler kleiner,
kompakter Gruppen, die sich zudem überlappen können und ist daher für
praktische Fragestellungen gewöhnlich besser geeignet.
19
 Beim Average-Linkage-Verfahren, das kein bestimmtes Skalenniveau erfordert,
berechnet man für je zwei Cluster (bzw. einem Objekt und einem Cluster) das
arithmetische Mittel aller Objektdistanzen und fusioniert diejenigen Objekte bzw.
Cluster, welche die geringste Durchschnittsdistanz aufweisen. Hierbei sind zwei
Ansätze zu unterscheiden: Während das sog. „Linkage zwischen den Gruppen“
(average linkage between groups) bei der Distanzberechnung nur jene Objektpaare
berücksichtigt, bei denen die Objekte aus verschiedenen Gruppen entstammen,
werden beim sog. „Linkage innerhalb der Gruppen“ (average linkage within
groups) sämtliche Objektpaare einbezogen, d.h. auch jene Objekte, die einem
gemeinsamen Cluster angehören. Das Average-Linkage-Verfahren stellt einen
vergleichsweise konservativen Fusionierungsalgorithmus dar, der eine
Kompensation von größeren Objektdistanzen durch geringere Distanzen nahe
beieinander liegender Objekte gestattet und somit zu Gruppen mit einer
vergleichsweise durchschnittlichen Besetzungszahl und Homogonität führt.
 Im Unterschied zu den Linkage-Verfahren setzen sowohl das Zentroid-Verfahren
als auch das Medianverfahren metrisch skalierte Klassifizierungsmerkmale
voraus. Beide Verfahren messen die Clusterdistanzen anhand der Abstände bzw.
der quadrierten euklidischen Distanzen zwischen den Clusterschwerpunkten; sie
unterscheiden sich jedoch hinsichtlich der Gewichtung der Clusterschwerpunkte.
Beim Medianverfahren werden diejenigen Cluster vereint, deren quadrierter
euklidischer Centroidabstand minimal ist, wobei ein Clustercentroid (Gruppenschwerpunkt) den durchschnittlichen, ungewichteten Merkmalsausprägungen aller
Objekte eines Clusters entspricht. Dabei werden allerdings unterschiedliche
Objekthäufigkeiten der zu fusionierenden Cluster vernachlässigt, so dass der
Centroid eines neu gebildeten Clusters dem Mittelpunkt (Median) der Linie,
welche die Centroide der zu fusionierenden Cluster verbindet, entspricht. Sollen
unterschiedliche Objekthäufigkeiten der zu fusionierenden Cluster berücksichtigt
werden, wählt man das gewichtete Median- oder das Zentroidverfahren. Das
Zentroid-Verfahren berechnet die Clusterdistanz im Gegensatz zum AverageLinkage-Verfahren, welches auf durchschnittliche Objektdistanzen abstellt, als
quadrierte Euklidische Distanzen zwischen den Clustermittelwerten. Clustermittelwerte bilden ein Maß des Clusterschwerpunktes und dienen als fiktive
Objektrepräsentanten der Cluster. Zur Ermittlung des Zentrums von zwei
vereinigten Clustern wird das gewichtete arithmetische Mittel der betreffenden
Cluster berechnet, wobei die Gewichtungsstruktur dem clusterspezifischen Anteil
der Objekte an der Gesamtzahl der Objekte entspricht.
 Das Ward-Verfahren (Fehlerquadratsummen-Methode, minimum variance
method), welches metrische Klassifizierungsmerkmale voraussetzt, unterscheidet
sich von den vorhergehend besprochenen Clustermethoden dadurch, dass die
Objektgruppierung nicht anhand der geringsten Clusterdistanz, sondern anhand
eines vorgegebenen Heterogenitätsmaßes bzw. des Varianzkriteriums erfolgt. Ziel
ist es, jeweils diejenigen Objekte bzw. Gruppen zusammenzufassen, welche die
Gesamtstreuung in einer Gruppe (Varianz, Fehlerquadratsumme innerhalb der
Gruppen, within-groups sum of squares) möglichst wenig erhöhen, so dass die
Gruppen intern möglichst homogen sind. Die Varianz der Gruppen ist in der
Ausgangspartition, in der noch keine Gruppenbildung erfolgt ist, für jede
20
„Gruppe“ 0. Im Verlauf der darauffolgenden Fusionsstufen verringert sich die
Homogenität in Form einer zunehmenden Streuung innerhalb der Gruppen, wobei
das Verfahren anstrebt, die Objekte so zusammenzufassen, dass die Varianz der
neu gebildeten Gruppen möglichst gering ist. Der Ward-Algorithmus tendiert zur
Bildung von kompakten, in sich homogenen sowie überlappungsfreien Clustern
mit annähernd gleichgroßen Besetzungszahlen (vgl. Backhaus et al. 2011, S. 430
ff.). Er gehört deshalb zu den am häufigsten eingesetzten Fusionierungsverfahren
in der Marketingpraxis, wobei gewöhnlich auf die quadrierte euklidische Distanz
als Proximitätsmaß zurück-gegriffen wird (vgl. hierzu auch das SPSS-basierte
Beispiel in Kapitel 3).
Im Gegensatz zu hierarchischen Verfahren gehen die partitionierenden Verfahren
von einer bereits gegebenen Zerlegung der Objektmenge in Cluster aus. Diese wird
jedoch nicht als „optimal“ erachtet, so dass versucht wird, die Ausgangspartition
durch eine Umgruppierung der Objekte sukzessive zu verbessern. Dabei bleibt
jedoch die Anzahl der Cluster in jeder Verfahrensstufe konstant. Partitionierende
Verfahren besitzen somit den Vorteil, dass die Zuordnung von Objekten im
Gruppierungsprozess revidierbar ist, um zu einer besseren Clusterlösung zu
gelangen. Ihr Einsatz bietet sich insbesondere dann an, wenn der Anwender bereits
über Vorkenntnisse bezüglich der relevanten Objektstrukturen (z.B. Zusammensetzung von Marktsegmenten) verfügt. In der Marketingpraxis erfolgt deshalb recht
häufig eine kombinierte Anwendung von Fusionierungsmethoden (“sog. two-stageclustering“), bei welcher z.B. zunächst mittels des Single-Linkage-Verfahrens
einzelne Ausreißer identifiziert bzw. aus dem Datensatz eliminiert werden,
anschließend eine Clusterbildung auf Basis des Ward-Verfahrens erfolgt und die
daraus resultierende Clusterlösung sodann mit Hilfe eines partitionierenden
Verfahrens verfeinert wird.
Partitionierende Verfahren können in zwei Methodengruppen unterteilt werden (vgl.
Tabelle 11): Jene Verfahren, die eine optimale Teilung der Objektmenge im Hinblick
auf ein bestimmtes Kriterium anstreben, werden als Teilungsverfahren
(optimierende Austauschverfahren, hill climbing) bezeichnet. Demgegenüber
beruhen iterative Minimal-Distanzverfahren (Distanzschwellenverfahren, Clusterzentren-Methode, K-Means-Methode) nicht auf einem expliziten Optimierungskriterium. Vielmehr wird hierbei - analog zum Zentroid-Verfahren – für jedes Cluster
der Ausgangspartition zunächst der Gruppenschwerpunkt berechnet. Sodann wird für
jedes Objekt die Euklidische Distanz zu allen Clusterschwerpunkten bestimmt.
Sofern ein Objekt eine - im Vergleich zur bislang zugehörigen Gruppe - geringere
Distanz zu einem Clusterschwerpunkt besitzt, wird das Objekt dem betreffenden
anderen Cluster zugewiesen. Nach dieser Umgruppierung werden die Clusterzentren
erneut errechnet und die Objekte möglicherweise wiederum umgruppiert. Diese
iterativen Schritte werden solange fortgesetzt, bis eine „optimale“ Lösung gefunden
ist (vgl. auch die Beispiele in Kapitel 4).
2.5 Optimale Clusteranzahl
Während bei partitionierenden Verfahren die Anzahl der Cluster vorzugeben ist,
bedarf es bei hierarchischen Fusionierungsverfahren der Festlegung der „richtigen“
Clusterzahl bzw. einer Entscheidung darüber, an welcher Stelle der Verschmelzungs21
prozess abgebrochen werden soll. Hierfür steht dem Anwender allerdings kein fest
definiertes Abbruchkriterium zur Verfügung. Neben sachlichen Überlegungen erfolgt
daher zumeist ein Rückgriff auf graphische Darstellungen des Fusionierungsprozesses in Form eines Dendrogramms (auch Baumdiagramm genannt) und/oder
eines Struktogramms (vgl. Abbildung 5).
Abbildung 5: Dendrogramm und Struktogramm
Im Dendrogramm ist der hierarchische Verschmelzungsprozess schematisch
dargestellt. Zusätzlich wird angezeigt, bei welchem Heterogenitätsgrad eine Fusion
zweier Objektmengen, d.h. Objekte oder Cluster stattfindet. Die Messung der
Heterogenität erfolgt anhand des dem betreffenden Fusionierungsverfahren
zugrundeliegenden Vereinigungsmaßes, wie z.B. der Distanz der beiden zuletzt
fusionierten Objektmengen oder der Fehlerquadratsumme. Im Extremfall bildet jedes
Objekt einen eigenen Cluster (Heterogenität = Max. bzw. Homogenität = 0) oder alle
Objekte sind in einem Cluster vereinigt (Heterogenität = 0 bzw. Homogenität =
Max). Im Beispiel der Abbildung 5 werden im ersten Fusionierungsschritt die
Objekte 12 zu einer Gruppe vereinigt, während auf der letzten Stufe die aus den
Objekten 12 zusammengesetzte Gruppe mit der aus den Objekten 3456
bestehenden Gruppe zu einem Cluster verschmolzen wird.
Der Anwender kann anhand des Verlaufs des Heterogenitätsmaßes über die Zahl der
„richtigen“ Cluster entscheiden. Legt man hierzu bei einem vorgegebenen
Heterogenitätsindex eine vertikale Linie durch das Dendrogramm, dann entspricht
die Anzahl der Cluster jener Anzahl der horizontalen Linien, die von dieser
geschnitten werden. Legt der Anwender seinen Überlegungen beispielsweise den
Heterogenitätsindex h3 zugrunde, dann geht aus Abbildung 5 hervor, dass hieraus
einerseits zwei Zweiergruppen mit den Objekten 12 sowie 34 und andererseits
zwei einelementige Gruppen der Objekte 5 und 6 resultieren. Betrachtet man
hingegen den Indexwert h2 so wird ersichtlich, dass in diesem Fall nur noch zwei
22
Gruppen vorliegen: Das erste Cluster besteht aus den Objekten 12, während das
zweite Cluster aus den Objekten 3456 zusammengesetzt ist. Als visuelle
Entscheidungshilfe zur Festlegung der Clusterzahl kann jener Bereich des
Dendrogramms dienen, bei welchem ein starker Anstieg des Heterogenitätsmaßes
erfolgt. Im vorliegenden Beispiel zeigt sich eine sprunghafte Zunahme des
Heterogenitätsmaßes beim Index h2, die eine 3-Clusterlösung nahe legt.
Eine alternative Darstellungsweise bietet das Struktogramm, bei welchem an der
Ordinate die Abnahme des Heterogenitätsmaßes und an der Abzisse die Anzahl der
Cluster abgetragen ist. Analog zum sog. Scree-Test einer Faktorenanalyse, kann die
„optimale“ Anzahl von Clustern an derjenigen Stelle des Liniendiagrammes abgelesen werden, bei der dieses einen starken Knick (Elbow) aufweist. Bezogen auf
das Beispiel der Abbildung 5 wäre demnach von einer 3-Clusterlösung auszugehen.
Gleichwohl ist darauf hinzuweisen, dass es im praktischen Anwendungsfall durchaus
vorkommen kann, dass man an mehr als einer Stelle einen „Ellenbogen“ vorfindet
und dieses Kriterium somit keine eindeutige Lösung gestattet. Hiermit einher geht
die generelle Empfehlung, die durch ein Dendrogramm oder Struktogramm
identifizierte Clusterzahl stets auch vor dem Hintergrund sachlicher Überlegungen zu
überprüfen.
2.5 Clusterdiagnose
Die abschließende Phase einer Clusteranalyse besteht in der Diagnose der ermittelten
Clusterstruktur. Diese beinhaltet Gütebeurteilung der Clusterlösung sowie die
Interpretation von Clustern.
Zur Gütebeurteilung der gewonnenen Clusterlösung kann der Anwender nicht auf
verfahrensimmanente statistische Kriterien zurückgreifen. Ersatzweise bietet es sich
daher an, zum einen mit Hilfe von Varianz- und/oder Diskriminanzanalysen zu
untersuchen, ob signifikante Gruppenunterschiede hinsichtlich der Klassifizierungsvariablen vorliegen (vgl. Müller 2015 b). Daneben kann die Stabilität einer Clusterlösung bei Anwendung mehrerer Fusionierungsverfahren überprüft werden. Hierbei
ist es zudem möglich, den sog. Rand-Index oder Kappa-Wert als Kenngrößen für den
Grad der Übereinstimmung der Clusterlösungen zweier Fusionierungsverfahren zu
bestimmen (vgl. Bortz/Schuster 2010, S. 466 ff.).
Eine vergleichbare Vorgehensweise ist bei der Interpretation der Cluster hilfreich.
Diese knüpft zum einen an den relevanten Klassifizierungsvariablen an, für die sich
z.B. im Fall metrischer Variablen graphische Mittelwertprofile und/oder varianzbzw. diskriminanzanalytische Mittelwertuntersuchungen durchführen lassen. Um
einen differenzierten Einblick in die Clusterstrukturen zu erlangen, ist es darüber
hinaus zweckmäßig, Cluster mit Hilfe sog. passiver Zusatzvariablen, d.h.
Merkmalen, die nicht als Klassifizierungsvariablen herangezogen wurden, zu
beschreiben.
23
3. Hierarchische Clusteranalyse mit SPSS
3.1 Die Datenmatrix des Demonstrationsbeispiels
In der Marketingpraxis ist es vielfach üblich, Informationen über die Leistungsangebote konkurrierender Anbieter auf dem Wege einer Durchsicht von Produktprospekten zu sammeln und in Form einer Leistungstabelle gegenüberzustellen. Ein
derartiges Vorgehen unterliegt auch der Zusammenstellung der Leistungsausprägungen verschiedener Marken des bundesdeutschen Pkw-Marktes in der
Tabelle 12.
In der Datenmatrix sind zwölf Pkw-Modelle anhand von jeweils neun technischen
Produkteigenschaften und einem ökonomischen Merkmal bzw. dem Verkaufspreis
gegenübergestellt. Ist man nun daran interessiert zu untersuchen, bezüglich welcher
Leistungsmerkmale Unterschiede oder Gemeinsamkeiten zwischen den Marken
vorliegen, so wird recht schnell deutlich, dass der Vergleich von 12 x 10 = 120
Eigenschaftsausprägungen eine komplexe Beurteilungsaufgabe darstellt, die nicht
nur zeitaufwendig ist, sondern auch ein unübersichtliches Leistungsbild vermittelt.
Preis
(DM)
Länge
(mm)
Breite
(mm)
Höhe
(mm)
Audi 80
12655
4383
1682
1365
BMW 320
19300
4355
1610
1380
Citroen GSX
14490
4120
1608
1349
Fiat 131
12590
4264
1651
Ford Taunus
11930
4340
Mercedes 200
20261
4725
Opel Rekord
14685
Peugeot 244
Renault 20
Gewicht
(kg)
PS
Hubraum
(ccm)
Geschwindigkeit Beschleunigung (Sek. Verbrauch (l
(km/h)
Für 0-100km/h)
pro 100 km)
910
55
1273
145
17,5
8,9
1115
122
1990
181
10,7
9,5
935
55
1130
145
20,8
8,4
1381
1015
75
1585
160
12,8
9,2
1700
1362
1020
55
1285
137
20,3
9,5
1786
1438
1340
94
1988
160
15,2
11,1
4593
1726
1420
1100
75
1875
155
16
10,2
14995
4490
1690
1460
1160
79
1796
154
15,8
10,5
18670
4520
1726
1435
1260
109
1994
173
12,7
10,2
Simca
13224
4245
1680
1390
1075
75
1442
154
13,9
9,7
VW Passat
14925
4290
1615
1360
885
75
1588
164
13
8,8
Volvo 244
17990
4898
1707
1435
1280
90
1986
155
15
11,5
Tabelle 12: Leistungsmerkmale von Automobilen (Quelle: Hammann/Erichson 2000, S.
257)
Im vorliegenden Beispiel lässt sich mittels einer Clusteranalyse die Frage beantworten, ob die betrachteten Pkw-Modelle anhand ausgewählter Leistungsmerkmale
zu Modellklassen zusammengefasst werden können. Bezogen auf die eingangs
diskutierten Einsatzfelder der Cluster im Marketing, ist diese Problemstellung
gleichdeutend mit der Abgrenzung von strategischen Wettbewerbergruppen.
Bei der Auswahl derjenigen Merkmale, anhand derer die relevanten Untersuchungsobjekte klassifiziert werden sollen, bieten sich für unser Beispiel die folgenden drei
Alternativen an:
(1) Erstens könnte man versuchen, die Pkw-Modelle hinsichtlich eines einzelnen
Leistungsmerkmals (z.B. dem Hubraum, der Länge oder dem Verkaufspreis) zu
gruppieren (= eindimensionale bzw. monothetische Clusteranalyse).
24
(2) Eine zweite Alternative besteht in der Markengruppierung auf der Basis von
mehreren Leistungseigenschaften (= mehrdimensionale bzw. polythetische
Clusteranalyse).
(3) Schließlich kann man unmittelbar an den Ergebnissen einer vorgeschalteten
Faktorenanalyse ansetzen und die dabei extrahierten Faktoren als
Klassifizierungsmerkmale verwenden (= faktorielle Clusteranalyse).
Um im Folgenden den integrativen Einsatz von Datenanalyseverfahren
demonstrieren zu können, legen wir unserer Markengruppierung eine faktorielle
Clusteranalyse zugrunde. Hierzu dienen die Ergebnisse einer vorgeschalteten
Faktorenanalyse als Dateninput. Bei der betreffenden Faktorenanalyse
(Einstellungen: Extraktionsmethode „Hauptkomponenten“; Varimax-Rotation)
wurden die neun technischen Leistungsmerkmale des Datensatzes der Tabelle 12 zu
zwei Faktoren verdichtet (erklärte Gesamtvarianz = 95 %) und mit den Bezeichnungen „Geräumigkeit“ und „Sportlichkeit“ versehen. Die zentralen Befunde
sind in der Tabelle 13 dargestellt (vgl. ausführlich Müller 2015 b). Jedes der zwölf
Pkw-Modelle lässt sich daher neben seinen Leistungsausprägungen zusätzlich durch
Faktorwerte, d.h. den Ausprägungen hinsichtlich beider Faktoren beschreiben.
Tabelle 13: Komponentenmatrix und Faktorwerte
Überträgt man die Faktorwerte in ein Streudiagramm, so erhält man den in
Abbildung 6 veranschaulichten sog. Leistungsraum (performance space).
25
Abbildung 6: Streudiagramm auf Basis von Faktorwerten
Da die betrachteten Leistungsmerkmale in unterschiedlichen Messdimensionen (z.B.
Gewicht in kg, Länge in mm) vorliegen, wurden diese im Rahmen der
Faktorenanalyse z-standardisiert. Daher sind auch die Faktorwerte standardisiert und
besitzen somit einen Mittelwert von 0 sowie eine Varianz von 1: Ein Faktorwert von
0 indiziert somit, dass das Objekt eine lediglich durchschnittliche Ausprägung
besitzt. Demgegenüber zeigt ein positiver (negativer) Faktorwert an, dass das
betreffende Objekt eine im Vergleich zu allen anderen Objekten überdurchschnittliche (unterdurchschnittliche) Ausprägung aufweist. Die Verteilung der
Markenpositionen legt darüber hinaus den Schluss nahe legt, dass im Zuge einer
Clusteranalyse möglicherweise drei Markengruppen (die in Abbildung 6 durch
gestrichelte Kreise veranschaulicht sind) gebildet werden können.
3.2 SPSS-Analysemethodik
Um die Pkw-Daten mittels einer hierarchischen Clusteranalyse auf der Grundalge
von Faktorwerten auszuwerten, ist in SPSS die nachstehende Schrittfolge
durchzuführen:
(1) Im ersten Schritt einer Clusteranalyse ist die auswertungsrelevante Datenmatrix
zu erstellen. Führen Sie zunächst auf Basis des Datensatzes der Tabelle 12 eine
Faktorenanalyse durch und speichern Sie die erzeugten Faktoren als Variablen
„Geräumigkeit“ sowie „Sportlichkeit“. Speichern Sie die daraus resultierende
Datendatei unter der Bezeichnung “Hierarchische Clusteranalyse-Pkw“ (vgl.
Tabelle 14). Achten Sie bei der Definition der Fallvariablen „Marke“ darauf,
dass diese als Zeichenfolge-Variable definiert ist. Alternativ können Sie auf die
Durchführung einer Faktorenanalyse verzichten und anstelle dessen die in der
Tabelle 13 angezeigten relevanten Faktorwerte direkt in eine neue Datendatei
eingeben.
26
Tabelle 14: Daten-/Variablenansicht der SPSS-Datei „Hierarchische Clusteranalyse-Pkw“
(2) Fordern Sie nun das Dialogmenü der hierarchischen Clusteranalyse durch die
Befehlsfolge „Analysieren/Klassifizieren/Hierarchische Cluster...“ an. Das
Dialogfeld „ Hierarchische Clusteranalyse“ wird geöffnet (vgl. Abbildung 7).
(3) Zunächst wollen wir eine Auswahl der untersuchungsrelevanten Variablen
vornehmen:
Abbildung 7: Dialogfeld „Hierarchische Clusteranalyse“
► Markieren Sie daher die beiden Klassifizierungsvariablen „Geräumigkeit“
sowie „Sportlichkeit“ im linken Bereich des Dialogfeldes.
27
► Überführen Sie anschließend die ausgewählten Merkmale aus diesem sog.
Quellverzeichnis durch ein Anklicken des oberen Pfeils in die Liste
„Variable(n)“
► Überführen Sie die Variable „Marke“ in das Feld „Fallbeschriftung“.
► Belassen Sie die Voreinstellungen in den Feldern „Cluster: Fälle“ sowie
„Anzeige: Statistik/Diagramme“.
(4) Der nächste Schritt besteht in der Ermittlung der Proximitätsmatrix. Ein Klick
auf die Schaltfläche „Statistiken“ öffnet das Dialogfenster „Hierarchische
Clusteranalyse: Statistik“ (vgl. Abbildung 8).
Abbildung 8: Dialogfeld „Hierarchische Clusteranalyse: Statistik“
► Die Ausgabe der Ähnlichkeitsmatrix ist standardmäßig nicht voreingestellt.
Daher fordern wir diese mit einem Klick auf das entsprechende Kästchen an.
► Die voreingestellte, von uns übernommene Option „Zuordnungsübersicht“
liefert ein tabellarisches Protokoll der fortlaufenden Fusionierung der
Objekte.
► Sofern Vorkenntnisse über die Zahl der zu bildenden Cluster vorhanden sind,
kann im Feld „Cluster-Zugehörigkeit“ die Zahl der Cluster exakt vorgegeben,
auf bestimmte Bereiche begrenzt oder auch unbestimmt gelassen werden. In
unserem Beispiel hingegen wollen wir bereits an dieser Stelle aufgrund
unserer Betrachtung des Faktorraumes der Abbildung 6 davon ausgehen, dass
sich die Pkw-Modelle möglicherweise zu zwei, drei oder zu vier Markengruppen zusammenfassen lassen. Da wir jedoch keine Kenntnis über die
exakte Clusterzahl verfügen, weisen wir SPSS im Feld „Bereich von
Lösungen“ an, die Clusterzugehörigkeit der Fälle für ein Clusterergebnis von
zwei bis vier Gruppen auszuweisen.
► Bestätigen Sie Ihre Einstellungen mit „Weiter“. Hierauf öffnet sich erneut das
Dialogfeld „ Hierarchische Clusteranalyse“.
(5) In einem weiteren Schritt ist das Klassifizierungsverfahren festzulegen. Klicken
Sie daher auf die Schaltfläche „Methode...“, worauf sich die Dialogbox
„Hierarchische Clusteranalyse: Methode“ öffnet (vgl. Abbildung 9):
► Das Pull-down-Menü „Cluster-Methode“ bietet öffnet eine Liste alternativer
Clusterverfahren. Wählen Sie dort die Option „Ward-Methode“.
28
► Im Feld „Maß“ finden sich für verschiedene Skalenniveaus der Variablen
alternative Proximätsmaße. Wählen Sie dort im Kästchen “Intervall“ das Maß
„Quadrierter Euklidischer Abstand“.
► Im Feld „Werte transformieren“ können verschiedene Arten der Variablenstandardisierung angefordert werden. Die Klassifizierungsmerkmale unseres
Beispiels stellen z-standardisierte Faktorwerte dar, so dass die Voreinstellung
„ Keine“ belassen können.
► Bestätigen Sie Ihre Einstellungen „Weiter“.
Abbildung 9: Dialogbox „Hierarchische Clusteranalyse: Methode“
(6) Nunmehr sind Informationen zur Clusterdiagnose auszuwählen. Hierzu stellt
SPSS im Dialogfenster „Hierarchische Clusteranalyse: Diagramme“ zwei
graphische Darstellungsalternativen zum Verlauf des Fusionsprozesses zur
Verfügung (vgl. Abbildung 10):
► Dort wählen wir zum einen die Option „Dendrogramm“.
► Zum anderen möchten wir ein „Eiszapfen“-Diagramm betrachten.
► Im Hinblick auf die Darstellungsform wählen wir unter „Orientierung“ die
voreingestellte Option „vertikal“.
► Anschließend bestätigen wir unsere Einstellungen mit „Weiter“.
29
Abbildung 10: Dialogbox „ Hierarchische Clusteranalyse: Diagramme“
(7) Schließlich bietet SPSS in die Möglichkeit, die Clusterzugehörigkeit der Fälle
als zusätzliche Variable in der Datendatei zu speichern. Hierzu klicken wir in der
Dialogbox „Hierarchische Clusteranalyse“ auf die Schaltfläche „Speichern“. Es
öffnet sich das Dialogfenster “Hierarchische Clusteranalyse: Speichern“ (vgl.
Abbildung 11):
► Im Fall einer stringent explorativen Clusteranalyse, würde man die Clusterlösung erst im Anschluss an die Clusterprozedur und -diagnose festlegen und
speichern.
► In unserem Beispiel haben wir allerdings im Schritt (4) SPSS dazu veranlasst,
die Analyseprozedur für einen Lösungsbereich von zwei bis vier Clustern
durchzuführen. Deshalb wählen wir an dieser Stelle nun die Option, die
Clusterzugehörigkeit der Fälle für ein Clusterergebnis von zwei bis vier
Gruppen zu speichern. Hiermit fügt SPSS der Datendatei drei neue Variablen
unter den Bezeichnungen „CLU4_1; CLU3_1; CLU2_1“ an.
Abbildung 11: Dialogbox „Hierarchische Clusteranalyse: Speichern“
3.3 Interpretation der Distanzmatrix
Die Ausgabe umfasst zunächst die von SPSS als Näherungsmatrix bezeichnete
Distanzmatrix für die analysierten zwölf Fälle (vgl. Tabelle 15). In dieser wird die
paarweise Quadrierte Euklidische Distanz zwischen den zwölf Pkw-Modellen
ausgewiesen. Je kleiner der Distanzwert ist, desto ähnlicher sind sich die zwei Fälle
bezüglich der beiden Klassifizierungsvariablen Geräumigkeit und Sportlichkeit. Im
Beispiel handelt es sich um eine Unähnlichkeitsmatrix (siehe Legende), so dass die
30
Unähnlichkeit (Ähnlichkeit) von zwei Objekten umso geringer (größer) größer ist, je
geringer die Distanzwerte sind. Die Matrix ist symmetrisch strukturiert, so dass alle
Distanzwerte zweimal angeführt sind. Es genügt daher, entweder das obere rechte
Dreieck oder das untere linke Dreieck der Matrix zu betrachten. Die
Hauptdiagonalwerte der Matrix, welche die Eigendistanzen der Fälle beinhalten, sind
jeweils 0,000.
Tabelle 15: Distanzmatrix
Die Quadrierte Euklidische Distanz errechnet sich als Summe der quadrierten
Differenzen zwischen den Variablenwerten (hier: den Faktorwerten, vgl. Tabelle 13).
Beispielsweise bestimmt sich diese für Objektpaar „BMW 320VW Passat“ als:
2,458 = [(- 0,82159) – (-1,26772)]2 + (2,08154 – 0,57850)2.
Für das Markenpaar „BMWFord Taunus“ wird hingegen der größte Distanzwert (=
13,954) ausgewiesen. Beide Pkw-Modelle sind sich offenkundig sehr unähnlich; ein
Sachverhalt, der vornehmlich auf die starken Unterschiede in der Sportlichkeitsdimension zurückzuführen ist. Demgegenüber weisen die Markenpaare „Volvo
244Mercedes 200“ sowie „Opel RekordPeugeot 244“ vergleichsweise geringe
Distanzen auf. Zusammenfassend lässt sich festhalten, dass die Distanzwerte die
optischen Objektrelationen des Faktorraumes der Abbildung 7 widerspiegeln.
3.4 Darstellungen des Agglomerationsprozesses
Die Ward-Clustermethode ist ein spezielles hierarchisch-agglomeratives Verfahren,
bei dem zu Beginn des Verschmelzungsprozesses jedes Objekt ein einzelnes Cluster
bildet. Diese werden anschließend fortschreitend vereinigt, bis alle Objekte in einer
einzigen Gruppe zusammengefasst sind. Der Verlauf der hierarchischen Clusterbildung wird in der SPSS-Ausgabe durch die drei alternativen Darstellungsweisen
der Agglomerationstabelle,
des Eiszapfen-Diagramms sowie
des Dendrogramms
angezeigt.
31
Die Agglomerationstabelle zeigt den Verlauf der Clusterbildung von der ersten
Stufe, in der jedes Objekt einen eigenständigen Cluster bildet, bis zur letzten Stufe,
in der alle Objekte zu einem Cluster zusammengefasst sind (vgl. Tabelle 16):
Tabelle 16: Agglomerationstabelle
 Jede Zeile der Agglomerationstabelle beschreibt eine einzelne Prozessphase der
Clusterbildung, die in der ersten Spalte „Stufe“ angezeigt wird. Bei einer
Gesamtzahl von n Objekten werden insgesamt (n–1)-Agglomerationsstufen
durchgeführt; im vorliegenden Beispiel daher 11 Stufen. Die Spalte
„Zusammengeführte Cluster“ zeigt an, welche Objekte jeweils zusammengefasst werden. Beispielsweise werden im ersten Schritt die Objekte (bzw. die
Cluster) mit den Fallnummern 7 (Opel Rekord) und 8 (Peugeot 244) zu einem
neuen Cluster verschmolzen. Ein neu gebildetes Cluster wird dabei immer nach
der kleinsten Fallzahl benannt, hier also nach dem Objekt 7, wobei die jeweilige
Clusterbezeichnung im gesamten Agglomerationsprozess beibehalten bleibt. In
der abschließenden Stufe 11 werden die Cluster 1 und 6 zusammengeführt, so
dass alle Objekte ein Cluster bilden.
 In der Spalte „Koeffizienten“ werden gewöhnlich die Distanzwerte zwischen den
fusionierten Clustern ausgewiesen. Im Fusionierungsprozess des Ward-Verfahrens
werden jedoch nicht diejenigen Objekte zu einem Cluster vereinigt, welche die
geringste Distanz zueinander aufweisen. Anstelle dessen vollzieht sich die
Clusterbildung auf der Grundlage eines vorgegebenen Heterogenitätsmaßes, das
durch die sog. Fehlerquadratsumme (sog. Varianzkriterium) erfasst wird. Dabei
ergibt sich die Streuung innerhalb eines Clusters als die Summe der
Abweichungsquadrate der (standardisierten) Merkmalswerte des Clusters von den
Merkmalsmittelwerten. Aus der Summation der clusterspezifischen Streuungen
erhält man die Fehlerquadratsumme (Gesamtstreuung) einer vorliegenden
Clusteraufteilung. Mit jedem Fusionierungsschritt geht ein Homogenitätsverlust
bzw. ein Heterogenitätszuwachs der Klassifikation in Form einer Steigerung der
Streuung innerhalb der Klassen (within-groups sum of squares) einher. Somit
werden bei Anwendung des Varianzkriteriums der Ward-Methode in jeder Stufe
des Agglomerationsprozesses stets die beiden Cluster zusammengefasst, die zu
32
einer minimalen Erhöhung der Gesamtstreuung führen (vgl. hierzu vertiefend
Bacher et al. 2010, S. 286 ff.; Backhaus et al. 2011, s. 426 ff.). Bei Anwendung
des Ward-Verfahrens zeigen daher die Koeffizienten die für jeweilige
Fusionierungsstufe berechnete Fehlerquadratsumme an. Beispielsweise werden im
zweiten Fusionierungsschritt die Fallnummern 6 (Mercedes) sowie 12 (Volvo
244) zu einem Cluster vereinigt, deren Fehlerquadratsumme 0,020 beträgt. Dieser
Wert ist zwangsläufig höher als die Fehlerquadratsumme des ersten
Fusionierungsschritts.
 In der Spalte „Nächster Schritt“ wird für jede Agglomerationsstufe dargelegt, in
welchem Schritt der gerade neu gebildete Cluster mit einem weiteren Cluster
zusammengeführt wird. So wird z.B. angezeigt, dass die auf der ersten Stufe
gebildete Gruppe (78) erst in Schritt 7 wieder mit einem anderen Cluster
verschmolzen wird. Unter der Überschrift „Erstes Vorkommen des Clusters“
wird zudem angegeben, auf welcher Stufe die betreffende Gruppe in dieser Form
gebildet wurde. Da z.B. im Schritt 1 beide Cluster aus lediglich einem Objekt
bestehen, finden sich in dieser Spalte ausschließlich Nullen. Demgegenüber
erscheint z.B. im Schritt 5 unter „Erstes Vorkommen des Clusters“ eine 3, weil
das betreffende Cluster (410) im dritten Schritt gebildet wurde. Dabei werden
wie bereits erwähnt, die Cluster stets durch das Objekt mit der niedrigsten
Fallnummer gekennzeichnet, das ihm angehört. Dies bedeutet, dass sich im vorliegenden Beispiel die Nummer 4 auf das im dritten Schritt gebildete Cluster
(411) bezieht, während die Nummer 10 das nunmehr neu hinzugefügte
Einzelobjekt 10 (Simca) anzeigt.
 Der Agglomerationstabelle ist schließlich zu entnehmen, dass die Zunahme der
Fehlerquadratsumme zunächst vergleichsweise gering ist, während diese auf den
späteren Stufen größer wird und insbesondere bei den Schritten 9 und 10
deutliche Varianzsprünge aufweist. Dies bedeutet, dass die auf den unteren Stufen
gebildeten Cluster noch vergleichsweise homogen sind, während die darauffolgenden Schritte zunehmend heterogene Cluster erzeugen.
Das Eiszapfen-Diagramm bildet eine Darstellungsalternative zur Agglomerationstabelle. Es beschreibt, von unten nach oben gelesen, gleichfalls die einzelnen
Schritte der Clusterung (vgl. Abbildung 12):
 Jede Zeile des Eiszapfen-Diagramms bezieht sich auf eine Stufe des
Fusionierungsverlaufes, wobei die unterste Zeile den ersten Agglomerationsschritt
abbildet. Die von oben nach vollständig ausgefüllten Säulen repräsentieren jeweils
ein Objekt, z.B. stellt die erste Säule das Objekt „Renault 20“ dar.
 In der untersten Zeile sind z.B. die benachbarten Objekte „Mercedes“ und
„Simca“ durch einen Freiraum voneinander getrennt. Damit wird angezeigt, dass
die beiden Modelle im ersten Agglomerationsschritt zu unterschiedlichen Clustern
gehören. Demgegenüber sind die benachbarten Objekte „Peugeot 244 und „Opel
Rekord“ nicht durch einen Freiraum voneinander getrennt, sondern durch eine
ausgefüllte Fläche miteinander verbunden. Damit wird angezeigt, dass die
betreffenden Objekte in der ersten Fusionierungsstufe zu einem Cluster vereint
werden.
33
Abbildung 12: Eiszapfen-Diagramm
 Die auf jeder Stufe vorhandene Clusterzahl durch die Diagrammachse „Anzahl
der Cluster“ angezeigt. Nach der ersten Agglomerationsstufe bestehen
dementsprechend 11 Cluster, von denen 10 Cluster jeweils nur ein einzelnes PkwModell umfassen und ein Cluster die beiden Objekte „ Peugeot 244“ und „Opel
Rekord“ enthält. Im nächsten Schritt (bzw. der Clusterzahl 10) findet eine
Zusammenlegung der Fälle 12 (Volvo 244) und 6 (Mercedes) statt. Im letzten
Schritt der Agglomeration sind alle Fälle in einem Cluster vereint und durch eine
geschlossene Fläche miteinander verbunden.
Sowohl die Agglomerationstabelle als auch das Eiszapfen-Diagramm bieten einen
teilweise unübersichtlichen Einblick in den Fusionierungsprozess. Eine visuell
ansprechendere und mit größerem Informationsgehalt ausgestatte Darstellung liefert
das im folgenden Abschnitt erläuterte Dendrogramm.
34
3.5 Bestimmung der Clusterzahl
Zur Bestimmung der „optimalen“ Clusterzahl stellt die Clusteranalyse keine
statistischen Beurteilungskriterien bereit. Ersatzweise bedarf es daher sachlogischer
Überlegungen, die durch drei SPSS-Ausgaben unterstützt werden können:
den Distanzkoeffizienten in der Agglomerationstabelle,
dem Dendrogramm sowie
dem Struktogramm.
Einen ersten Hinweis auf eine sachgemäße Clusterzahl kann die Analyse der
Distanzkoeffizienten in der Agglomerationstabelle (vgl. Tabelle 16) liefern.
Hiernach ist es plausibel, den Verschmelzungsprozess generell an jener Stelle
abzubrechen, bei der ein deutlicher Sprung des betreffenden Distanzkoeffizienten
auftritt, da andernfalls unähnliche bzw. heterogene Cluster zusammengefasst werden.
Im vorliegenden Beispiel ist mit Übergang vom Agglomerationsschritt 9 nach Schritt
10 eine deutliche Sprungstelle verbunden, denn hiermit geht ein Zuwachs des
Heterogenitätsmaßes, d.h. der Fehlerquadratsumme von 5,95 nach 12,84 einher.
Diese Sprungstelle kann als Entscheidungskriterium für eine sachgemäße
Clusteranzahl dienen, so dass es sich hier anbietet, eine Drei-Clusterlösung zu
verwenden.
Ein Dendrogramm (Baumdiagramm) beschreibt das schrittweise Zusammenfassen
von Fällen in schematischer Form. Das beispielhafte Dendrogramm der Abbildung
13 ist von links nach rechts zu lesen und dokumentiert in dieser Richtung die
einzelnen Stufen des Fusionierungsablaufs. Jede Zeile des Diagramms repräsentiert
ein einzelnes Objekt. Jene Objekte, die durch eine senkrechte Linie miteinander
verbunden sind, gehören einem gemeinsamen Cluster an. Die Distanz der Cluster
wird durch die Länge der waagerechten Linie angezeigt und mittels der Skala
„Kombination skalierter Abstands-Cluster“ quantifiziert. Die in der Skala
abgetragenen Distanzwerte entsprechen allerdings nicht den in der
Agglomerationstabelle enthaltenen tatsächlichen Distanzwerten. Stattdessen werden
die Distanzen mittels einer speziellen Transformationsmethodik auf einen
Wertebereich von 0 bis 25 umgerechnet, um die Relationen der Distanzunterschiede
optisch hervorzuheben (vgl. dazu ausführlich Rudolf/Müller 2012, S. 289 f.). Beim
Ward-Verfahren besteht allerdings eine Besonderheit darin, dass die Koeffizienten
der Agglomerationstabelle und somit auch Werte der Distanzskala des
Baumdiagramms nicht die Clusterdistanzen, sondern die Werte des Heterogenitätsmaßes bzw. der Fehlerquadratsumme zum Ausdruck bringen. So entspricht z.B. die
in der letzten Zeile der Zuordnungstabelle ausgewiesene Fehlerquadratsumme von 22
dem im Dendrogramm angezeigten Skalenwert von 25.
35
Abbildung 13: Dendrogramm für die Beispieldaten
Für das vorliegende Beispiel kann der Fusionierungsprozess anhand des Dendrogramms auszugsweise wie folgt beschrieben werden:
 Das Dendrogramm startet mit der n-Clusterlösung, d.h. zunächst bildet jedes
einzelne Objekt ein Cluster. Auf der Ebene der einzelnen Objekte weist das
Heterogenitätsmaß daher zunächst den Wert 0 auf. Je länger im anschließenden
Fusionierungsprozess die waagerechte Linie wird, desto größer ist die Zunahme
der Heterogenität.
 In den ersten vier Fusionierungsschritten wurden vier Cluster gebildet. Diese
bestehen aus den Markenpaaren „Opel RekordPeugeot 244“, „Mercedes
200Volvo 244“, „Audi 80Citroen GSX“ und „Fiat 131VW Passat“. Die
damit verbundene Heterogenitätszunahme ist vergleichsweise gering, da die
geclusterten Objekte einander noch relativ ähnlich sind.
 Anschließend wurden einerseits das Objekt „Taunus“ dem bereits bestehenden
Cluster „Audi 80Citroen GSX“ zugeordnet und andererseits das Objekt
„Simca“ dem ebenfalls bereits gebildeten Cluster „Fiat 131VW Passat“
zugewiesen.
 In der nächsten Fusionierungsstufe wurden die beiden Cluster „Opel
RekordPeugeot 244“ und „Mercedes 200Volvo 244“ zu einem gemeinsamen
Cluster verbunden.
 Im letzten Schritt wurde ein globales, aus sämtlichen 12 Pkw-Modellen
zusammengesetztes Cluster gebildet.
36
Bezüglich der Entscheidung über die „optimale“ Clusterzahl, ist es sinnvoll, den
Verschmelzungsprozess an jener Stelle des Dendrogramms zu beenden, die durch
einen großen Distanzsprung gekennzeichnet ist bzw. bei der sich die Heterogenität
sprunghaft erhöht. Denn ein überproportionaler Varianzzuwachs signalisiert, dass die
weitere Verringerung der Clusterzahl im Vergleich zur bisherigen Gruppenzahl zu
einer überproportionalen Zunahme der gruppeninternen Heterogenität führt.
Graphisch bedeutet dies, dass die Länge der waagerechten Linien Rückschlüsse auf
die sinnvolle Clusterzahl gewährt. Legt man daher eine senkrechte Parallele durch
das Dendrogramm, so lässt sich die formelle Regel formulieren, dass die optimale
Anzahl der Cluster der Anzahl der Schnittpunkte mit den waagrechten Linien
entspricht. Im Beispiel der Abbildung 13 wurde exemplarisch eine gestrichelte
Parallele eingetragen, die dem Heterogenitätswert h1 entspricht. Diese schneidet drei
waagerechte Linien, so dass sich eine Drei-Clusterlösung ergibt.
Zur Bestimmung der Clusterzahl kann ergänzend ein Struktogramm verwendet
werden, das eine grafische Darstellung der Agglomerationstabelle beinhaltet. Das
Struktogramm bildet allerdings keinen Bestandteil der Clusterprozedur von SPSS.
Insofern bietet es sich beispielsweise an, die Agglomerationstabelle in ein ExcelTabellenblatt zu exportieren und mit den relevanten Daten ein Liniendiagramm zu
erstellen (vgl. Abbildung 14). Im Struktogramm sind die Koeffizientenwerte der
Agglomerationstabelle an der Ordinate und die Clusteranzahl an der Abzisse
abzutragen. Bei dessen Beurteilung kann die Ein-Clusterlösung generell vernachlässigt werden, da sich beim Übergang von einer Zwei- zur Ein-Clusterdarstellung
stets der größte Heterogenitätssprung ergibt (vgl. Backhaus et al. 2011, S. 437). Für
unser Beispiel legt das Struktogramm in Abbildung 14 gleichfalls eine DreiClusterlösung nahe, da dort ein deutlicher „Knick“ erkennbar ist.
Abbildung 14: Beispieldaten und Struktogramm in Excel
37
3.6 Beschreibungen von Clusterprofilen
In einem weiteren Schritt der Clusteranalyse sind die ermittelten Cluster inhaltlich zu
kennzeichnen. Die Beschreibung von Clusterprofilen umfasst generell drei Aspekte:
die Clusterzuordnung der einzelnen Fälle,
die Ermittlung von clusterspezifischen Maßzahlen (z.B. Mittelwert) und
die Clusterbeschreibung mit Hilfe zusätzlicher
Variablen, die bei der
Clusterbildung nicht als Klassifizierungsvariablen verwendet wurden (sog.
Passualvariablen; vgl. hierzu das Beispiel in Kapitel 5.1). Im vorliegenden Fall
beinhaltet der untersuchte Datensatz keine Zusatzvariablen, so dass die Clusterbeschreibung allein auf Basis der Klassifizierungsvariablen erfolgt.
Die Gruppenzugehörigkeit bei alternativen Clusterlösungen kann der Zuordnungstabelle entnommen werden. Hiernach setzen sich die Cluster für die von uns
bevorzugte Drei-Gruppenlösung wie folgt zusammen (vgl. Tabelle 17):
 Cluster 1: Audi 80Citroen GSX Ford Taunus,
 Cluster 2: BMW 320 Fiat 131SimcaVW Passat,
 Cluster 3: Mercedes 200Opel RekordPeugeot 244Renault 20Volvo 244.
Tabelle 17: Clusterzuordnungen der Beispielobjekte
Sofern die Clusterbildung auf der Basis von lediglich zwei metrischen Variablen
durchgeführt wurde, kann die Clusterzugehörigkeit der Objekte auch in Form eines
SPSS-Streudiagramms veranschaulicht werden. Hierzu speichern wir zunächst im
Dateneditor von SPSS die neue Gruppenvariable CLU3_1, welche die Clusterzugehörigkeit der zwölf Pkw-Modelle enthält. Für unser Beispiel erhält man die
Verteilung der Objekte im Clusterraum der Abbildung 15.
38
Abbildung 15: Streudiagramm zur Clusterzugehörigkeit
Daneben umfasst eine Clusterinterpretation die Herausarbeitung von gruppentypischen Merkmalsprofilen. Hierzu ermittelt man gewöhnlich eine Reihe von
skalenabhängigen, deskriptiven Maßzahlen (z.B. den Cluster-Mittelwert), anhand
derer die verschiedenen Cluster miteinander verglichen werden. Aus
Darstellungsgründen ist es sinnvoll, dazu das flexibel zu handhabende SPSS-Menü
„Analysen/Tabelle“ zu verwenden und eine sog. benutzerdefinierte Tabelle zu
erstellen. Im betreffenden Dialogfenster verschieben die die Clustervariable in die
Zeile und die beiden Klassifizierungsvariablen in die Spalten der Vorschautabelle
(vgl. Abbildung 16). Mit Hilfe der Schaltfläche Auswertungsstatistik wählen Sie die
Maßzahlen „Mittelwert“, Anzahl“ und „Anzahl als Spaltenprozent“ aus.
Abbildung 16: Dialogfenster Benutzerdefinierte Tabelle
39
Den daraus resultierenden Vergleich der Clusterprofile gibt die Tabelle 18 wider.
Tabelle 18: Deskriptive Clusterstatistiken
Demnach können die Clusterprofile wie folgt gekennzeichnet werden:
 Die drei Cluster wurden auf der Grundlage von (z-standardisierten) Faktorwerten
gebildet. Faktorwerte weisen einen Mittelwert von 0 sowie eine Varianz von 1
auf: Ein Faktorwert von 0 indiziert somit, dass das Objekt eine lediglich
durchschnittliche Ausprägung besitzt. Demgegenüber zeigt
ein positiver
(negativer) Faktorwert an, dass das betreffende Objekt eine im Vergleich zu allen
anderen Objekten überdurchschnittliche (unterdurchschnittliche) Ausprägung
aufweist.
 Die Faktorwerte der dem Cluster 1 zugehörigen Marken sind durch eine jeweils
unterdurchschnittliche
Ausprägung
bezüglich
beider
Clustervariablen
gekennzeichnet (vgl. auch Abbildung 15). Die daraus resultierenden Mittelwerte
des Clusters 1 sind jeweils negativ, so dass sich diese Gruppe mit dem Begriff
„Leistungsschwache Pkw-Modelle“ umschreiben lässt.
 Im Cluster 2 befinden sich Marken, deren Faktorwerte hinsichtlich der
Sportlichkeitsdimension überdurchschnittliche Ausprägungen und bezüglich der
Geräumigkeitsdimension
lediglich
unterdurchschnittliche
Ausprägungen
aufweisen. Daher liegt es nahe, diese Gruppe als „Sportliche Pkw-Modelle“ zu
bezeichnen.
 Die dritte Gruppe enthält Marken, deren Faktorwerte bezüglich der
Sportlichkeitsdimension als nahezu durchschnittlich und hinsichtlich der
Geräumigkeitsdimension als überdurchschnittlich einzustufen sind. Demzufolge
kann diese Gruppe mit der Bezeichnung „Geräumige Pkw-Modelle“ versehen
werden.
 Bezogen auf die Gesamtzahl der Fälle betragen die Besetzungsanteile für das
erste Cluster 25%, für Cluster 2 ca. 33,3% und für Cluster 3 ca. 41,7 %.
Im Fall von metrischen (bzw. standardisierten) Klassifizierungsvariablen können
deskriptive Clusterstatistiken u.a. mit Hilfe von Boxplotdiagrammen veranschaulicht werden. Für unser Beispiel erhält man die in Abbildung 17 dargestellten
zwei Boxplotdiagramme. Ein sog. einfaches Boxplotdiagramm beinhaltet für jede
auf der x-Achse dargestellte kategoriale Clustervariable eine Reihe deskriptiver
Maßzahlen zur Beschreibung einer Klassifizierungsvariablen. Die untere Kante der
Kästchen (Boxen) zeigt den 25-Prozentwert (25. Perzentil = 1. Quartil), die obere
Kante hingegen den 75–Prozentwert (75. Perzentil = 3. Quartil) an. Die waagerechte Linie entspricht dem Median (50-Prozentwert, Zentralwert = 2. Quartil).
Daneben werden durch senkrechte Linien mit Querbalken (sog. whiskers) der
40
jeweils höchste und geringste Wert einer Variablen angezeigt. Ein Vergleich der
Clustermediane bestätigt die zuvor erläuterte Kennzeichnung der drei Cluster. So
weist beispielsweise Cluster 3 („Geräumigkeitscluster“) einen überdurchschnittlich
hohen Median hinsichtlich der Geräumigkeitsvariablen auf. Zusätzlich werden in
einem Boxplot die Extremwerte, d.h. Fälle, die mit mehr als drei Kästchenlängen
vom oberen bzw. unteren Kästchenrad entfernt liegen, durch einen Stern angezeigt.
Im Beispiel wird der dem Cluster 3 angehörige Renault (Fall 9) als Extremwert
hinsichtlich seines Faktorwertes in der Sportlichkeitsvariablen (= 1,09; vgl. auch
Tabelle 13) ausgewiesen.
Abbildung 17: Einfache Boxplotdiagramme der Clustervariablen
Die Interpretation von Clustern kann durch die Berechnung von clusterspezifischen
t-Werte unterstützt werden (vgl. Backhaus et al. 2011, S. 446 f.). Den t-Wert einer
Variablen erhält man, indem zunächst vom Mittelwert der Variablen in einem Cluster
der Mittelwert dieser Variablen in den Ausgangsdaten subtrahiert wird und
anschließend durch deren Standardabweichung in der Erhebungsgesamtheit dividiert
wird:
t
X ( J , G)  X ( J )
S(J )
mit:
X ( J , G ) = Mittelwert der Variable J über die Objekte der Gruppe G
X (J )
S(J )
= Gesamtmittelwert der Variable J in der Erhebungsgesamtheit
= Standardabweichung der Variable J in der Erhebungsgesamtheit
Negative t-Werte verweisen darauf, dass die betreffende Variable im Vergleich zur
Erhebungsgesamtheit eher unterdurchschnittliche Werte annimmt. Demgegenüber
zeigt ein positiver t-Wert an, dass die Variable in der Gruppe im Vergleich zur
Erhebungsgesamtheit überrepräsentiert ist. T-Werte bilden allerdings keinen
Bestandteil der SPSS-Ausgabe, so dass die erforderlichen Berechnungen mit Hilfe
von z.B. Excel durchzuführen sind. Zwecks einer vertiefenden Einsicht in die
Clusterstrukturen berechnen wir in unserem Beispiel die t-Werte nicht auf Grundlage
der Faktorwerte, sondern auf Basis der Merkmalsausprägungen der Ausgangs41
variablen. Hiernach erhalten wir die in Tabelle 19 angeführten t-Werte. Für die
Variable „Länge“ erhält man beispielweise eine Standardabweichung bezüglich aller
zwölf Fälle in Höhe von 221,03 (Excel-Tabellenfunktion: STABW.S). Der
Mittelwert dieser Variablen beträgt im ersten Cluster 4281,0 und in der
Erhebungsgesamtheit 4404,90. Somit ergibt sich der t-Wert für die Variable „Länge“
im Cluster 1 als:
t
4281  4409,90
 0,56
221, 03
Die t-Werte bestätigen die zuvor formulierten Clusterbeschreibungen: So ist
beispielsweise für das Cluster 1 („Leistungsarme Klasse“) zu erkennen, dass
sämtliche Variablen (mit Ausnahme der „Beschleunigung“) einen negativen t-Wert
aufweisen. Das Sportlichkeits-Cluster 2 hingegen ist insbesondere durch positive tWerte bezüglich der PS-Zahl sowie der Geschwindigkeit gekennzeichnet.
Tabelle 19: Excel-Tabelle zur Ermittlung von t-Werten für die Drei-Clusterlösung
42
3.7 Gütebeurteilungen der Clusterlösung
Den abschließenden Schritt einer Clusteranalyse bildet eine Beurteilung hinsichtlich
der internen Homogenität,
der externen Heterogenität sowie
der Stabilität
der erzeugten Clusterlösung.
Ein Kriterium zur Überprüfung der internen Homogenität eines Clusters stellt der
sog. F-Wert dar (vgl. Backhaus et. al. 2011, S. 446 f.). Dieser ergibt sich aus der
Division der Varianz (V) einer Klassifizierungsvariablen (J) in der Erhebungsgesamtheit und der Varianz dieser Variablen in einer Gruppe (VG) und somit als:
V ( J , G)
.
V (J )
Je kleiner demnach der F-Wert ist, desto geringer ist die Streuung dieser Variablen in
einer Gruppe im Vergleich zur Erhebungsgesamtheit. Ein Cluster kann demnach als
vollkommen homogen beurteilt werden, wenn die F-Werte für alle Klassifizierungsvariablen kleiner als Eins sind. Wie bereits angesprochen, bilden die beiden
faktoriellen Klassifikationsvariablen in unserem Beispiel jeweils standardisierte
Werte, so dass in der Erhebungsgesamtheit der Mittelwert gleich 0 ist und die
Varianz den Wert 1 aufweist. Das hat zur Folge, dass die Varianz der Clustervariablen in den Gruppen gleich dem F-Wert ist. Aus diesem Grund empfiehlt es
sich, F-Werte für die jeweils „hinter den Faktoren“ stehenden Ausgangsvariablen zu
berechnen. Das nicht in SPSS ausgewiesene und daher mit Excel ermittelte Ergebnis
ist der nachstehenden Tabelle 20 zu entnehmen.
F
Tabelle 20: Excel-Tabelle zur Ermittlung von F-Werten für die Drei-Cluster-Lösung
43
Für die Variable „Länge“ erhält man beispielweise eine Varianz bezüglich aller
zwölf Fälle in Höhe von 48.854, 75 (Excel-Tabellenfunktion: VARIANZA). Die
Varianz dieser Variablen weist im ersten Cluster den Wert 19.903 auf. Demzufolge
ergibt sich der F-Wert für die Variable „Länge“ im Cluster 1 als:
19.903
 0, 41
48.854, 75
Die variablenspezifischen F-Werte besitzen überwiegend einen Wert von kleiner
Eins (Ausnahme: Variable „PS“ in Cluster 2), so dass der Homogenitätsgrad der
Drei-Clusterlösung insgesamt zufriedenstellend ist.
F
Zur Überprüfung der externen Clusterheterogenität können sowohl Diskriminanzanalysen (vgl. Müller 2015b) als auch Varianzanalysen durchgeführt werden. So ist
z.B. mittels einer Varianzanalyse zu untersuchen, ob sich die Cluster im Hinblick auf
ihre Mittelwerte bezüglich der Klassifizierungsvariablen signifikant voneinander
unterscheiden. Im vorgegebenen Fall führen zwei einfaktorielle Varianzanalysen zum
Ergebnis, dass jeweils hoch-signifikante Mittelwert-unterschiede - angezeigt durch
die sog. empirischen Signifikanzniveaus in Höhe von 0,00 - zwischen den Clustern
vorliegen (vgl. Tabelle 21).
Tabelle 21: SPSS-Dialogbox und Ergebnisse einfaktorieller Varianzanalysen
Eine Stabilitätsprüfung beinhaltet den Vergleich der vorliegenden Clusterlösung
mit jenen Clusterergebnissen, die sich bei Anwendung alternativer Fusionierungsverfahren ergeben. Für unser Beispiel erbringt z.B. das Linkage-zwischen-den
Gruppen-Verfahren auf Basis des Quadrierten Euklidischen Distanzmaßes das in
Tabelle 22 angeführte Ergebnis.
44
Tabelle 22: Clusterzugehörigkeit der Pkw-Modelle
Hiernach sind im Vergleich zur Drei-Clusterlösung des Ward-Verfahrens drei
Modelle bzw. 25% der Fälle anderen Gruppen zugeordnet worden: Fiat 131 gehört
nun nicht mehr der Gruppe 2, sondern dem Cluster 1 an. Darüber hinaus werden
nunmehr „Simca“ als auch “Volvo 244“, die nach der Ward-Lösung jeweils der
Gruppe 2 angehören, der Gruppe 1 bzw. der Gruppe 3 zugewiesen. Ferner ist
augenfällig, dass bei Anwendung des Average-Linkage-Verfahrens der „BMW 320“
als „Ausreißer“ zu charakterisieren ist, denn dieser bildet auch bei einer Vier-Clusteroder einer Zwei-Clusterlösung stets das einzige Clusterelement.
Zusammenfassend bliebt festzuhalten, dass die mit dem Ward-Verfahren erzeugte
Drei-Clusterlösung sowohl inhaltlich interpretierbar ist als auch der Güteforderung
nach intern homogenen sowie extern heterogenen Clustern gerecht wird.
Abschließend bietet sich daher an, die in der SPSS-Datendatei „Hierarchische
Clusteranalyse-Pkw“ eingefügte neue Variable der Drei-Clusterlösung „CLU3_1“
mit den gruppenspezifischen Wertelabels zu versehen (vgl. Abbildung 18) und zu
speichern.
Abbildung 18: Wertelabels der Gruppenvariable CLU3_1
45
4. Partitionierende Clusteranalysen
4.1 Verfahrensmerkmale der Clusterzentrenanalyse (K-Means-Verfahren)
Die in den vorangegangen Abschnitten beschriebene hierarchische Clusteranalyse
bietet Anwendern den Vorteil, eine flexible Handhabung bei der Wahl von
Proximitätsmaßen sowie von Fusionierungsalgorithmen zu ermöglichen. Darüber
hinaus kann jeder einzelne Schritt der Clusterbildung tabellarisch und/oder grafisch
dargestellt und dadurch die Festlegung einer Clusteranzahl unterstützt werden.
Diesen Vorzügen steht jedoch der gravierende Nachteil gegenüber, dass
hierarchische Ansätze sehr umfangreiche Berechnungen erfordern, da in jedem
Fusionierungs-schritt eine neue Distanzmatrix ermittelt werden muss und
demzufolge bei großen Fallzahlen der Rechenaufwand überproportional zunimmt.
In der Marketingpraxis sind hingegen recht häufig große Datendateien (z.B. bei der
Abgrenzung von Käufertypologien) clusteranalytisch auszuwerten. Hierzu bietet sich
die Clusterzentrenanalyse (K-Means-Analyse, Quick Clustering) an, die im Zuge
ihrer iterativen Zuordnung von Objekten in eine bereits bekannte bzw. vorzugebende
Clusteranzahl, eine vergleichsweise schnelle Clusteroptimierung erzeugen kann.
Die Clusterzentrenanalyse ist durch eine Reihe von Verfahrensbesonderheiten
gekennzeichnet (vgl. Bacher et al. 2010, S. 300 ff.; Bortz/Schuster 2010, S. 475 ff.):
 Vorgabe der Clusteranzahl: Die K-Means-Analyse geht von einer vorgegebenen
Anzahl von k Clustern aus, die – im Gegensatz zu hierarchischen Verfahren unverändert bleibt. Wenn nicht bereits aufgrund von Vorinformationen eine
bestimmte Anzahl an Clustern vorgegeben werden kann, empfiehlt es sich, diese
mittels einer hierarchischen Clusteranalyse zu bestimmen. Dabei kann es im Fall
von großen Objektmengen zweckmäßig sein, die hierarchische Clusterbildung auf
der Grundlage einer Zufallsstichprobe von Objekten durchzuführen.
 Vorgabe der Clusterzentren: Eine weitere Besonderheit betrifft den Aspekt,
dass der Anfangswert für das Zentrum (bzw. arithmetische Mittel) jedes einzelnen
Clusters bekannt sein muss. Denn bei der Clusterzentrenanalyse wird jedes Objekt
jenem Cluster zugeordnet, zu dessen Zentrum seine euklidische Distanz am
geringsten ist (Minimal-Distanz-Kriterium). Hierdurch entfällt der rechenintensive
paarweise Vergleich der hierarchischen Fusionierungsalgorithmen und führt damit
- ebenso wie die Vorgabe der Clusterzahl - zu einer Verringerung des
Rechenaufwandes. Die Ermittlung von Clusterzentren lässt sich in zweifacher
Weise vornehmen: Zum einen kann man diese mit Hilfe einer vorgeschalteten
hierarchischen Clusteranalyse bestimmen. Dabei werden zunächst die Mittelwerte
der Klassifizierungsmerkmale für jedes Cluster berechnet, diese sodann in einer
eigenständigen Datendatei gespeichert und anschließend in die Clusterzentrenanalyse importiert. Zum anderen besteht die Möglichkeit, die Startwerte für die
Clusterzentren von SPSS ermitteln zu lassen. In beiden Fällen bilden die
Anfangswerte jedoch nur vorläufige Clusterzentren, die im darauffolgenden
Analyseprozess verändert werden.
 Metrische Klassifizierungsvariablen: Die Clusterzentrenanalyse setzt metrische
Clustervariablen voraus. Wenn diese unterschiedliche Messdimensionen
aufweisen, ist eine Standardisierung der Variablenwerte notwendig. Allerdings
46
bietet SPSS hierzu bei der Clusterzentren-Prozedur keine entsprechende
Verfahrensoption an. Deshalb ist die betreffende Rohdatenmatrix bereits vor der
Durchführung einer Clusterzentrenanalyse zu standardisieren.
 Iterationsprozess: Die Clusterzentrenanalyse strebt an, Objekte anhand ihrer
Merkmalausprägungen solcherart den vorgegebenen Clustern zuzuordnen, dass
die Streuungsquadratsumme in den Clustern minimiert wird. Die Streuungsquadratsumme kann – ebenso wie in der Varianzanalyse - als Fehlerstreuung, d.h.
jene Streuung interpretiert werden, die nicht durch die Cluster erklärt wird. Im
Unterschied zum gleichfalls streuungsminimierenden Ansatz des WardVerfahrens, erfolgt die Clusterbildung jedoch nicht hierarchisch. Stattdessen
erfolgt die Objektzuordnung zu Clustern mittels eines partitionierenden Algorithmus, der als zulässiges Distanzmaß die Euklidische Distanz verwendet.
Im ersten Schritt des Iterationsprozesses wird eine Startlösung generiert, in der
sämtliche Objekte den vorgegebenen k Clustern zufällig zugeordnet sind. Nach
der Zuweisung aller Objekte werden im zweiten Schritt die Clusterzentren neu
berechnet. In der darauffolgenden dritten Iterationsstufe werden die Clusterobjekte
jener Gruppe zugeordnet, zu dem die quadrierte Euklidische Distanz am
geringsten ist. Auf diese Weise wird in jedem Schritt des Iterationsprozesses die
Streuungsquadratsumme in den Clustern minimiert. Besitzt beispielsweise ein
Objekt zum Zentrum der eigenen Gruppe eine größere Distanz als zu einem
anderen Cluster, dann wird dieses Objekt regruppiert, d.h. in dieses Cluster
verschoben und es erfolgt eine Neuberechnung der Zentren beider Cluster. Die
vorangegangenen Iterationsschritte werden so lange wiederholt, bis sich jedes
Objekt in einem Cluster befindet, zu dessen Zentrum es im Vergleich zu den
übrigen Clustern die geringste Distanz aufweist oder eine vorgegebene Anzahl
von Iterationen erreicht ist.
Im Folgenden soll die Durchführung einer Clusterzentrenanalyse anhand zweier
Beispiele demonstriert werden. Das erste Fallbeispiel bezieht sich auf eine
Analysesituation, in der die Clusterzentren bekannt sind, während im zweiten
Beispiel keine Vorinformationen über Clusterzentren vorliegen.
47
4.2 K-Means-Analyse bei bekannten Clusterzentren
Das im vorangegangenen Abschnitt erläuterte Fallbeispiel zur hierarchischen
Clusteranalyse hat ergeben, dass die betrachteten zwölf Pkw-Modelle in drei Cluster
aufgeteilt werden können. Mit Hilfe einer Clusterzentrenanalyse soll nun überprüft
werden, ob sich die Zuordnung der Pkw-Modelle zu den vorgegebenen Clustern
verbessern lässt. Die benötigten Anfangswerte der drei Clusterzentren wollen wir im
allerdings nicht von SPSS ermitteln lassen. Vielmehr sollen diese auf der Grundlage
einer hierarchischen Clusteranalyse berechnet werden und als Dateninput der
Clusterzentrenanalyse dienen.
Im Fall von bekannten Clusterzentren vollzieht sich die Clusterzentrenanalyse in vier
Phasen:
1) Ermittlung von Clusterzentren,
2) Erstellung der Clusterzentren-Datenmatrix,
3) Festlegung der SPSS-Auswertungsmethodik,
4) Interpretation der Ergebnisse
Ermittlung von Clusterzentren
Im Beispiel der Pkw-Modelle ergeben sich die anfänglichen Clusterzentren als zu
bestimmen, sind die clusterspezifischen Mittelwerte hinsichtlich der beiden
Klassifizierungsvariablen „Geräumigkeit“ und „Sportlichkeit“ zu bestimmen. Hierzu
öffnen wir die Datei „Hierarchische Clusteranalyse-Pkw“ und speichern diese
zunächst unter der neuen Bezeichnung als „Clusterzentrenanalyse -Pkw“.
Im nächsten Schritt sind die Clusterzentren zu berechnen. Hierzu führen wir mittels
der SPSS-Befehlsfolge „Analysieren/Mittelwerte vergleichen/Mittelwerte...“ einen
Mittelwertvergleich der drei Cluster (unabhängige Variable: „Ward-Method Clu_3“)
durch (vgl. Abbildung 19).
Abbildung 19: Dialogbox „Mittelwerte vergleichen/Mittelwerte...“
Die ermittelten Mittelwerte bzw. durchschnittlichen Faktorwerte je Cluster werden in
der nachstehenden Tabelle 23 ausgewiesen (vgl. auch Tabelle 18).
48
Tabelle 23: Durchschnittliche Faktorwerte der 3-Clusterlösung
Erstellung der Clusterzentren-Datenmatrix
Damit die SPSS-Prozedur Clusterzentrenanalyse auf die durchschnittlichen Faktorwerte je Cluster zurückgreifen kann, sind diese als anfängliche Clusterzentren in
einer eigenständigen Datendatei einzugeben und zu speichern. Die ClusterzentrenDatei erfordert einen speziellen Aufbau, der für das vorliegende Beispiel in der
Tabelle 24 dargestellt ist. Diese Datei, die wir unter dem Namen „ClusterzentrenPkw“ speichern, muss als erste Variable eine Clustervariable mit dem Wertebereich
von 1 bis w (hier: w = 3) enthalten. Darüber hinaus muss die Variable unter der
Bezeichnung „Cluster_“ definiert werden. In den darauffolgenden Spalten ist für jede
einzelne Klassifizierungsvariable der jeweilige Clustermittelwert einzugeben, wobei
darauf zu achten ist, dass die Variablenbezeichnungen mit denen in der verwendeten
Clusterdatendatei (hier: Clusterzentrenanalyse-Pkw) übereinstimmen.
Tabelle 24: Datei „Clusterzentren-Pkw“
SPSS-Auswertungsmethodik
Zur Durchführung der Clusterzentrenanalyse gehen wir in den nachfolgenden
Schritten vor:
(1) Zunächst wird die Datei „Clusterzentrenanalyse-Pkw“ geöffnet, in der die
zwölf Pkw-Modelle, deren technischen Merkmalsausprägungen sowie die
jeweiligen Faktorwerte in den beiden Klassifizierungsvariablen „Geräumig-keit“
und „Sportlichkeit“ enthalten sind (vgl. Abbildung 20).
(2) Führen Sie dort die Befehlsfolge „Analysieren/Klassifizieren/Clusterzentrenanalyse...“ aus.
49
Abbildung 20: Datei „Clusterzentrenanalyse-Pkw“
(3) Hierauf öffnet sich die Dialogbox „Clusterzentrenanalyse“ (vgl. Abbildung 21)
Abbildung 21: Dialogfeld „Clusterzentrenanalyse“
► Überführen Sie dort die (standardisierten) Klassifizierungsvariablen
„Geräumigkeit“ und „Sportlichkeit“ in das Feld „Variablen“.
► Als Fallbeschriftung verwenden wir die Variable „Marke“.
► Geben Sie in das Feld „Anzahl der Cluster“ die Zahl 3 ein.
► Im Feld „Methode“ behalten wir die Voreinstellung „Iterieren und
Klassifizieren“ bei, da generell nicht davon ausgegangen werden kann, dass
eine optimale Objektzuordnung bereits nsch dem ersten Iterationsschritt
gewonnen wird.
50
► Um SPSS mitzuteilen, dass auf bekannte Clusterzentren zurückgegriffen
werden kann, klicken wir im Feld „Clusterzentren“ auf das Kästchen
„Anfangswerte einlesen aus“ und dann auf die Schaltfläche „Datei“. Es öffnet
sich die Dialogbox „ Clusterzentrenanalyse: Aus Datei einlesen“, in der wir
im Feld „Datei“ jene Datei öffnen, in der die anfänglichen Clusterzentren
enthalten sind bzw. im vorliegenden Beispiel die zuvor erstellte Datei
„Clusterzentren-Pkw“.
► Wir kehren zur Dialogbox „Clusterzentrenanalyse“ zurück und können dort
die Option „Endwerte schreiben in“ aktivieren, mit der SPSS dazu veranlasst
wird, die aus der Analyse resultierenden (finalen) Clusterzentren in einer
Datendatei zu speichern. Diese können beispielsweise als Startwerte der
Cludterzrntren in weiteren Clusteranalysen verwendet werden. Wir belassen
die deaktivierte Voreinstellung und klicken auf die Schaltfläche „Iterieren“
(4) Die Dialogbox „Clusterzentrennalyse: Iterieren“ wird geöffnet (vgl. Abbildung
22). Standardmäßig wird, ausgehend von den anfänglichen Clusterzentren, jeder
Fall jeweils jenem Cluster zugeordnet, zu dessen Zentrum er die geringste
euklidische Distanz besitzt. Nachdem die Fälle zugeordnet sind, werden die
Clusterzentren neu berechnet und die Zuordnung wird wiederholt. Der Prozess
wird iterativ solange fortgeführt, bis die eingestellte maximale Zahl an
Iterationen, die zwischen 1 und 999 Schritte umfassen kann, erreicht oder das
Konvergenzkriterium erfüllt ist. Das Konvergenzkriterium bestimmt den
Abbruch des Iterationsprozesses und gibt den Anteil der minimalen Distanz
zwischen anfänglichen Clusterzentren an. Wenn wir einen Konvergenzwert von
z.B. 0,05 festlegen, dann ist der Zuordnungsprozeß dann beendet, wenn eine
vollständige Iteration keines der Cluster-Zentren um mehr als fünf Prozent der
kleinsten Distanz zwischen zwei Cluster-Zentren der Ausgangslösung verschiebt.
Sofern die Option „Gleitende Mittelwerte verwenden“ gewählt wird, so wird das
Clusterzentrum nach jedem Fall akutalisiert, ansonsten erst nachdem alle Fälle
hinzugefügt wurden.
► Wir belassen die Voreinstellungen und bestätigen mit „Weiter“.
Abbildung 22: Dialogbox “Clusterzentrenanalyse: Iterieren’“
(5) Anschließend klicken wir in der Dialogbox „Clusterzentren“ auf die Schaltfläche
„Optionen“, worauf sich das Dialogfenster „Clusterzentrenanalyse: Optionen“
öffnet (vgl. Abbildung 23). Hier wählen wir im Feld „Statistik“ die Optionen
► „Anfängliche Clusterzentren“,
► „ANOVA-Tabelle“,
► „Clusterinformationen für jeden Fall“ und
► bestätigen unsere Einstellungen mit „Weiter“.
51
Abbildung 23: Dialogfenster „Clusterzentrenanalyse: Optionen“
(6) Im abschließenden Schritt klicken wir in der Dialogbox „Clusterzentren“ auf die
Schaltfläche „Speichern“. Wir aktivieren im daraufhin geöffneten Dialogfenster
„Clusterzentrenanalyse: Neue Variablen...“ die Option „Cluster-Zugehörigkeit“,
mit der SPSS der Datendatei eine Variable mit der Bezeichnung „QCL_1“
hinzufügt. Wir beschließen unsere Einstellungen mit „Weiter“ und „OK“.
Interpretation der SPSS-Ergebnisse
Die tabellarische SPSS-Ergebnisausgabe umfasst
die anfänglichen Clusterzentren,
das Iterationsprotokoll,
die finale Clusterzentren,
die Distanzen zwischen den finalen Clusterzentren,
den varainzanalytischen Mittelwertvergleich der Cluster sowie
die Clusterzugehörigkeiten der Fälle.
In der SPSS-Ausgabe wird zunächst eine Tabelle mit den anfänglichen
Clusterzentren ausgewiesen (vgl. Tabelle 25). Die darin enhaltenen Werte
entsprechen den von uns zuvor ermittelten und als Dateninput vorgegebenen
Gruppenzentroiden.
Tabelle 25: Anfängliche Clusterzentren
Aus dem in Tabelle 26 angeführten Iterationsprotokoll ist ersichtlich, dass der
Zuordnungsprozess bereits nach der zweiten Iteration abgebrochen wurde.
Demzufolge sind von den vorgegebenen 10 Iterationen lediglich zwei Interationen
benötigt worden, um eine optimale Zuordnungslösung bzw. die angestrebte
52
Minimaldistanz-Partition zu erzeugen. Für jeden Schritt (Iteration) werden die
quantitativen Verschiebungen bzw. Änderungen der Clusterzentren – bzw.
Mittelwerte angezeigt. Diese sind allerdings schon nach der ersten Iteration überaus
gering und erfüllen bereits nach der zweiten Iteration das vorgegebene
Konvergenzkriterium von 0.
Tabelle 26: Iterationsprotokoll
Die aus dem Iterationsprozeß resultierenden Zentrenänderungen finden in den
finalen Clusterzentren ihren Niederschlag. Für das vorliegende Beispiel lässt die
Tabelle 27 erkennen, dass sich die finalen Clusterzentren nur marginal von den
anfänglichen Zentrenwerten unterscheiden.
Tabelle 27: Finale Clusterzentren
Mit Hilfe der in der nachstehenden Tabelle 28 enthaltenen Distanzen zwischen den
Clusterzentren der finalen Clusterlösung ist eine erste Beurteilung der
Gruppeneinteilung möglich. Sofern das mit einer Clusteranalyse verfolgte Ziel einer
extern möglichst heterogenen Clusterstuktur erreicht wurde, müssen die
Distanzunterschiede zwischen den finalen Clusterzentren möglichst groß sein. Die
euklidische Distanz zwischen den Zentren der Gruppen 1 und 3 (Distanzwert: 2,180)
ist jeweils größer als die Distanz zwischen den Gruppen 1 und 2 (Distanzwert: 2,006)
sowie den Gruppen 2 und 3 (Distanzwert: 1,911).
Tabelle 28: Euklidische Distanzen zwischen finalen Clusterzentren
53
Einen Aufschluss darüber, ob die betreffenden Gruppenunterschiede signifikant sind,
vermittelt die in Tabelle 29 angeführte Varianztabelle. Der betreffende F-Test geht
von der Grundüberlegung aus, dass die Werte der Klassifizierungsvariablen bei
intern homogenen Clustern nur geringfügig vom jeweiligen Clustermittelwert
abweichen und bei extern heterogenen Clustern recht stark um den Mittelwert der
betreffenden Variablen für die Gesamtheit der Fälle streuen. Daher weist die
Varianztabelle für jede der beiden Klassifizierungsvariablen die Quadratsumme der
Cluster (Spalte „Fehler: Mittel der Quadrate“) sowie die Quadratsumme zwischen
den Clustern (Spalte „Cluster: Mittel der Quadrate“) aus. Der als Testgröße dienende
F-Wert (Spalte „F“) ergibt sich als Quotient aus der Quadratsumme zwischen den
Clustern und der Quadratsumme innerhalb der Cluster. Ein hoher F-Wert und ein
geringer Signifikanzwert (Spalte „Sig.“) zeigen somit an, dass die Werte der
betreffenden Variablen innerhalb der Gruppen homogener sind als die
Merkmalswerte in unterschiedlichen Clustern. Insofern verweisen die Befunde der
beiden variablenpezifischen einfaktoriellen Varianzanalysen darauf, dass signifikante
Mittelwertunterschiede zwischen den Gruppen vorliegen.
Tabelle 29: Varianztabelle
Zur Beurteilung der Güte der Clusterlösung ist der F-Test jedoch in nur geringem
Maße geeignet; denn die Clusterbildung erfolgte gezielt unter der Bedingung, dass
sich möglichst große Distanzen zwischen den Gruppen ergeben. Im praktischen
Anwendungsfall wäre die Güteprüfung daher um eine diskriminanzanalytische
Untersuchung zu ergänzen (vgl. hierzu Müller 2015 b).
Die endgültige Gruppenzugehörigkeit der Objekte sowie die gruppenspezifische
Besetzungzahl werden in den Tabellen 30 bzw. 31 (diese enthält zusätzlich die
Distanzen der Objekte zu den relevanten Clusterzentren) angezeigt. Ein Vergleich
mit den Clusterergebnissen der hierarchischen Analyse (vgl. z.B. Tabelle 17) macht
deutlich, dass sich im Zuge der Clusterzentrenanalyse keine Objektumgruppierungen
ergeben haben. Aus diesem Grund darf die hier präferierte Drei-Clusterlösung als
recht stabil erachtet werden.
Tabelle 30. Anzahl der Objekte in den Clustern
54
Tabelle 31: Finale Gruppenzugehörigkeit der Fälle
55
4.3 K-Means-Analyse bei unbekannten Clusterzentren
Im Folgenden soll ein Beispiel beahndelt werden, bei welchem die Clusterzentren
nicht vorgegeben, sondern von SPSS ermittelt werden. Dabei sei davon ausgegangen,
dass bei einer Stichprobe von 30 Nachfragern eine Reihe ausgewählter
Personenmerkmale erhoben wurde, deren Werte in der Tabelle 32 angeführt sind.
Tabelle 32: (Fiktive) Stichprobe von 30 Nachfragern
Mit Hilfe einer Clusterzentranalyse soll nun untersucht werden, ob sich die 30
Nachfrager hinsichtlich ausgewählter Personenmerkmale in Teilgruppen bzw.
Marktsegmente aufteilen lassen. Als relevante Segmentierungskriterien sollen dabei
die die metrischen Variablen „Alter“, „Einkommen“ und „Preisbereitschaft“ dienen.
Im Fall von unbekannten Clusterzentren vollzieht sich die Clusterzentrenanalyse in
drei Phasen:
Erstellung der Datenmatrix,
Festlegung der SPSS-Auswertungsmethodik,
Interpretation der Ergebnisse
56
Erstellung der Datenmatrix
Zur Erzeugung der Datenmatrix sind im vorliegenden Beispiel zwei Schritte
durchzuführen: Zunächst sind die Daten der Tabelle 32 in den Dateneditor von SPSS
einzugeben. Hieran anschließend sind die drei Segmentierungsvariablen zu
standardisieren, da diese in unterschiedlichen Dimensionen (z.B. Alter in Jahren,
Einkommen in Tsd. €) gemessen wurden. Hierzu gehen wir in der folgenden Weise
vor:
► Wir wählen die Befehlsfolge „Analysieren/Deskriptive Statistiken/Deskriptive
Statistiken...“, worauf sich die Dialogbox „Deskriptive Statistiken“ öffnet (vgl.
Abbildung 24).
► Dort überführen wir die drei Segmentierungsvariablen in das Feld „Variable(n)“
und klicken anschließend auf die Option „Standardisierte Werte als Variable
speichern“.
► Abschließend bestätigen wir unsere Einstellungen mit „OK“.
Abbildung 24: Dialogbox „Deskriptive Statistiken“
► SPSS fügt nun der Datendatei die drei standardisierten Variablen „Zalter“,
„Zeinkomme“ und „zpreisakz“ an.
► Wir speichern die Datendatei unter der Bezeichnung „ClusterzentrenanalyseMarktsegmentierung.
SPSS-Auswertungsmethodik
Wir öffnen die Dialogbox „Clusterzentrenanalyse“ und wählen dort die
nachstehenden Einstellungen (vgl. Abbildung 26):
► Die drei standardisierten Segmentierungsvariablen werden in das Feld
„Variablen“ und die Variable „Person“ als Fallbeschriftung übertragen.
57
► Aufgrund von sachlogischen Überlegungen gehen wir davon aus, dass sich die
Stichprobe von 30 Nachfragern in drei Cluster aufteilen lässt. Daher tragen wir
unter „Anzahl der Cluster“ die Zahl 3 ein.
► Im Feld „Methode“ belassen wir die Voreinstellung „Iterieren und klassifizieren“.
► Im Gegensatz zur Analyse bei bekannten Clusterzentren nehmen wir im Feld
„Clusterzentren“ keine Eintragungen vor, da wir im vorliegenden Beispiel über
keine Vorinformationen hinsichtlich der Clusterzentren verfügen.
► Demgegenüber nehmen wir hinsichtlich der Schaltflächen „Iterieren“, „Speichern“
und „Optionen“ dieselben Einstellungen wie im vorangegangen Beispiel der
Clusterzentrenanalyse bei bekannten Zentren vor.
Abbildung 25: Dialogbox „Clusterzentrenanalyse“
Interpretation der Ergebnisse
Die tabellarische SPSS-Ergebnisausgabe umfasst
Die anfängliche Clusterzentren,
das Iterationsprotokoll,
die finalen Clusterzentren,
die Distanzen zwischen den finalen Clusterzentren,
den varianzanalytischen Mittelwertvergleich der Cluster sowie
die Clusterzugehörigkeiten der Fälle.
In der SPSS-Ausgabe wird zunächst eine Tabelle mit den anfänglichen
Clusterzentren ausgewiesen (vgl. Tabelle 33). Zur Bestimmung der Startwerte für
die Clusterzentren geht SPSS folgendermassen vor: Wenn insgesamt k Cluster (hier:
3) gebildet werden sollen, dann werden die ersten k Fälle der Datendatei als
vorläufige Clusterzentren verwendet. Im darauffolgenden Schritt werden die übrigen
Fälle daraufhin untersucht, ob sie möglicherweise bessere Clusterzentren darstellen
als die ersten k Fälle. Hierbei wird ein als provisorisches Clusterzentrum
ausgewählter Fall dann durch einen anderen Fall ersetzt, wenn seine kleinste
euklidische Distanz zu einem Clusterzentrum größer ist als die Distanz zwischen den
beiden nächsten Gruppen.
58
Tabelle 33: Anfängliche Clusterzentren
Gemäß des Iterationsprotokolls der Tabelle 34 wurde das Konvergenzkriterium
nach drei Iterationsschritten erreicht. So hat sich beispielsweise das Zentrum von
Cluster 1 nach dem ersten Schritt durch eine Neuzuteilung bzw. Umgruppierung von
Nachfragern um 1,307 und im zweiten Schritt um 0,203 verschoben. Das in der
zweiten Iteration gewonnene Ergebnis lässt sich im Hinblick auf das MinimalDistanzkriterium nicht mehr verbessern, so dass der Prozeß abgeschlossen wird.
Tabelle 34: Iterationsprotokoll
Die Tabelle der endgültigen Clusterzentren zeigt die Zentrenwerte nach Abschluss
des Iterationsprozesses für die vorgegebene Drei-Clusterlösung an (vgl. Tabelle 35).
Ein Vergleich mit den anfänglichen Clusterzentren macht deutlich, dass sich die
variablenspezifischen Zentren bei allen drei Clustern beträchtlich verändert haben.
Tabelle 35: Finale Clusterzentren
59
Die in Tabelle 36 ausgewiesenen euklidischen Distanzen zwischen den Clusterzentren der finalen Clusterlösung lassen erkennen, dass die Gruppen 2 und 3
(Distanzwert: 3,245) die größte Unähnlichkeit besitzen, während sich die Gruppen 1
und 2 (Distanzwert: 1,955) am ähnlichsten sind.
Tabelle 36: Distanzen der finalen Clusterzentren
Darüber hinaus kann anhand der nachstehenden Varianztabelle davon ausgegangen
werden, dass sich die Gruppenmittelwerte bezüglich aller drei Segmentierungsvariablen signifikant voneinander unterscheiden.
Tabelle 37: Varianztabelle
Zur abschließenden Beschreibung der Clusterprofile stehen im Rahmen der
Clusterzentrenanalyse drei Informationsbereiche zur Verfügung:
clusterspezifsche Fallzahlen,
die Clusterzugehörigkeit von Nachfragern sowie
eine inhaltliche Kennzeichnung mittels finaler Clusterzentren.
Tabelle 38 vermittelt einen Einblick in die clusterspezifischen Fallzahlen. So
gehören 14 von 30 Nachfragern bzw. 46,7 % der Stichprobe dem Cluster 1 an, das
somit als das besetzungsstärkste Segment zu beurteilen ist.
Tabelle 38: Clusterspezifische Fallanzahl
60
Darüber hinaus kann die Gruppenzugehörigkeit der Nachfrager betrachet werden.
Nach Tabelle 39, in welcher zusätzlich die Distanzen der Objekte zu den relevanten
Clusterzentren angezeigt werden, gehört z.B. Nachfrager 1 dem Cluster 1 an, zu
dessen Clustermittelwert er eine Distanz von 0,751 besitzt..
Tabelle 39: Clusterzugehörigkeit der Nachfrager
Zur inhaltlichen Kennzeichnung der Clusterprofile anhand der finalen
Clusterzentren kann zum einen auf die Ergebnisse der Tabelle 35 zurückgegriffen
werden. Zusätzlich können die gruppenspezifischen Zentrenwerte durch ein
gruppiertes Boxplotdiagramm veranschaulicht werden (vgl. Abbildung 26). In
unserem Beispiel ist zu beachten, dass die finalen Clusterzentren jeweils Mittelwerte
der standardisierten Segmentierungsvariablen repräsentieren. Aufgrund der
Skalierung der Ausgangsvariablen signalisieren positive (negative) Zentrenwerte
jeweils eine hohe bzw. überdurchschnittliche (geringe bzw. unterdurchschnittliche)
Ausprägung des betreffenden Personenmerkmals.
61
Abbildung 26: SPSS-Dialogbox und beispielhaftes Boxplotdiagramm
Zusammenfassend lassen sich die Cluster inhaltlich wie folgt beschreiben:
 In Cluster 1 befinden sich Nachfrager, die ein überdurchschnittliches Personenalter, ein durchschnittlliches Einkommen sowie eine durchschnittliche Preisbereitschaft aufweisen.
 Cluster 2 setzt sich aus Nachfragern zusammen, die ein mittleres Personenalter,
ein überdurchschnittliches Einkommen sowie eine überdurchschnittliche Preisbereitschaft besitzen.
 Dem Cluster 3 gehören Nachfrager an, deren Personenalter, Einkommen sowie
Preisbereitschaft jeweils unterdurchschnittlich ausgeprägt ist.
Im praktischen Anwendungsfall ist eine ergänzende bzw. detailliertere Clusterbeschreibung mit Hilfe jener Zusatzvariablen (sog. Passualvariablen) vorzunehmen,
die nicht als Segmentierungsvariablen herangezogen wurden. Da die Variable
„Clusterzugehörigkeit“ ein nominales Datenniveau besitzt, ist die Untersuchung von
Zusammenhängen zwischen der Gruppenzugehörigkeit und nominalen Zusatzvariablen (z.B. dem Geschlecht) mittels Kontingenzanalysen durchzuführen, während
62
eine Überprüfung von Gruppenunterschieden bezüglich metrischer Zusatzvariablen
(z.B. der Kaufmenge) anhand von Varianzanalysen vorgenommen werden kann:
 Im betrachteten Beispiel erbringt eine kontingenzanalytische Untersuchung
zum einen das Ergebnis, dass zwischen der Clusterzugehörigkeit und dem
Geschlecht der Personen kein Zusammenhang besteht (Kontingenzmaß Cramers
V = 0,015). Zum anderen kann von einem mittelstarken Zusammenhang zwischen
der Clusterzugehörigkeit und dem Familienstand der Nachfrager ausgegangen
werden (Assoziationsmaß Cramers V = 0,551). Ergänzend ist der nachstehenden
Kreuztabelle ist zu entnehmen, dass dem Cluster 1 nahezu ausschließlich Singles
angehörig sind, während sich Cluster 3 ca. 67% verheiratete Personen befinden.
Tabelle 40: Kreuztabelle Familienstand nach Clustern
 Hinsichtlich der metrischen Variable Kaufmenge führt eine Varianzanalyse zu
dem Befund, dass signifikante Mittelwertunterschiede zwischen den drei Clustern
vorliegen (vgl. Tabelle 41).
Tabelle 41: Signifikanzergebnis einer einfaktoriellen Varianzanalyse für die
clusterspezifischen Mittelwertunterschiede der Variable Kaufmenge
 Eine differenzierte Betrachtung kann mit Hilfe eines Fehlerbalkendiagramms
mit 95%igem Konfidenzintervall (SPSS-Menü: Grafik/Alte Dialogfelder/Einfaches Fehlerbalkendiagramm) vorgenommen werden. Fehlerbalken
beschreiben die Lage des beobachteten Mittelwertes einer Stichprobe sowie deren
Ausprägungen in der Grundgesamtheit bei Gültigkeit eines bestimmten
Konfidenzintervalls. Für unser Beispiel veranschaulicht die Abbildung 27, in der
ein zusätzlich eingetragener Querbalken den Mittelwert der Kaufmenge für die
Gesamtstich-Probe anzeigt, dass beispielsweise dem Cluster 2 Personen
angehören, die eine deutlich überdurchschnittliche Kaufintensität aufweisen.
63
Abbildung 27: SPSS-Dialogbox und Fehlerbalkendiagramm zum clusterspezifischen
Mittelwertvergleich der Variable Kaufmenge
Eine Alternative zur Clusterzentrenanalyse stellt die sog. zweistufige Clusteranalyse
(Two-Step-Clusteranalyse) dar, bei der sowohl kategoriale Merkmale als auch
metrische Merkmale als Clustervariablen verwendet werden können. Hierbei werden
in einem ersten Schritt sämtliche Fälle vorgruppiert und anschließend anhand ihrer
Merkmalsausprägungen mittels eines modellbasierten hierarchischen Verfahrens den
endgültigen (vom Anwender vorgegebenen oder von SPSS automatisch ermittelten)
Clustern zugeordnet (vgl. dazu ausführlich bei Bacher et al. 2010, S. 446; Brosius
2011, S. 762 ff; IBM 2011, S. 111 ff.). Für das vorliegende Beispiel führt eine TwoStep-Clusteranalyse, bei die kategoriale Variable Familienstand als zusätzliche bzw.
vierte Clustervariable einbezogen wird, zu keiner Güteverbesserung der
Clusterlösung (Anmerkung: Das bei einer Two-Step-Clusteranalyse von SPSS
ausgewiesene Gütemaß des sog. Silhouetten- bzw. Umrisskoeffizienten bringt zu
Ausdruck, wie eng die Fälle zu ihrem jeweiligen Clusterzentren liegen, der für den
Beispieldatensatz den lediglich befriedigenden Wert von 0,4 annimmt).
64
5. Fallbeispiele aus der Marketingpraxis
5.1 Serviceanalysen im Automobilhandel
Im Rahmen einer vom Verfasser durchgeführten Serviceanalyse für einen
Vertragshändler einer bundesdeutschen Premium-Automobilmarke, wurde auf Basis
einer Stichprobe von 397 Automobilkunden u.a. die Servicezufriedenheit der
Kunden analysiert (Messinstrument: standardisierter Fragebogen; Ratingskalierung:
1 = sehr zufrieden,..,,3 = weder zufrieden noch unzufrieden....,5 = sehr unzufrieden).
Neben der Durchführung von Standardauswertungen, wie z.B. der Ermittlung von
Zufrieden-heitsprofilen oder der Gegenüberstellung von Zufriedenheitsausprägungen
sowie den Beurteilungsgewichten relevanter Servicemerkmale in der sog.
Kundenzufriedenheits-Matrix (vgl. Müller 1996), bestand ein wesentliches
Analyseziel darin zu untersuchen, ob sich die betreffenden Kunden hinsichtlich ihres
Zufriedenheitsgrades voneinander unterscheiden und in sog. Zufriedenheitsgruppen
unterteilen lassen. Als Gruppierungsvariablen dienten hierbei die Einzelzufriedenheiten bezüglich von 14 Merkmalen des händlerseitigen Serviceangebots
sowie die (globale) Gesamtzufriedenheit der Kunden. Mittels einer
Clusterzentrenanalyse, die auf der zufriedenheitstheoretisch begründeten Vorgabe
von drei Clustern beruhte, wurden u.a. die nachstehenden Befunde gewonnen:
Dem Iterationsprotokoll zufolge (vgl. Tabelle 42), erreichte der iterative Prozeß
der distanzminierenden Fallzuordnung nach 16 Schritten das Konvergenzkriterium.
Iterationsprotokolla
Iteration
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
Änderung in Clus terzentren
1
2
3
4,441
2,986
4,303
,796
,196
,538
,867
,176
,517
,413
,210
,355
,378
,176
,284
,302
,305
,331
,421
,339
,294
,260
,239
,177
,214
,103
,096
,212
,036
,072
,117
,038
,046
,114
,000
,035
,107
,018
,040
,000
,052
,029
,000
,022
,012
,000
,000
,000
a. Konvergenz wurde aufgrund geringer oder keiner
Änderungen der Clus terzentren erreicht. Die
maxim ale Änderung der abs oluten K oordinaten
für jedes Zentrum is t ,000. Die aktuelle Iteration
lautet 16. Der Mindes tabs tand zwis chen den
anfänglichen Zentren beträgt 8,602.
Tabelle 42: Iterationsprotokoll
65
Die in Tabelle 43 angeführten euklidischen Distanzen zwischen den Clusterzentren der finalen Clusterlösung machen u.a. deutlich, dass die Gruppen 1 und
3 (Distanzwert: 6,417) die größte Unähnlichkeit besitzen.
Distanz zw ischen Clusterzentren der endgültigen Lösung
Clus ter
1
2
3
1
2
6,417
6,417
3,435
3
3,435
3,039
3,039
Tabelle 43: Distanzen zwischen finalen Clusterzentren
Die Tabelle der endgültigen Clusterzentren zeigt die Zentrenwerte nach dem
Abschluss des Iterationsprozesses bzw. die finalen Clusterzentren für die
vorgegebene Drei-Clusterlösung an (vgl. Tabelle 44), die sich im Vergleich zu
den anfänglichen Clusterzentren erheblich verschoben haben.
Clusterzentren der endgültigen Lösung
a
1
atm osphäre im
warteraum
vereinbarte s ervterm
werden eingehalten
pos itives
Preis -Leis tungs verhältnis
vereinbarte
Leis tungs umfänge
einhalten
kurze Wartezeit auf Ins p.
/R ep.term ine
beratungs qualität des
pers onals
Qualität der
Reparaturarbeiten
Qualität der
Ins pektions arbeiten
freundl. u. hilfs b. Auftreten
d. Pers onals
Rechng. u. arbeiten
werden erklärt
verhalten bei
kundenbes chw erden
keine m ängel bei
aus lieferung
unbuerok. verhalten b.
kleinarbeiten
Fahrzeugabholung
verlaeuft reibungs los
Gesamtzufriedenheit
Clus ter
2
3
2,39
1,41
2,07
2,19
1,07
1,67
3,72
1,85
2,72
2,76
1,24
1,93
2,46
1,29
1,92
3,21
1,22
2,11
3,03
1,23
2,01
2,76
1,23
1,99
2,52
1,11
1,83
2,96
1,40
2,19
3,66
1,52
2,35
3,33
1,24
2,08
3,21
1,17
2,17
2,07
1,05
1,79
3,09
1,19
2,05
a. hoch-s ignifikante Gruppenunters chiede bezüglicher aller
Merkm ale
Tabelle 44: Finale Clusterzentren
66
Die Clusterprofile können anhand der finalen Clusterzentren, die sich signifikant
voneinander unterscheiden, wie folgt beschrieben werden:
 Im Cluster 1 befinden sich Automobilkunden, deren Servicezufriedenheit
lediglich durchschnittlich (Ratingwert der Gesamtzufriedenheit = 3)
ausgeprägt ist. Diese Gruppe kann demzufolge mit dem Begriff
„Indifferenten“ gekennzeichnet werden, der 67 Kunden bzw. 16,7 % der
Stichprobe angehören.
 Cluster 2 setzt sich aus Nachfragern zusammen, die mit dem Händlerservice
sehr zufrieden sind (Ratingwert der Gesamtzufriedenheit = 1,19). Insofern
liegt es nahe, diese Gruppe, in der sich 118 Kunden bzw. 29,7 % aller Kunden
befinden, als die „Begeisterten“ zu interpretieren.
 Dem Cluster 3 gehören Kunden an, die bezüglich der angebotenen Händlerservices zufrieden sind (Ratingwertwert der Geamtzufriedenheit = 2,05).
Daher kann diese Gruppe, der 213 Kunden bzw. 53,6 % der Stichprobe
zugehörig sind, als die „Zufriedenen“ beschrieben werden.
Im Zuge weiterführender Analysen wurde ferner der Frage nachgegangen, ob
sich die Gruppen bezüglich ausgewählter Passualvariablen voneinander unterscheiden. So lässt z.B. eine Kreuztabellierung der beiden Variablen „Fahrzeugklasse“ und „Gruppenzugehörigkeit der Fälle“ erkennen, dass von den insgesamt
62 Besitzern eines Oberklassen-Pkw’s ca. 21 % (= 13/62 * 100) der Gruppe der
„Indifferenten“ angehören, während dieser Gruppe lediglich 13% der Besitzer
eines Kompakt-Pkw’s zugehörig sind. Hieraus kann die Hypothese formuliert
werden, dass die Besitzer von Oberklassen-Pkw’s einen tendenziell geringeren
Zufriedenheitsgrad aufweisen als die Besitzer anderer Fahrzeugklassen. Diese
Aussage steht im Einklang der theroetisch begründbaren Einsicht, dass die
Besitzer von Oberklassen-Pkw’s über höhere Servicerwartungen verfügen als die
Besitzer von Mittelklasse- oder Kompaktfahrzeugen.
Anzahl
Fahrzeugklas s e
Oberklas s e
Mittelklass e
Kompaktklas s e
Gesamt
1
13
41
12
66
Clus ter-Nr. des Falls
2
3
18
31
68
132
32
50
118
213
Gesamt
62
241
94
397
Tabelle 45: Kreuztabelle Fahrzeugklassenbesitz nach Zufriedenheitsgruppen
67
5.2 Strategische Wettbewerbergruppen im Großhandel
Im Rahmen einer umfassenden Analyse zu den Zukunftsperspektiven des regionalen
Großhandels im Kammerbezirk Dortmund war dem Verfasser u.a. die Aufgabe
gestellt, auf der Grundlage der Konzeption der strategischen Erfolgsfaktorenforschung strategische Wettbewerbergruppen zu identifizieren, voneinander
abzugrenzen und die relevanten Erfolgsfaktoren der Marktbearbeitung
herauszuschälen (vgl. Müller 2004 a). Die Erfassung und Abgrenzung von Wettbewerbergruppen auf Basis einer Zufallsstichprobe von 120 Großhandelsbetrieben
(Messinstrument: schriftliche Befragung) wurde mittels einer hierarchischen Clusteranalyse (Ward-Verfahren, quadriertes euklidisches Distanzmaß) vorgenommen, bei
welcher insgesamt zehn ökonomische, psychographische und soziale Unternehmensziele von Großhandelsbetrieben als Gruppierungskriterien dienten. Der Analyseprozess erbrachte die nachstehenden zentralen Ergebnisse:
Im Großhandel agieren zwei Wettbewerbergruppen, die sich als Wettbewerbsführer und Wettbewerbsfolger kennzeichnen lassen (vgl. Abbildung 28). Die
Gruppe der Wettbewerbsführer, der 57 % der Großhandelsbetriebe angehören,
verfolgt eine Zielkonzeption, in der alle zehn strategischen Zielbereiche einen
jeweils hohen Stellenwert einnehmen. Hierbei werden die Unternehmensaktivitäten zukünftig primär auf die Erreichung der vier Kernziele
„Unternehmensrentabilität“, „betriebliche Kostensituation“ „Gewinnwachstum“
und „Kundenzufriedenheit“ ausgerichtet. In (signifikantem) Unterschied hierzu ist
das Zielsystem der Wettbewerbsfolger dadurch gekennzeichnet, dass dieses
einerseits die drei Kernziele der „Unternehmensrentabilität“, Gewinnwachstum“
und „Kunden-zufriedenheit“ umfasst und andererseits den übrigen Zielbereichen
einen lediglich mittleren oder geringen Stellenwert beimisst. Augenfällig ist
ferner, dass die Wettbewerbsfolger eine „Sicherung von Arbeitsplätzen“ als unbedeutsam erachten.
Strategische Wettbewerbergruppen im Großhandel
 Bedeutung strategischer Unternehmensziele
Abbildung 28: Unternehmensziele strategischer Wettbewerbergruppen im Großhandel
68
Die Umsetzung strategischer Unternehmensziele erfolgt durch Marketing-,
Beschaffungs-, Kooperations – und Managmentstrategien (vgl. Müller 2004 a). Im
Bereich der Marketingstrategien forcieren Wettbwerbsführer die strategische
Erschließung neuer Kundengruppen sowie die Bindung des Kundenstamms (vgl.
Abbildung 29). Nicht zuletzt vor dem Hintergrund des angestrebten
Gewinnwachstums und der beabsichtigten Erhöhung der Kundenzufriedenheit,
erscheint eine derartige strategische Schwerpunktbildung als sachlich angemessen.
Im Rahmen marktfeldstrategischer Überlegungen nimmt die Durchdringung des
nationalen Absatzgebietes einen zentralen Stellenwert ein; ein strategischer
Ansatz, der angesichts der bislang praktizierten Absatzfokussierung auf NRW als
folgerichtig gewertet werden muss.
Der Aufbau bzw. die Festigung von Wettbewerbsvorteilen ist im regionalen
Großhandel vorrangig auf das Konzept der Qualitätsführerschaft ( im Verbund mit
einem überdurchschnittlich hohen Preisniveau) ausgerichtet. Unternehmen,
welche diese wettbewerbsstrategische Variante praktizieren, bemühen sich darum,
einerseits den gewachsenen Qualitätsanforderungen ihre Abnehmergruppen
umfassend gerecht zu werden und andererseits dem aggressiven Preiswettbewerb
zu entgehen. Demgegenüber lassen Wettbewerbsfolger eine Fokussierung der
Marketingstrategien
vermissen.
Vielmehr
ist
die
strategische
Marketingbearbeitung dieser Wettbewerbergruppe durch eine größtenteils
durchschnittliche Einsatzintensität von zudem nicht auf das Zielsystem
abgestimmten Marktstrategien gekenzeichnet.
Strategische Wettbewerbergruppen im Großhandel
 Einsatzintensität von Marketing-Strategien
Abbildung 29 Marketingstrategien strategischer Wettbewerbergruppen im Großhandel
Die Bedeutsamkeit leistungsfähiger Management-Strategien wird in der
betrieblichen Praxis vielfach übersehen. So werden beispielsweise aus einem
mangelnden Unternehmenserfolg häufig falsche Schlüsse gezogen und dem69
zufolge die an sich zielgerechten Unternehmensaktivitäten fälschlicherweise
verändert oder vollkommen eingestellt. Demgegenüber wäre es im Sinne eines „
structure follows strategy“ vielfach zweckmäßiger, die betrieblichen
Managementkonzepte einer kritischen Prüfung zu unterziehen und den geplanten
Marktaktivitäten anzupassen, denn diese befinden sich in zahlreichen Fällen auf
einem veralteten und wenig effizienten Leistungsniveau. Management-Strategien
beinhalten den Aufbau der erforderlichen betrieblichen Ressourcenstruktur, mit
deren
Hilfe
die
marktgerichteten
strategischen
und
operativen
Unternehmensaktivitäten geplant, umgesetzt und kontrolliert werden können.
Personalstrategien bilden den zukünftig bedeutsamsten Managementbereich des
Großhandels.
Dies gilt insbesondere für die Gruppe der Wettbewerbsführer, welche der
Flexibilisierung des Personaleinsatzes, der Verbesserung von Mitarbeiterqualifikationen sowie der Personalkostensenkung einen gewichtigen Stellenwert
beimessen (vgl. Abbildung 30). Von gleichfalls überdurchschnittlicher
Bedeutsamkeit ist die Implementierung leistungsfähiger Managementsysteme.
Wettbewerbsführer werden zukünftig verstärkt den Einsatz neuer Informations-,
Controlling und Logistiksysteme forcieren. Darüber hinaus erfolgt im Rahmen des
Investitionsmanagements zukünftig eine Fokussierung auf Erweiterungs- sowie
auf
Rationalisierungsinvestitionen,
während
Ersatzinvestitionen
in
vergleichsweise unterdurchschnittlichem Maße getätigt werden. Für die Gruppe
der Wettbewerbsfolger ist hingegen – analog zum Bereich der Marktstrategien keine managementstrategische Schwerpunktsetzung zu erkennen.
Strategische Wettbewerbergruppen im Großhandel
 Einsatzintensität von Management-Strategien
Abbildung 30: Managementstrategien strategischer Wettbewerbergruppen im Großhandel
70
Eine abschließende Beschreibung der Wettbewerbergruppen mit Hilfe von
ausgewählten Merkmalen der Unternehmensstruktur macht deutlich, dass der
Gruppe der Wettbewerbsführer tendenziell mehr größere Großhandelsbetriebe,
d.h. Unternehmen angehören, deren Mitarbeiterzahl, Kundenzahl und Umsatzhöhe
vergleichsweise hoch ist (vgl. Tabelle 46).
Produktionsgüterhandel
Konsumgüterhandel
< 250 Kunden
251 - 1000 Kunden
Kunde nzahl
> 1000 Kunden
6 - 10 Mio. DM
11 - 50 Mio. DM
Um s atzklasse
> 50 Mio. DM
< 10 Beschäf tigte
Beschäftigtenklasse 10 - 50 Beschäf tigte
> 50 Beschäf tigte
Br anche ntyp
*a
*
*
*
*
Str ategische
Wettbew erbergr uppen
Wettbew erbs Wettbew erbs-führer
folger
55,8%
44,2%
58,1%
41,9%
42,1%
57,9%
56,4%
43,6%
71,8%
28,2%
54,9%
45,1%
56,7%
43,3%
70,0%
30,0%
45,5%
54,5%
59,2%
40,8%
70,8%
29,2%
Gesamt
100,0%
100,0%
100,0%
100,0%
100,0%
100,0%
100,0%
100,0%
100,0%
100,0%
100,0%
a. * = statistisch signifikante Merkmalsunterschiede (Basis: Verteilungstest)
Tabelle 46: Unternehmensmerkmale strategischer Wettbewerbergruppen im Großhandel
71
Literaturverzeichnis
Aaker, D., Kumar, V., Leone, R., Day, G. (2013): Marketing Research, 11th Edition, New
York, Chichester u.a.
Bacher, J., Pöge, A., Wenzig, K. (2010): Clusteranalyse. Anwendungsorientierte Einführung
in Klassifikationsverfahren, 3. Auflage, München.
Backhaus, K., Erichson, B., Plinke, W., Weiber, R. (2011): Multivariate Analysemethoden:
Eine anwendungsorientierte Einführung, 13. Auflage, Wiesbaden.
Backhaus, K., Erichson, B.; Weiber, R. (2013) : Fortgeschrittene Multivariate
Analysemethoden: Eine anwendungsorientierte Einführung 2. Auflage, New York,
Tokyo.
Bortz, J., Schuster, C. (2010): Statistik für Human- und Sozialwissenschaftler, 7. Auflage,
Berlin, Heidelberg u.a..
Brosius, F. (2013): SPSS 21, Heidelberg.
Bühl, A. (2014): SPSS 22: Einführung in die moderne Datenanalyse, 14. Auflage, München.
Churchill, G., Iacabucci, D. (2005): Marketing Research, 9th Edition, Mason.
Diehl, J., Kohr, H. (1999): Deskriptive Statistik,. 12. Auflage, Frankfurt/M.
Eckey, H.-F., Kosfeld, R., Rengers, M. (2002): Multivariate Statistik, Wiesbaden.
Field, A. (2013): Discovering Statistics Using SPSS, 4th Edition, London.
Freter, H. (2008): Markt- und Kundensegmentierung, 2. Auflage, Stuttgart.
Hair, J., Black, W., Babin, B., Anderson, R. (2013): Multivariate Data Analysis, Englewood
Cliffs.
Ho., R. (2006): Handbook of Univariate and Multivariate Data Analysis and Interpretation
with SPSS, Bokan Raton.
Homburg, Ch. (2015): Marketing-Management, 5. Auflage, Wiesbaden.
IBM (2011): SPSS Statistics Base 22 [ftp://public.dhe.ibm.com/software/analytics/
spss/documentation/statistics/22.0/de/client/Manuals/IBM_SPSS_Statistics_Base.pdf]
Janssen, J., Laatz, W. (2013): Statistische Datenanalyse mit SPSS: Eine
anwendungsorientierte Einführung in das Basissystem und das Modul Exakte Tests,
8.Auflage, Wiesbaden.
Jensen, O. (2008): Clusteranalyse, in: Herrmann, A., Homburg, Ch., Klarmann, M. (Hrsg.):
Handbuch Marktforschung. Methoden – Anwendungen, Praxisbeispiele, 3. Auflage, S.
336-372.
Malhotra, N., Birks, D., Wills, P. (2013): Essentials of Marketing Research, Harlow.
McDaniel, C., Gates, R. (2013): Marketing Research, 9th Edition, Singapore.
Müller, W. (1996): Angewandte Kundenzufriedenheitsforschung, in: Marktforschung &
Management, Heft 4, S. 149-159.
Müller, W. (1997b): Erfolgsfaktoren im Dienstleistungsmanagement des Automobilhandels.
Eine empirische Bestandsaufnahme, in: Jahrbuch der Absatz- und Verbrauchsforschung,
Heft 1, S. 41-65.
Müller, W. (2004): Marktorientierte Unternehmensführung im Großhandel – eine
empirische Bestandsaufnahme, in: Baumgarth, C. (Hrsg.): Marktorientierte Unter-
72
nehmensführung, Festschrift zum 60. Geburtstag von Univ.-Prof. Dr. Hermann Freter,
Peter Lang Verlag, Frankfurt/M., S. 345-371.
Müller (2015a): Marketing Analytics. Faktorenanalyse, Studienmanuskript Band 9,
Dortmund.
Müller (2015b): Marketing Analytics. Diskriminanzanalyse, Studienmanuskript Band 11,
Dortmund.
Müller, W. (2015c): Marketing Analytics mit SPSS. Handbuch zum Selbststudium,
Studienmanuskript Band 8, WS 2015, Dortmund.
Rudolf, M., Müller, J. (2012): Multivariate Verfahren, 2. Auflage, Göttingen.
Schendera, Ch. (2010): Clusteranalyse mit SPSS, München.
Schlittgen, R. (2009): Multivariate Statistik, München.
Sudman, S., Blair, E. (1998): Marketing Research. A Problem Solving Approach, Boston.
Tabachnick, B., Fidell, L. (2012): Using Multivariate Statistics, 6th Edition, Boston,
London.
73