Credit Risk
Management
Teil 2
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
.
1
Logistische Regression (I)
Unterschied zur Diskriminanzanalyse
Bei der linearen Diskriminanzanalyse wurde der Ansatz
Y  b 0  b1X1  b 2 X 2  ...  b J X J
gewählt und unterstellt, daß alle unabhängigen Variablen
normalverteilt sind mit der gleichen Varianz 2.
Für normalverteile unabhängige Zufallsvariablen X1,, X n
mit E(Xi )  i und Var (Xi )  2
gilt,
daß auch die abhängige Variable Y normalverteilt ist mit
E(Y)  b 0  b11  b 2 2  ...  b J  J
VAR (Y)  (b1  b 2  ...  b J )  2
Dagegen verlangt die Logistische Regression weder die
Varianzhomogenität noch die Normalverteilung der Merkmale.
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
2
Logistische Regression (II)
Definition
Ausgangspunkt der Logistische Regression ist ein Regressionsmodell, bei dem die Abweichungen vom Mittelwert für alle
Variablen in dem Störterm zusammengefaßt sind
yi*  b0  b1xi1  b2xi2  ...  bJxiJ  ui
mit
yi = Nicht beobachtete (latente) Variable beim i-ten Objekt
xij = Ausprägung der Merkmalsvariable j (j = 1, 2,..., J),
beim i-ten Objekt
bj = Koeffizient der j-ten unabhängigen Variable
b0 = Konstantes Glied
ui = Störterm, der eine logistische Verteilung aufweist
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
3
Logistische Regression (III)
Ökonometrischer Ansatz
Die dichotome latente Variable y („ Insolvenzgefährdung“) nimmt
die beiden Werte 1 (insovenzgefährdet) oder 0 (nicht insolvenzgefährdet) an. Beobachtet wird nun
1 falls y*  0
y
0
sonst

Die Wahrscheinlichkeit, daß ein Unternehmen als insolvenzgefährdet klassifiziert wird, läßt sich dann bestimmen durch die
bedingte Wahrscheinlichkeit .
Pr ob (yi  1)  Pr ob[ui  (b0  b1xi1    bJ xiJ ]
 1  F[ (b0  b1xi1    bJ xiJ )]
F ist die kumulierte Verteilung des Störterms u
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
4
Logistische Regression (IV)
Ökonometrischer Ansatz
Unterstellt man eine symmetrische Verteilung u, so vereinfacht sich
die Wahrscheinlichkeitsfunktion zu:
P  Pr ob (y  1)  F (b0  b1xi1    bJ xiJ )
Da die Werte yi Realisierungen eines binomialen Prozess mit der
Wahrscheinlichkeit Pi sind, ist die Likelihoodfunktion, die gemeinsame Wahrscheinlichkeitsverteilung der Stichprobe (y1, y2,..., yn)
gleich L   Pi   (1  Pi )
yi 1
yi 0
Im Rahmen eines Maximum-Likelihood-Schätzverfahren sind die
Parameter bj iterativ so zu bestimmen, daß diese Wahrscheinlichkeit maximal ist.
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
5
Logistische Regression (V)
Logistische Verteilungsfunktion
Damit man nun die Funktionswerte als Wahrscheinlichkeiten
interpretieren kann, müssen diese im Intervall von 0 und 1 liegen. Möglich wird dies, indem man keinen linearen Funktionsverlauf, sondern einen s-förmigen, logistischen FunktionsverZi
e
1

lauf wählt mit der Form Pi  F(Zi ) 
Zi 1  e Zi
1

e
mit Z  b  b x  b x  ...  b x
i
0 1 i1 2 i2
J iJ
als linearer Prädiktor des logistischen Modells.
Daraus folgt
Pi
F(Zi )
log
 log
 Zi  b0  b1xi1  b2xi2  ...  bJxiJ
1  Pi
1  F(Zi )
Logistic Probability Unit (Logit)
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
6
Logistische Regression (VI)
Verlauf der Logistischen Verteilungsfunktion
Symmetrisch mit Wendepunkt in (0, 0,5). B0 verschiebt die Funktion horizontal.
Höhere Werte bj führen zu einem steileren Verlauf
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
7
Logistische Regression (VII)
Spezielle Standards
•
Alle weichen sollten in standardisierter Form als unabhängige
Variablen in das Modell einfließen.
• Die Merkmalsvariablen können bei der logistischen Regression ein
beliebiges Skalenniveau aufweisen.
Dies wird zwar so bei ökonometrischen Modellen behauptet und auch
umgesetzt, ist aber maßtheoretisch falsch. Auch müßten die Parameter bj dann eine Dimension beinhalten, um nicht Äpfel mit Birnen
zu addieren.
• Die geschätzte Klassifikationsfunktion sollte betriebswirtschaftlich
widerspruchsfrei sein Faktoren. Dies ist nicht einfach zu prüfen, da
die bj nun die Änderung des Logit der abhängigen Variablen bei einer
Änderung einer unabhängigen Variablen um eine Einheit darstellen.
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
8
Logistische Regression (VII)
Interpretation einzelner Koeffizienten
Pi
 b j  Pi  (1  Pi )
Partielle Ableitungen
x j
x j P
Eij   i  x j  b j  (1  Pi )
Elastizitäten
Pi x j
Leker; Schewe und Anders; Szczesny [1998] schätzten ein logistisches
Regressionsmodell mit Hilfe neuronaler Netze und kamen zu dem
Ergebnis, daß "die logistische Regressionsanalyse sehr gut geeignet
erscheint, Unternehmen aufgrund von Jahresabschluß-Kennzahlen zu
klassifizieren".
Verbesserung durch zusätzliche Berücksichtigung qualitativer
Informationen denkbar!
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
9
Credit Risk
Management
Teil 3
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
.
10
Entscheidungsbaumverfahren (I)
Allgemeine Beschreibung
 Der Entscheidungsbaum ist die Darstellung einer Entscheidungsregel,
anhand derer Objekte in Klassen eingeteilt werden.
 Die Klassifizierung erfolgt durch die hintereinander geschaltete Abfrage
der Ausprägung bestimmter, vorher festgelegter Eigenschaften.
 In der Kreditwürdigkeitsprüfung kann das Entscheidungsbaumverfahren verwendet werden, um Kreditnehmer anhand von bestimmten
Merkmalen in Qualitäts- bzw. Rating-Klassen einzuteilen.
 Die Anwendung des Entscheidungsbaumverfahrens ist relativ einfach.
 Viel komplexer ist die Konstruktion eines Entscheidungsbaums. Dafür
werden rekursive Partitionierungs-Algorithmen eingesetzt.
 Eine Lernstichprobe mit bekannten Klassenzugehörigkeiten der
beinhalteten Stichprobenelemente bildet dabei die Datenbasis zur
Gewinnung optimaler Trennkriterien für jede Abfrage und zur
Ermittlung der optimalen Baumgröße.
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
11
Entscheidungsbaumverfahren (II)
Das CART-Verfahren (Classification and Regression Trees)
Das CART-Verfahren unterstützt nur rein binäre Entscheidungsbäume,
d.h. bei jedem Schritt erfolgt die Aufteilung in jeweils 2 Teilmengen.
Ausgehend vom Wurzelknoten, der alle Elemente der Stichprobe enthält,
entstehen durch eine Ja/Nein-Frage 2 Tochterknoten als disjunkte Teilmengen der Lernstichprobe.
Als Zwischenknoten können diese ebenfalls zu 2 Tochterknoten führen
oder sie sind bereits Endknoten.
Dabei können einer
Ratingklasse mehrere
Endknoten zugeordnet
sein.
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
12
Entscheidungsbaumverfahren (III)
Das CART-Verfahren
Klassifikationsbaum zum Kreditbeispiel
1: schlechter Kreditnehmer , 2: guter Kreditnehmer
Als Prädiktoren für die Bonität eines Kunden dienen laufendes
Konto', Laufzeit, bisherige Zahlungsmoral, Darlehenshöhe,
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
13
Entscheidungsbaumverfahren (IV)
Aufteilung der Eltern- in Tochterknoten (Trennkriterium)
Die Trennkriterien sind so zu wählen, daß die entstehenden
Tochterknoten im Hinblick auf eine resultierende Klassenverteilung möglichst homogen sind.
Bei CART wird jede Verzweigung nur durch eine Variable bestimmt,
wobei gilt:
(1) Für jede mindestens ordinal skalierte Variable xi kommen
sämtliche Verzweigungen
A  {xi  c}
A  {xi  c}
für alle c  R, in Betracht.
(2) Für jede kategorial-nomiale Variable xi {a1,..., a m }
i
kommen sämtliche Verzweigungen
A  S, A  S mit S  {a1,..., a m }
in Betracht.
i
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
14
Entscheidungsbaumverfahren (V)
Aufteilung der Eltern- in Tochterknoten (Unreinheitsfunktion)
Das Ziel, dem Merkmalsraum in möglichst heterogene Anteile
aufzuspalten, läßt sich an einer Distanzfunktion festmachen.
Zu vorgegebenen Knoten A soll nun die Verzweigung in die Knoten
so A1, A 2 mit (A  A1  A 2 ) festgelegt werden, dass die durch die
Distanz d A (A1, A 2 ) maximal wird.
Eine Funkion  : Sg  R , die auf dem Simplex
Sg  {  (1,...,g ) i  0, i i  1} definiert ist,
heißt Unreinheitsfunktion (Impurity function)., wenn gilt
  Sg ,   ( 1 ,..., 1 )
(1) (( 1 ,...,1 ))  ()
für
g
g
g
g
d. h. insbesondere (( 1 ,..., 1 ))  max  ()
g
(2)
(3)
g
Sg
min  () {(1,0,...,0), (0,1,...,0),...,(0,...,0,1)}
Sg
() ist symmetrisch in .
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
15
Entscheidungsbaumverfahren (VI)
Beispiele für Unreinheitsfunktionen
die Entropie
()   i log i
i
der Gini-Index
(π)    i j
i j
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
16
Entscheidungsbaumverfahren (VII)
Unreinheit eines Knoten
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
17
Entscheidungsbaumverfahren (VIII)
Reduktion an Unreinheit in einem Knoten
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
18
Entscheidungsbaumverfahren (IX)
Unreinheit eines Baumes
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
19
Entscheidungsbaumverfahren (X)
Reduktion an Unreinheit in einem Baum
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
20
Entscheidungsbaumverfahren (XI)
Zuordnung von Endknoten
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
21
Entscheidungsbaumverfahren (XII)
Spezielle Standards: Formulierung der Klassifikationsfunktion
 Die Definition der möglichen Klassenzugehörigkeiten der zu
analysierenden Objekte muß dargelegt und erläutert werden.
 Die Wahl der möglichen Trennvariablen muß erläutert
werden.
 Die Definition der Unreinheitsfunktion, welche die
Ausprägung der Trennkriterien im Entscheidungsbaum
bestimmt, muß dargelegt werden. Die Wahl dieser Funktion
muß begründet werden.
 Die Verwendung von Ersatzsplits bei fehlenden Merkmalswerten der zu klassifizierenden Objekte, d.h. die Verwendung anderer Merkmalswerte mit ähnlichem Klassifikationseffekt, ist zulässig, muß aber ausreichend dokumentiert
werden.
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
22
Entscheidungsbaumverfahren (XIII)
Spezielle Standards: Schätzung der Fehlklassifikationsrate und Festlegung der Endknoten
 Die Definition des verwendeteten Resubstitutionsschätzers oder eines
anderen Schätzers der Fehlklassifikationsrate zur Bestimmung der
optimalen Größe des Entscheidungsbaums muß dargelegt werden. Die
Wahl dieses Schätzers muß begründet werden.
 Das Verfahren der Zuordnung der Endknoten eines Entscheidungsbaumes zu Objektklassen muß dargelegt werden. Insbesondere sollte
dargelegt werden, daß der Grad der Fehlklassifikation der Lernstichprobenelemente bei der gewählten Zuordnung optimal ist.
 Das Verfahren zur endgültigen Festlegung der Baumgröße unter
Verwendung der Fehlklassifikationsrate muß dargelegt werden. Die
Fehlklassifikationsrate des festgelegten Entscheidungsbaumes muß
anhand eines Teststichprobenverfahrens überprüft und dokumentiert
werden. Das Teststichprobenverfahren muß erläutert werden.
Lernstichprobe und eine zugehörige Teststichprobe darzulegen.
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
23
Credit Risk
Management
Teil 4
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
24
Clusteranalyse
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
25
Clusteranalyse (I)
Allgemeine Beschreibung
Der Begriff Clusteranalyse wird vielfach als Sammelname für eine
Reihe mathematisch-statistischer Verfahren angesehen, mit deren
Hilfe eine Menge von Objekten zu homogenen Teilmengen bzw.
Klassen oder Cluster gruppiert werden kann.
Synonym zum Begriff der Clusteranalyse sind die Begriffe
numerische Taxonomie oder multivariate Klassifikationsanalyse.
Die Klassenbildung erfolgt dabei so, daß Objekte mit möglichst
ähnlichen Eigenschaften zusammengefaßt und "unähnliche"
Objekte voneinander separiert, also unterschiedlichen Klassen
zugeordnet werden.
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
26
Clusteranalyse (II)
Allgemeine Beschreibung
Eine Klasse bzw. ein Cluster stellt hierbei das Element einer
Partition bzw. einer Zerlegung dar, wobei eine Partition bei
klassischen Clusterverfahren durch die nachstehenden Bedingungen charakterisiert werden kann:
Pz  Ph   für alle z, h = 1, ,c ; z  h
Pz   für alle z = 1, ,c
c
 Pz  E , wobei E die Grundgesamtheit ist.
z 1
Diese Bedingungen stellen sicher, daß die
 Cluster paarweise disjunkt,
 jedes Cluster mindestens ein Element enthält und
 jedes Objekt einem Cluster zugeordnet sein muß.
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
27
Clusteranalyse (III)
Ablaufschema
einer Partition
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
28
Clusteranalyse (IV)
Ablaufschema einer Partition
Die Qualität der Endpartition hängt in starkem Maße von der
Merkmalselektion ab und ist daher sorgfältig durchzuführen.
Weiterhin sollte die Zahl der Merkmale nicht zu groß sein, da sonst
davon auszugehen ist, daß einige davon miteinander korreliert sind.
Der Anwender hat dann für jedes Objekt die Ausprägungen der
Merkmale zu quantifizieren; sie werden durch mij symbolisiert.
M1 M1  M1
Merkmale
Datenmatrix
 m11 m12 ... m1f  O1


 m 2l m 22 ... m 2f  O 2
M



  


 m n1 m n 2 ... m nf  O n
Objekt 1
Objekt n
Objekt n
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
29
Clusteranalyse (V)
Proximitätsmaße
Im nächsten Schritt ist für jedes Objektpaar und ein Ähnlichkeitsoder Distanzwert zu ermitteln, der unter Einbeziehung sämtlicher
relevanter Merkmale dessen Ähnlichkeit bzw. Verschiedenheit
repräsentiert.
Ähnlichkeits- und Distanzwerte werden mittels reellwertigen
Funktionen berechnet, die den Merkmalsausprägungen mkj und mlj
der Objekte Ok und Ol eine reelle Zahl zuordnen:
Ähnlichkeitsfunktion
skl  s(mk, ml )
Distanzfunktion
dkl  d(mk, ml )
mit
.
mi  (mi1, mi2 ,, mif )'
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
30
Clusteranalyse (VI)
Ähnlichkeit
Für die Ähnlichkeit zweier Objekte Ok und Ol, symbolisiert durch
skl, muß gelten:
skl  slk
s kk  1
0  skl  1
Während die erste Bedingung die Symmetrie der Ähnlichkeiten
zweier Objekte beinhaltet, sichern die beiden anderen Bedingungen
die Normierung auf das Intervall [0,1] und drücken aus, daß die
Ähnlichkeit eines Objekts zu einem anderen Objekt nicht größer
sein kann als zu sich selbst.
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
31
Clusteranalyse (VII)
Distanzen
Bedingungen für Distanzen:
dkl  dlk
d kk  0
d kl  0
dkl  dkr  drl
Die erste Bedingung sichert die Symmetrie der Distanzen zwischen
zwei Objekten.
Mit der Dreiecks-Ungleichung erfüllt das Distanzmaß die
Eigenschaft einer Metrik.
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
32
Clusteranalyse (VIII)
Distanzmaße (Proximitätsmaße)
Lq-Distanz (Minkowski-Metrik)
f
dkl   | mkj  mlj |
j1
1
dkl  [  | mkj  mlj |q ]q
f
j1
L1-Distanz (City-Block-Metrik)
f
L2-Distanz (Euklidsche Metrik)
1
dkl  [  (mkj  mlj )2 ]2
j1
L(mk, ml )  Max | mkj  mlj |,L -Distanz (Chebychev Metrik)
j
Bei der Verwendung der Distanzen sind darauf zu achten, dass die
Merkmale oft von unterschiedlicher Wichtigkeit sind und
verschiedene Maßstäbe aufweisen. Sie sollten daher auf einen
f
1
einheitliche Skala transformiert
2 ]2
d

[
g
(
m

m
)

kl
j kj
lj
und gewichtet werden, z.B.
j1
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
33
Clusteranalyse (IX)
Mahalanobis-Distanz
Da sowohl das Gewichten der Merkmale als auch die Angleichung
der unterschiedlichen Maßstäbe nur nach subjektiven Kriterien
erfolgen kann, können die Ergebnisse der Clusteranalyse durch die
Festlegung der Gewichte vom Anwender manipuliert werden.
Auf der anderen Seite ist davon auszugehen, daß ein Nutzer der
Clusteranalyse im Regelfall kein Interesse daran haben wird,
Ergebnisse bewußt zu verzerren.
Da Gewichtungen durch korrelierte Merkmale verstärkt bzw. abgeschwächt werden können und es so zu Verzerrungen der Gruppierungsergebnisse kommen kann, empfiehlt sich die Verwendung der
1
Mahalanobis-Distanz d 1(mkj, mlj )  [(mkj  mlj )T K 1(mkj  mlj )]2
K
wobei K 1 die Inverse der Kovarianzmatrix der Variablen ist.
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
34
Clusteranalyse (X)
Ähnlichkeits oder Distanzmatrix
Eine direkte Ermittlung von Proximitäten zwischen Objekten ist
grundsätzlich nur bei metrisch skalierten Merkmalen möglich, es
existieren aber Hilfskonstruktionen, um auch mit ordinal skalierten
oder nominal skalierten Attributen arbeiten zu können.
Hat man sich für ein Proximitätsmaß entschieden, so ist die
Datenmatrix M in eine Ähnlichkeitsmatrix S oder in eine
Distanzmatrix D zu überführen:
O1 O1 ... O1
O1 O1 ... O1
 s11 s12 ... s1n 
 d11 d12 ... d1n  O1
s

d
 O
s
...
s
d
...
d
2
2n  D   21
22
2n 
S   21 22


 


 
 
 
s

d
 O
s
...
s
d
...
d
 n1 n2
 n1 n2
n
nn 
nn 
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
35
Clusteranalyse (XI)
Clusterverfahren
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
36
Clusteranalyse (XII)
Hierarchische Clusterverfahren
Ausgangspunkt divisiver Verfahren ist ein Gesamtcluster, das alle
Elemente enthält. Im Verlaufe des Verfahrens werden die Elemente
dieses Clusters schrittweise in kleinere Cluster zerlegt.
Divisive Verfahren führen im Vergleich zu agglomerativen
Varianten i.d.R. zu schlechteren Ergebnissen und sind rechenzeitaufwendiger und daher in der Praxis kaum von Bedeutung.
Bei agglomerativen Algorithmen geht man davon aus, daß jedes
Objekt anfangs einen Cluster bildet. Diese Anfangspartition wird
dann schrittweise modifiziert, indem die Cluster sukzessiv zu
größeren Aggregaten zusammengefaßt werden.
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
37
Clusteranalyse (XIII)
Agglomerative
Algorithmen
Verfahrensablauf
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
38
Clusteranalyse (XIV)
WARD-Verfahren
Beim Ward-Verfahren werden die zu fusionierenden Cluster durch
die Intraclustervarianzen determiniert. Für alle Cluster Pz, z=1,..., c
sind daher zunächst die Clustercentroide, also die Vektoren der
Mittelwerte aller Merkmalsausprägungen der Clusterelemente zu
berechnen:
uz  1  mi
nz
OiPz
nz symbolisiert hierbei die Anzahl der Objekte des Clusters Pz.
Diese Centroide sind imaginäre Objekte, die die entsprechenden
Objektklassen repräsentieren. Sie werden zur Ermittlung der
Summe der Clustervarianzen aller Klassen benötigt:
c
w(P)    | mi  uz |2
z 1 OiPz
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
39
Clusteranalyse (XV)
WARD-Verfahren
Man agglomeriert dann jene Cluster, die zu einem minimalen
Anstieg der Gesamtvarianz führen. Der Zuwachs der Gesamtvarianz w, der sich bei der Fusion zweier Cluster Pk und Pl ergibt,
läßt sich berechnen als:
nknl
w(Pk, Pl ) 
| ul  uk |2
nk  nl
Im nächsten Iterationszyklus wird wieder die Gesamtvarianz als
Summe der Intraclustervarianzen berechnet und jenes Clusterpaar
fusioniert, das zum geringsten Zuwachs der Gesamtvarianz führt.
Der Iterationszyklus solange durchlaufen, bis alle Cluster zu einer
einzigen Klasse fusioniert sind. Die Klassenanzahl ist nachträglich
zu fixieren.
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
40
Clusteranalyse (XVI)
Dendogramm
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
41
Clusteranalyse (XVII)
Partionierende Verfahren
Da bei hierarchisch-agglomerativen Verfahren einmal konstruierte
Cluster nicht wieder aufgelöst werden können, muß im Verlaufe des
Iterationsprozesses mit Suboptimalitäten gerechnet werden.
Deshalb lassen sich die Resultate hierarchisch-agglomerativer
Varianten i.d.R. durch partitionierende Verfahren verbessern.
Diese Varianten der Clusteranalyse setzen eine Anfangspartition
voraus und stellen keine Alternative zu hierarchischen Verfahren
dar, sondern sind als Ergänzung bzw. Erweiterung anzusehen.
Zu den gebräuchlichsten Varianten zählen die
Austausch-Verfahren
und die
iterativen Minimal-Distanz-Verfahren.
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
42
Clusteranalyse (XVIII)
Austausch-Verfahren
 Nach der Ermittlung einer Anfangspartition mit c Clustern wird
ein Element aus einem Cluster entfernt und einem anderen zugefügt. Daraufhin ist für die betreffenden Cluster ein benutzerdefiniertes Gütekriterium, z.B. ein Homogenitäts- bzw.
Heterogenitätsmaß, neu zu berechnen.
 Anschließend wird das Element nach und nach den verbleibenden c-2 Clustern zugefügt und die Berechnung der jeweiligen
Gütekriterien durchgeführt. Schließlich wird jene Partition
übernommen, die zur größten Verbesserung führt.
 Das Verfahren endet, wenn alle Elemente überprüft sind. Die
ermittelte Lösung konvergiert dabei gegen ein lokales Optimum.
 Da nur ein Objekt pro Iterationsschritt ausgetauscht wird, stellt
dieses jedoch i.d.R. kein globales Optimum dar.
Mathematisch-Statistische Verfahren des Risikomanagements - SS2002
43

Vorlesung vom 04.06.02 (Powerpoint)