CSAA NonSupervise
CSAA NonSupervise
CSAA NonSupervise
M1 IAFA-SECIL
Université Paul Sabatier
Contacts :
[email protected]
[email protected]
1 / 26
Apprentissage non supervisé
2 / 26
Apprentissage non supervisé
3 / 26
Apprentissage non supervisé
3 / 26
Classification non supervisée
4 / 26
Kppv
5 / 26
Kppv
5 / 26
K-means - James MacQueen (1967)
6 / 26
Algorithme K-means
7 / 26
Algorithme K-means
8 / 26
K-means : limites
9 / 26
K-means : limites
9 / 26
K-means : limites
9 / 26
K-means : limites
9 / 26
K-means : limites
Pureté = 0.75
SSE = 359.80
Satisfaisant ?
10 / 26
k-moyennes à noyaux / Kernel k-means
Idée : projeter les données sur un espace à plus grande dimension grâce à
une fonction "noyau" et appliquer ensuite l’algorithme k-moyennes dans
cet espace
11 / 26
Exemple : noyau gaussien radial
12 / 26
Exemple : noyau gaussien radial
Pureté = 1.0
SSE = 309.81
Satisfaisant ?
13 / 26
Classification Hiérarchique
14 / 26
Classification Hiérarchique : mesures de dissimilarités
Dissimilarité moyenne/Group
Average :
1 X
dGA (G , H) = dii ′
|G ||H| ′ i∈G ,i ∈H
Dissimilarité du lien
complet/complete linkage
dCL (G , H) = max dii ′
i∈G , i ′ ∈H
15 / 26
Classification Hiérarchique
Définition : Une partition Πi est plus fine que partition Πj ssi tout bloc de Πj
est un bloc de Πi ou est l’union de plusieurs blocs de Πi .
16 / 26
Classification Hiérarchique
On peut afficher l’arbre binaire de sorte que la hauteur de chaque noeud soit
équivalente à la valeur de la dissimilarité intercluster entre ces deux enfants. Ce
type d’affichage est appelé dendrogramme.
17 / 26
Classification Hiérarchique
Exercice :
A partir de la matrice des distances entre les points suivante :
A B C D
A 0 1 4 5
B 0 2 6
C 0 3
D 0
18 / 26
Classification Hiérarchique : limites
Une fois qu’un regroupement ou une division est réalisé, pas de possibilité
de revenir en arrière
Complexité en O(n2 ) : problème de passage à l’échelle
Des variantes plus compliquées existent, comme par exemple BIRCH :
Balanced Iterative Reducing and Clustering using Hierarchies, (Zhang, et
al., 1996).
Principe de BIRCH : clustering multi-niveaux qui construit un arbre de
features. Les feuilles de l’arbre sont l’objet d’un clustering, par exemple un
k-moyennes.
19 / 26
Beaucoup d’autres techniques de clustering
http://scikit-learn.org/stable/modules/clustering.html
20 / 26
Le non-supervisé : un monde...
21 / 26
Méthodes d’évaluation non supervisée de la partition
Cohésion et Séparation
la cohésion d’une classe mesure comment les objets d’un cluster sont
étroitement liés;
la séparation d’une classe mesure comment une classe est distincte ou bien
séparée de l’autre.
X
Separation(Ci , Cj ) = prox(x, y ), i ̸= j
x∈Ci ,y ∈Cj
22 / 26
SSW et BSS
23 / 26
SSW et BSS : variantes
24 / 26
SSW et BSS : variantes
25 / 26
SSW et BSS : variantes
Interprétation : le coefficient de silhouette permet de qualifier simplement le
partitionnement:
Des valeurs positives indiquent une séparation élevée entre les clusters.
Les valeurs négatives indiquent que les classes sont mélangées entre elles
(c’est-à-dire qu’il y a chevauchement de classes).
Lorsque le coefficient de silhouette est nul, c’est une indication que les
données sont uniformément réparties dans l’espace euclidien.
25 / 26
Cas de la classification hiérarchique
avec
d(xi , xj ) distace entre les données xi et xj
T (i, j) la distance cophénétique entre les données xi et xj
d¯ (resp. T̄ ) est la moyenne des distances (resp. distances cophénétiques).
⇒ Très utilisé en biostatistique pour évaluer des modèles de séquences d’ADN.
26 / 26