AI_Chap2 (1)
AI_Chap2 (1)
AI_Chap2 (1)
(Unsupervised Learning)
1. Introduction
2. Taxonomie des algorithmes d’apprentissage non supervisé
3. Algorithme K-Means
4. Applications
Caractéristique 2
4 53467 13.59
5 55920 14.70
6 41231 12.97
7 48570 13.33
8 64616 11.64
9 54917 14.33
10 59689 14.68 Cluster 3
11 61443 15.43
12 63892 10.28
13 62502 15.62
… … …
Caratéristique 1
Fruit • Couleur
• Texture
Algorithme de
regroupement
Clusters
Cluster 1
Cluster 2 Le processus d’apprentissage non supervisé
est appelé Clustering ou regroupement.
Caractéristique 2
Clustering partionnel (Partional clustering) est fondé sur la séparation des données
en utilisant les centroides des clusters.
Centroïde
Centroïde
Cluster 1
Cluster 2
Principe :
Caractéristique 2
Centroïde
Caractéristique 1
Difficulté :
Détermination des centroïdes.
Principe :
1. Au départ, chaque échantillon est considéré
comme un cluster.
Caractéristique 2
Caractéristique 1
Etape 1 :
Caractéristique 2
Caractéristique 2
Caratéristique 1 Caratéristique 1
Etape 2 :
Caractéristique 2
Caractéristique 2
Caractéristique 1 Caractéristique 1
Etape 3 :
Caractéristique 2
Caractéristique 2
Caractéristique 1 Caractéristique 1
Etape 4 :
Caractéristique 2
Caractéristique 2
Caractéristique 1 Caractéristique 1
Etape 5 :
Caractéristique 2
Caractéristique 2
Caractéristique 1 Caractéristique 1
Caractéristique 2 2
1
4
3
6
5
1 2 4 3 5 6
Caractéristique 1 Dendogramme
(Représentation hiérarchique)
Combien de clusters ?
Outliers
Caractéristique 2
Caractéristique 1
Caractéristique 1
Algorithm:
Centroid
1: Define the number of K clusters.
Centroid Cluster 1 2: Initialize randomly the K centroids.
Cluster 2
3: Repeat:
4: Expectation: Assign each sample to the
Feature 2
nearest centroid.
5: Maximization : Calculate the new
Cluster 3 centroids using the average in each cluster.
Feature 1
Notations :
• = , ,….., where defines the sample of the index = 1, … , and is the
number of samples.
• = , ,…, where is the cluster of the index = 2, … , and defines the
number of clusters.
• Each cluster is composed of a subset ={ , , ,…, } having samples.
1
=
Feature 2
Feature 2
Feature 1 Feature 1
, =
Feature 2
Feature 1
Feature 2
Feature 2
Feature 1 Feature 1
Feature 2
Feature 2
Feature 1 Feature 1
Notation:
= ( , )
= + +…+
Feature 1
Feature 2
Feature 2
Feature 1 Feature 1 Feature 1
= 180 = 80 = 100
Elbow algorithm:
1: Define the range of the cluster’s number.
2: Calculate the inertia (SSE) for each number of clusters.
3: Plot the inertia versus the number of clusters.
4: Select the optimal number of clusters by searching the Elbow of the curve.
Elbow Curve
600
500
400
SSE (Inertia)
300
200
100
0
2 3 4 5 6 7 8 9 10 11 12
K Clusters
Notations :
• = , ,….., where defines the sample of the index = 1, … , and is the
number of samples.
• = , ,…, where is the uster of the index = 2, … , and defines the
number of clusters
• Each cluster is composed of a subset of samples namely .
The mean Silhouette score is then deduced for all samples as:
Feature 1
+1
1
1
1
Cluster 1
2
2
2
Feature 2
Silhouette algorithm:
1: Define the range of the cluster’s number.
2: Calculate the mean distance of the points belonging to the same cluster.
3: Calculate the mean distance of the points belonging to other clusters.
4: Calculate the Silhouette score.
5: Plot the Silhouette score versus the cluster’s number.
6: Select the optimal cluster’s number by finding the maximum score.
0.6
0.5
Score
0.4
0.3
0.2
0.1
0
2 3 4 5 6 7 8 9 10 11 12
K Clusters