Chap3 KNN
Chap3 KNN
Chap3 KNN
(K-NEAREST NEIGHBORS
K-PLUS PROCHES VOISINS)
Azzeddine Mazroui
Master d’Ingénierie Informatique
2022-2023
Introduction
■ La classification se déroule en quatre étapes :
C2
C1
C3
– d(A,A)=0
– d(A,B)= d(B,A)
𝑖=1
■ Si k est grand alors l’algorithme est moins sensible aux bruits mais le
coût de calcul est plus élevé.
– Une distance d
– Un entier k
■ Pour tout nouveau point de test X, pour lequel on doit prendre une
décision, l’algorithme recherche dans D les k points les plus proches
de X au sens de la distance d, et attribue à X la classe qui est la plus
fréquente parmi ces k voisins.
Fouad 37 16 2 ?
■ Si on choisit k=1, alors Ali est le voisin le plus proche de Fouad, et par
suite Fouad sera classé ’’non fidèle’’.
■ Si on choisit k=3, alors Ali, Hassan et Fadoua sont les voisins les plus
proches de Fouad, et par suite comme Hassan et Fadoua sont classés
’’fidèle’’ alors Fouad sera également classé ’’ fidèle’’. 18
Avantages de l’algorithme k-NN
■ Méthode facile à comprendre et à implémenter.
■ Pas de construction de modèle : cette méthode ne nécessite pas
une phase d’apprentissage et l’introduction de nouvelles données
permet d'améliorer la qualité de la méthode.
■ Clarté des résultats : la classe attribuée à un exemple est expliquée
en exhibant les plus proches voisins qui ont amené à ce choix.
■ Tout type de données : la méthode s'applique dès qu'il est possible
de définir une distance sur les enregistrements. Or, il est possible
de définir des distances sur des champs complexes tels que des
données vectorielles numériques, des informations géographiques,
des textes, des images, du son.
■ Nombre d’attributs : la méthode permet de traiter des problèmes
avec un grand nombre d'attributs. Mais, plus le nombre d'attributs
est important, plus le nombre d'exemples de l’ensemble
d’apprentissage doit être grand. 19
Inconvénients de l’algorithme k-NN