Arb Dec
Arb Dec
Arb Dec
Nadia Abchiche
Laboratoire IBISC
[email protected]
Définition
• Objectifs :
– Minimiser la taille de l’arbre (facilitant la recherche)
– Établir un compromis entre le taux d’erreurs de classification sur
l’ensemble d’apprentissage (données utilisées pour la construction)
et sur l’ensemble de test (données utilisées pour valider la
classification) afin de pouvoir de procéder à une généralisation.
• On intervient à 2 niveaux :
– 1. On sélectionne les attributs qui minimisent la taille de l’arbre tout
en classant correctement les exemples de l’ensemble
d’apprentissage.
– 2. On élague certaines branches de manière à garder un pouvoir
de généralisation (au prix de faire augmenter l’erreur sur
l’ensemble d’apprentissage) (pendant la construction ou bien après
la construction de l’arbre)
Utilisation des ArbDec
Principe
• Construction récursive, en découpant
successivement l’ensemble d’exemples E.
– 1. Si tous les exemples sont dans une seule
classe, on place une feuille de cette classe.
– 2. Sinon, on choisit une question (la plus
discriminante possible), on découpe l’ensemble
d’exemples suivant cette question. Pour chaque
nouvel ensemble, on construit un sous-arbre de
décision.
Note : il est classique d’élaguer l’arbre ensuite à
l’aide d’un ensemble d’exemples supplémentaires.
Construction d’un arbre de décision
(suite)
Algorithme (cas binaire)
• On suppose que toutes les questions ont comme réponse oui
ou non.
• X un ensemble de données
• Procedure Construit_arbre(X)
debut
Si tous les points de X sont dans la même classe
alors Créer une feuille de cette classe
sinon choisir le meilleur sélecteur (la meilleure question) pour créer
un noeud. Séparer X suivant ce sélecteur en Xd et Xg .
Construit_arbre(Xd )
Construit_arbre(Xg )
finsi
Fin
Construction d’un arbre de décision (suite)
Exemple 2
Un écolier peut-il aller jouer dehors ? Voilà ce qu’il a observé :
Temps = beau ?
Faux Vrai
Devoirs finis ?
Goûter pris ?
Oui Non
• Adaptations possibles:
– Pour des attributs à plusieurs réponses
(couleurs...), on peut soit traiter toutes les
réponses à la fois, soit revenir à des questions
oui/non.
– Pour les attributs continus (numériques), on peut
tester d’éventuels "seuils" dans les valeurs
(exemple pour un poids : moins de 50 g, plus de
500 g, etc.).
– Peut être étendu pour traiter des données bruitées
ou contradictoires.
• Inconvénient majeur : difficile à maintenir
(modification)
Quelques références
• L. Breiman, J. H. Friedman, R. A. Olshen, and C. J.
Stone. Classification and regression trees. Technical
report, Wadsworth International, Monterey, CA, 1984
• Algorithme de base (ID3) :
– J.R. Quinlan, "Discovering rules by induction from
large collections of examples", D. Michie ed., Expert
Systems in the Microelectronic age, pp. 168-201,
1979.
• Algorithme amélioré (ID3-IV) -
– J.R. Quinlan, "Induction of Decision Trees", Machine
Learning, vol. 1, pp. 81-106, 1986.
• Ajouter article.