Localisation Et Navigation D'un Robot Mobile Par Webcam: Mémoire de Projet de Fin D'études

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 101

‫ا ـ ور ا زا ر ا د راط ا‬

République Algérienne démocratique et populaire

‫وزارة ا م ا ــ ــ و ا ــث ا ــ ــ‬


Ministère de l’enseignement supérieur et de la recherche scientifique

‫د د ب ا دة‬ ‫ــ‬
Université SAAD DAHLAB de BLIDA

‫ا وو‬
Faculté de Technologie

‫م ا! رو ـك‬
Département d’Électronique

Mémoire de Projet de Fin d’Études


présenté par

ZEKHREF Oussama

&

NOUIOUA Med Islam


pour l’obtention du diplôme de Master en Électronique option ‘Système de vision et
robotique’

Thème

Localisation et navigation d’un


robot mobile par webcam

Proposé par : Mr.KAZED BOUALEM

Année Universitaire 2014-2015


Remerciements
Nous remercions tout d’abord, ALLAH le tout puissant,
pour nous avoir accordé la santé et le courage afin d’arriver
au terme de ce travail.

Nous tenons à exprimer notre profonde gratitude et nos sincères


remerciements :
À notre promoteur Dr B.KAZED pour son encadrement
qu’on a reçu et pour son aide et ses précieux
encouragements pour la mise en œuvre de ce travail.

A nos familles, collègues et amis, pour leur patience,


soutien et disponibilité.

A toutes les personnes qui ont participé de prés ou de loin à


la réalisation de ce travail. Notamment nos enseignants qui nous
ont instruits Tout au long de notre long parcours et en précisant
les jurys.
Dédicaces
Nous dédions ce modeste travail à nos chers parents, sources de
nos joies
Secrets de nos forces, grâce à leurs tendres encouragements et
leurs grands sacrifices, ils ont pu créer le climat affectueux et
propice à la poursuite de nos études.

Aucune dédicace ne pourrait exprimer notre respect, nos


considérations et nos profonds sentiments envers eux.

A nos sœurs et nos frères

A nos familles

Ils vont trouver ici l’expression de nos sentiments de respect et


de reconnaissance pour le soutien qu’ils n’ont cessé de nous
porter.

A tous nos amis et nos collègues

Ils vont trouver ici le témoignage d’une fidélité et

d’une amitié infinie


:‫ص‬

‫ور‬ ‫ا‬ ‫دام‬ ‫اوت ا‬ ‫ل‬ ‫م رو وت‬ ‫و ددو‬ ‫و را‬ ‫وم و‬ ‫رو‬
# ‫ر‬$ %‫ ر و ا‬%‫ وان ا‬%‫دام ا‬ ‫ا رو وت‬ ‫ف ن و‬ ‫را و ب‬ ‫ل‬ ‫أو‬، ‫م‬ ‫طب و‬
‫راج ل‬ ‫ وم ط ب‬، ‫ ت‬.‫ دا‬/‫ ن ن ا‬.‫ ا‬0 ‫ ل ون‬،0 ‫زرق ا *دف ا راد ا و ول إ‬%‫رأس ا رو وت وا‬
‫ا و ود‬ ‫ رو‬/‫م ا‬ ‫ ا‬#‫ت إ‬ ‫ظ ا‬ ‫ل‬ ‫و‬ ‫م ر ل‬. , ‫ز‬3 ‫ت ا‬ ‫ ت و وم ل ا‬.‫ دا‬/‫ا‬
‫دم ا رو وت أ *زة‬ ،0 ‫ ء‬.‫ل أ‬ ‫ل‬ 0 ‫ ا *دف و ر‬# ‫د ا رو وت و ول إ‬ ‫ت‬ ‫ھذه ا‬, ‫ا رو وت‬
.‫طر ق‬ 0‫د‬ ‫تا‬ ‫با‬ ‫لا ر‬ ‫را‬ ‫ا‬

‫را و ب‬ , ‫م‬ ,‫ور‬ ‫ا‬ , ‫ ا رؤ‬, 3 ‫ا‬، ‫ا و‬,‫م‬ ‫ا‬ ‫ذا‬,‫ول‬ ‫ ا رو وت ا‬: ‫تا‬
.‫ت‬ ‫ا‬,
Résumé :
Notre projet a pour objet de réaliser un système complet de localisation et navigation pour
un robot mobile. L’approche adoptée consiste à utiliser une webcam reliée un ordinateur,
qui grâce à un programme de traitement vidéo, permettra de localiser le robot ainsi que
l’objectif à atteindre. Les coordonnées du robot et de la cible obtenus par le programme au
niveau du PC seront transmisses, par ondes UHF au robot, qui pourra ainsi déterminer les
manœuvres nécessaires à accomplir pour atteindre l’objectif final. Au cours de son
déplacement le robot peut rencontrer des obstacles, ce genre de problèmes est aussi pris en
charge par notre système de navigation.
Mots clés : Robot mobile, Autonome, Localisation, Navigation, Vision, traitement d’image,
système sans fil, webcam, communication.

Abstract :

The aim of our project is to design a complete localization and navigation system for a
mobile robot. The adopted approach is based on using a webcam linked to a computer
which is in charge of all the video processing needed to obtain the robot posture together
with the coordinates of the targeted position for the robot. These coordinates are
transmitted to the robot using a pair of wireless modules. Knowing its posture and its final
position the robot will be able accomplish its tasks. In case of the presence of an obstacle in
its path the robot is also able avoid it and carry on its movement towards the final goal.

Keywords : Mobile robot, Autonome, Localization, Navigation, Vision, image processing,


Wireless system, webcam, communication.
Liste des abréviations
CIR : Centre Instantané de Rotation

GPS : Système de Positionnement Global (Global Positioning System)

CCD : charge-coupled device

CMOS : Complementary metal–oxide–semiconductor

VAO : vision assisté par ordinateur

AVR : Architecture Harvard 8 bits RISC

RISC : Reduced instruction set computer

E/S : Entrée/Sortie

ADC : Convertisseur analogique-numérique (Analog to Digital Converter)

PWM : La modulation de largeur d'impulsions (Pulse-width modulation)

TWI : Interface de deux fils (Two Wire Interface)

SRAM : Static Random Access Memory

EEPROM : Electrically Erasable Programmable Read-Only Memory

IDE : Integrated Development Environment

UART : Universal Asynchronous Receiver Transmitter

MLI : Modulation de largeur d'impulsion

I²C : Inter-Integrated Circuit

SDA : ligne de données bidirectionnelle (Serial Data Line)

SCL: ligne d'horloge de synchronisation bidirectionnelle (Serial Clock Line)

ISP: in-system programmer

SMD : montage en surface (surface-mounted)


FTDI : Future Technology Devices International

SPI : Serial Peripheral Interface

MISO : Maître d'entrée Esclave sortie (Master Input Slave Output)

MOSI : Maître de sortie Esclave d'entrée (Master Output Slave Input)

SDO : Serial data d’entrée (Serial Data Out )

SDI : Serial data de sortie (Serial Data Input)

SCK : Serial horloge de SPI (SPI Serial Clock)


Table des matières
Introduction général………………………………………………………………………………………………… 1

Chapitre I : Généralité sur la robotique mobile ………………………………………………… 3

I.1 Introduction ………………………………………………………………………………………………………………. 3

I.1.1 Historique…………………………………………………………………………………………………………… 4

I.1.2 Définitions………………………………………………………………………………………………………….. 8

I.1.3 Les lois de la robotique ……………………………………………………………………………..……….. 8

I.2 Le robot mobile…………………………………………………………………………………………………………… 9

I.2.1 présentation général sur les robots mobiles……………………………………………………….. 9

I.2.2 Classification des Robots Mobiles………………………………………………………………………. 9

I.2.2.1 Classification selon le degré d'autonomie ………………………………………………... 10

I.2.2.2 Classification selon le type de locomotion .................................................… 10

I.2.2.2.1 Les robots mobiles à roues ……..………………………………………………. 10

I.2.2.2.2 Les robots mobiles a chenilles .……………………………………………… 12

I.2.2.2.3 Les robots mobiles marcheurs ……………………………………………… 13

I.2.2.2.4 Les robots mobiles rampants ……………………………………………….. 14

I.2.2.3 Classification selon leur domaine d'application ……………………………………. 15

I.2.3 Composants et architecture des robots mobile ……………………………………………… 16

I.2.3.1 Composant fonctionnels ………………………………………………………………………… 16

I.2.3.2 Technologie de constituants ..………………………………………………………………… 16

I.2.3.3 Architecture des robots mobiles ……………………………………………………………. 17

I.2.4 La Navigation des Robot Mobile ……………………………………………………………………… 18

I.2.5 La robotique et l’intelligence artificielle …………………………………………………………… 20

I.2.5.1 Intelligence Artificielle (IA) ……………………………………………………………………… 20

I.2.5.2 Les outils d'exécution de l'IA dans le robot …………………………………………….. 20


I.2.5.3 Types de programmes d’IA utilisées dans la robotique …………………………… 20

I.2.5.4 Domaines d’application d’IA dans la robotique ……………………………………... 21

I.3 Conclusion ……………………………………………………………………………………………………………….. 21

Chapitre II : La localisation en robotique mobile …………………………………………….. 22


II.1 Introduction …………………………………………………………………………………………………………….. 22

II.2 La localisation d’un Robot mobile ……………………………………………………………………………. 23

II.3 les Méthodes localisation ……………………………………………………………………………………… 24

II.3.1 La localisation relative ………………………………………………………………………………….. 24

II.3.1.1 Les odomètres ………………………………………………………………………………… 24

II.3.1.2 Les accéléromètres …………………………………………………………………………… 25

II.3.1.3 Le radar Doppler ……………………………………………………………………………….. 26

II.3.1.4 Le gyroscope ……………………………………………………………………………………… 27

II.3.2 La localisation absolue …………………………………………………………………………………….. 27

II.3.2.1 Les capteurs extéroceptifs …………………………………………………………………… 28

II.3.2.2.1 les télémètres laser ……………………………………………………………… 29

II.3.2.2.2 Les capteurs infrarouge ……………………………………………………….. 29

II.3.2.2.3 Les capteurs ultrason …………………………………………………………… 30

II.3.2.2.4 Les Balises à laser ……………………………………………………………….. 31

II.3.2.2 Localisation par vision artificiel …………………………………………………………. 31

II.3.2.3 Le géo-positionnement ………………………………………………………………………. 33

II.4 Conclusion ………………………………………………………………………………………………………………… 34

Chapitre III : Généralités sur le traitement d’image …………………………………………. 35


III.1 Introduction ………………………………………………………………………………………………………………. 35
III.2 L’image numérique ………………………………………………………………………………………………….. 36

III.3 Les type d’images …………………………………………………………………………………………………..... 36

III.3.1 Image binaire ……………………………………………………………………………………………… 36

III.3.2 Image à niveau de gris ..………………………………………………………………………………. 37

III.3.3 Image couleur …………………………………………………………………………………………….. 37

III.4 Vision assisté par ordinateur (VAO) ………………………………………………………………………… 39

III.4.1 Acquisition …………………………………………………………………………………………………… 39

III.4.2 Prétraitement ……………………………………………………………………………………………… 40

III.4.2.1 La restauration …………………………………………………………………………………. 40

III.4.2.2 L’amélioration …………………………………………………………………………………. 41

III.4.2.2.1 la modification d’histogramme ………………………………………… 41

III.4.2.2.2 Le filtrage …………………………………………………………………………. 44

III.4.2.3 La compression ……………………………………………………………………………….. 45

III.4.3 L’analyse ……………………………………………………………………………………………………… 46

III.4.3.1 Segmentation ………………………………………………………………………………….. 46

III.4.3.1.1 Segmentation en régions ………………………………………………… 46

III.4.3.1.2 Segmentation en contours ……………………………………………….. 47

III.4.3.2 caractérisation …………………………………………………………………………………. 47

III.4.4 Apprentissage et classification ……………………………………………………………………… 47

III.4.5 Interprétation ………………………………………………………………………………………………. 48

III.5 Domaine d’application de traitement d’image ………………………………………………………… 48

III.6 Conclusion ………………………………………………………………………………………………………………. 48

Chapitre IV : Présentation générale du robot …………………………………………………… 49


IV.1 Principe de fonctionnement ……………………………………………………………………………………. 50
IV.2 Composants …………………………………………………………………………………………………………….. 50

IV.2.1 La partie mécanique ……………………………………………………………………………………… 50

IV.2.1.1 Moteurs …………………………………………………………………………………………… 50

IV.2.1.2 Les roues motrices …………………………………………………………………………… 51

IV.2.2 La partie électronique ………………………………………………………………………………….. 51

IV.2.2.1 Carte de commande ………………………………………………………………………… 51

IV.2.2.1.1 Arduino UNO……………………………………………………………………. 52

IV.2.2.1.2 RedBoard…………………………………………………………………………. 56

IV.2.2.2 Carte de puissance ………………………………………………………………………….. 57

IV.2.2.3 Les capteurs …………………………………………………………………………………... 58

IV.2.2.3.1 Capteur infrarouge …………………………………………………………… 58

IV.2.2.3.2 Capteur fin de course ……………………………………………………… 58

IV.2.2.4 Webcam ………………………………………………………………………………………… 59

IV.2.2.5 Système sans fil ……………………………………………………………………………… 59

IV.3 Les bus de communication …………………………………………………………………………………….. 60

IV.3.1 Le Bus I²C …………………………………………………………………………………………………..... 60

IV.3.1.1 Caractéristiques ……………………………………………………………………………….. 60

IV.3.1.2 La prise de contrôle du bus ……………………………………………………………… 60

IV.3.1.3 Lecture d'une donnée ….…………………………………………………………………… 61

IV.3.1.4 Écriture d'une donnée ………………………………………………………………………. 61

IV.3.1.5 La transmission d'une adresse …………………………………………………………… 62

IV.3.2 Le Bus SPI ……………………………………………………………………………………………………….. 63

IV.3.2.1 Caractéristique …………………………………………………………………………………… 63

IV.3.2.2 principe d’une liaison SPI …………………………………………………………………… 64

IV.4 Communication entre les composants ……………………………………………………………………… 65


IV.5 Programmation………………………………………………………………………………………………………… 66

IV.5.1 Matlab…………………………………………………………………………………………………………….. 66

IV.5.1.1 Introduction sure Matlab …………………………………………………………………… 66

IV.5.1.2 Traitement d’image avec Matlab ……………………………………………………….. 66

IV.5.2 Arduino IDE …………………………………………………………………………………………………….. 67

IV.5.3 Les algorithmes du projet ……………………………………………………………………………….. 68

V.6 Conclusion ………………………………………………………………………………………………………………….. 78

Conclusion générale …………………………………………………………………………………………………… 79

Annex ……………………………………………………………………………………………………………………………. 80

Bibliographie ……………………………………………………………………………………………… 85
Liste des figures

Chapitre I

Figure I.1 1950-Dr. Grey Walter et ca tortue électronique ……………………………………………….. 4

Figure I.2 1950-1970 Robotique industrielle …………………………………………………………………….. 5

Figure I.3 1960-1980 : Premiers robot mobiles …………………………………………………………………. 6

Figure I.4 développent de la robotique mobile …………………………………………………………………. 6

Figure I.5 Robots d’exploration planétaires ………………………………………………………………………. 7

Figure I.6 Les robots de dernières années …………………………………………………………………........ 7

Figure I.7 Robots à roues différentielles …………………………………………………………………………… 11

Figure I.8 Robot tricycle ………………….……………………………………………………………………………….. 11

Figure I.9 Robot Voiture …………………………………………………………………………………………………… 11

Figure I.10 Robot mobile omnidirectionnelles ……………………………………………………..…………. 12

Figure I.11 Robot mobile à Chenilles ………………………………………….…………………………………… 12

Figure I.12 Robot hexapode (Asimo) ……………………………………………………………………………….. 13

Figure I.13 Robot hexapode ……………………………………………………………………………………………. 14

Figure I.14 Robot Rampant …………………………………………………………………………………………….. 14

Figure I.15 Architecture générale d'un système robotique ……………………………………………… 17

Figure I.16 Architecture d’un robot mobile ….…………………………………………………………………. 17

Figure I.17 Navigation d'un robot mobile dans un environnement plein d'obstacles ……… 19

Chapitre II

Figure II.1 formalisme du problème de localisation d’un robot mobile ………………………….. 23

Figure II.2 Odomètre (MG-10MC) ………………………………………………………………………………….. 25

Figure II.3 3-Axes Accéléromètre (MMA7361) ………………………………………………………………… 25


Figure II.4 Wireless radar Doppler (HB100) …………………………………………………………………. 26

Figure II.5 3-Axes Gyroscope (PmodGYRO L3G4200D) ………………………………………………….. 27

Figure II.6 Télémètre Laser………………………………………………………………………………………………. 29

Figure II.7 Capteur infrarouge (IR) ………………………………………………………………………………….. 30

Figure II.8 Capteur Ultrason (US) ……………………………………………………………………………………. 30

Figure II.9 Capteur de distance a balayage laser …………………………………………………………….. 31

Figure II.10 Camera CCD (Conrad BC-103 Sony) ……………………………………………………………. 32

Figure II.11 Module de réception GPS (LINX) ………………………………………………………………….. 34

Chapitre III

Figure III.1 Image binaire ………………………………………………………………………………………………. 36

Figure III.2 Image a niveau de gris …………………………………………………………………………………. 37

Figure III.3 Les canaux d’une image numérique couleur ………………………………………………… 38

Figure III.4 Synthèse additive des couleurs……………………………………………………………………... 38

Figure III.5 La chaine de la vision assisté par ordinateur (VAO) ………………………………………. 39

Figure III.6 les étapes de l’acquisition de l’image …………………………………………………………… 40

Figure III.7 Image et son histogramme ………………………………………………..……………………….. 41

Figure III.8 Image avant et après le recadrage ………………………………………………………………. 42

Figure III.9 Image avant et après l’égalisation d’histogramme ……………………………………….. 43

Figure III.10 Image filtré par le médian …………………………………………………………………………… 45

Figure III.11 Compression d’une image …………………………………………………………………………… 45

Chapitre IV

Figure IV.1 Photo du robot de l'extérieur……………………………………………………………………….. 49

Figure IV.2 Photo du robot de l'intérieur ………………………………………………………………………. 49


Figure IV.3 Le moteur EMG 30 ………………………………………………………………………………………. 51

Figure IV.4 Roue du robot ……………………………………………………………………………………………… 51

Figure IV.5 microcontrôleur ATMega328 ………………………………………………………………………. 52

Figure IV.6 Carte de commande Arduino UNO ………………………………………………………………. 52

Figure IV.7 Carte de commande Redboard ……………………………………………………………………. 56

Figure IV.8 Carte de puissance MD25 ……………………………………………………………………………. 57

Figure IV.9 Capteur infrarouge ……………………………………………………………………………………... 58

Figure IV.10 Interrupteur de fin de course ……………………………………………………………………. 58

Figure IV.11 La Webcam du projet ………………………………………………………………………………… 59

Figure IV.12 Le module émetteur/récepteur RF24 ………………………………………………………… 59

Figure IV.13 Exemple de condition de départ et d'arrêt ………………………………………………… 61

Figure IV.14 Exemple de lecture d'une donnée …………………………………………………………….. 61

Figure IV.15 Exemple d’écriture d'une donnée ………………………………………………………………. 61

Figure IV.16 Exemple d’une transmission d'une adresse ………………………………………………… 62

Figure IV.17 Schéma de connexions SPI ………………………………………………………………………….. 63

Figure IV.18 Schéma de principe simplifié d’une liaison SPI ……………………………………………. 64

Figure IV.19 Image qui simplifie les composants du projet …………………………………………….. 65

Figure IV.20 La fenêtre de l’Arduino IDE …………………………………………………………………………. 67

Liste des tableaux


Tableau I.1 Domaines d'utilisation des robots mobiles…………………………………………………….. 15

Tableau III.1 Domaine d’application de traitement d’image…………………………………………….. 48


Introduction Générale

Introduction générale
Le but de ce projet consiste à réaliser un robot mobile autonome capable de se
déplacer à l’intérieur d’une zone rectangulaire afin d’atteindre un objectif prédéfini. Etant
donné que cette opération nécessite, à chaque instant, la connaissance des coordonnées du
robot et de la cible nous avons élaboré notre stratégie en se basant sur l’utilisation d’une
webcam, placée au-dessus de l’aire sur laquelle le robot effectue ces mouvements. Cette
caméra est connectée à un ordinateur dans lequel les traitements d’images nécessaires sont
réalisés afin d’obtenir non seulement les coordonnées ainsi que l’orientation du robot mais
aussi celles de l’objectif à atteindre. Les coordonnées ainsi obtenus sont transmis, par ondes
UHF au robot, lui permettant d’effectuer les manœuvres nécessaires pour effectuer sa
mission, tout en évitant des obstacles éventuels sur son chemin. Le traitement d’images
utilisé se base sur l’extraction de couleurs particulières permettant de différencier entre les
éléments constituants la scène dont fait partie notre robot lors de ces déplacements.

Pour réaliser un système robotisé qui dispose d'un niveau d’autonomie et de facilités
de navigation, le système doit généralement accomplir trois tâches de base qui sont la
localisation, la planification et la navigation. Parmi ces tâches, la localisation occupe une
place de choix puisqu’elle détermine le bon déroulement des deux autres. Elle consiste à
calculer et à maintenir à jour la connaissance de la position (coordonnées) et de l’orientation
du robot. La vision par ordinateur est l'une des méthodes utilisées pour la localisation et qui
peut apporter une réponse. Se localiser est une de ces choses que nous faisons
naturellement en utilisant notre vue. Cela ne nous aide pas beaucoup pour construire un
algorithme utilisable par un ordinateur, mais cela nous montre tout de même qu’il existe
une solution performante au problème de la localisation par vision. Se localiser est une tâche
importante qu’un robot doit être capable de réaliser pour accomplir un certain nombre
d’objectives qu’il devra réaliser de manière autonome.

L’utilisation de la vision en robotique mobile a toujours séduit les chercheurs du


domaine à cause de l’analogie que l’on peut faire avec le système de localisation humain.
Lorsqu’on utilise la vision par ordinateur les données acquises sont des images issues d’une
caméra embarquée. Ce capteur est l’un des plus riches en quantité d’informations
véhiculées. En revanche, son utilisation implique un certain nombre de problèmes.

Page 1
Introduction Générale

Premièrement, une image contient une très grande quantité de données brutes dont seule
une partie comporte des informations pertinentes. Dans le cadre d’une application en
robotique, il est indispensable de pouvoir identifier les zones d’intérêt de l’image et de les
représenter sous forme d’informations concises. Deuxièmement, l’image représente un
environnement 3D sous forme de données 2D. Troisièmement le changement d'éclairage
peut engendrer des pertes d'informations.

Ce mémoire est rédigé suivant l’organisation ci-dessous :

Le premier chapitre est une introduction générale sur la robotique (historique, les
définitions d’un robot, les lois de la robotique), ainsi que les classifications des robots
mobiles et ces domaines d’application, les composants et l’architecture d’un robot
mobile et ce principe de navigation puis les outils et les méthodes d'intégration de
l'intelligence artificielle dans le domaine de la robotique.

Le second chapitre présente les deux techniques de localisation pouvant être


utilisées en robotique mobile :
• La localisation relative, basée sur l’utilisation de capteurs proprioceptifs.
• La localisation absolue, basée sur l’utilisation de capteurs extéroceptifs

Et aussi les différentes méthodes de chacune de ces techniques.

le troisième chapitre on présente des généralités sur la vision artificielle, ainsi que
quelques méthodes et techniques de traitement d’images.

Dans le quatrième chapitre nous expliquerons le fonctionnement de notre robot ainsi


les propriétés et les caractéristiques de tous ces composants, nous citerons les
langages de programmation utilisés et présenterons les algorithmes utilisés dans le
projet.

Page 2
Chapitre I Généralités sur la robotique mobile

Chapitre I
Généralités sur la robotique mobile
I.1 Introduction
La robotique est un ensemble de disciplines (mécanique, électronique, automatique,
informatique), elle se subdivise en deux types : les robots industriels et les robots mobiles.
Les robots industriels sont généralement fixes, ils sont utilisés dans des nombreuses
applications industrielles: l'assemblage mécanique, la soudure, la peinture... Les robots
mobiles ne sont pas fixes, ils sont classifiés selon leur degré d'autonomie et selon la
locomotion en robots marcheurs, à roues, à chenilles... comme ils peuvent être classifiés
selon le domaine d'application en robots militaires, d’espace, industriels et Médecine …

Les robots mobiles présentent un cas particulier en robotique. Leur intérêt réside dans leur
mobilité", destinés à remplir des taches pénibles (exemple : transport de charges lourdes) et
ils travaillent même en ambiance hostile (nucléaire, marine, spatiale, lutte centre l'incendie,
surveillance...). L'aspect particulier de la mobilité impose une complexité technologique
(capteurs, motricité, énergie) et méthodologique tels que le traitement des informations et
gestion des tâches et les systèmes de localisation.

L'autonomie du robot mobile est une faculté qui lui permet de s'adapter ou de prendre une
décision dans le but de réaliser une tache même dans un environnement peu connu ou
totalement inconnu.

Dans ce chapitre, nous présentons une introduction générale sur la robotique (historique, les
définitions d’un robot, les lois de la robotique), les classifications des robots mobiles et ces
domaines d’application, les composants et l’architecture d’un robot mobile et ce principe de
navigation.

Page 3
Chapitre I Généralités sur la robotique mobile

I.1.1 Historique Origine des termes


Le mot robot a été utilisé pour la première fois en 1921 par Karel Capek dans sa pièce R.U.R
«Rossums Universal Robots ».
Il provient du tchèque "robota" qui signifie corvée, travail obligatoire.
Le terme robotique a été employé pour la première fois par Asimov en 1941.

Avant 1950 :
XVIII ème siècle : création d'automates. En 1738, Jacques Vaucanson crée un canard articulé
en cuivre capable de boire, manger, cancaner et digérer comme un véritable animal.
1921 : Karel Capek écrit la pièce de théâtre RUR « Rossum's Universal Robots ».
1940 : Isaac Asimov écrit un ensemble de nouvelles sur les robots.b

1950-1960 :
1948 : Grey Walter invente le premier robot mobile autonome, une tortue se dirigeant vers
les sources de lumière qu'elle perçoit. Cependant, ce robot n'est pas programmable.
La mise en place de robots n'a été possible que dans les années 50 avec la création des
transistors et circuits intégrés.

a. Dr Grey Walter (1948) b. Tortue électronique (1969)

Figure I.1 1950-Dr. Grey Walter et ca tortue électronique

Page 4
Chapitre I Généralités sur la robotique mobile

1950-197 : Robotique industrielle :


1961 : Premier robot industriel mis en place dans une usine de General Motors : UNIMATE
(tubes cathodiques de télévision).
1972 : Nissan ouvre la première chaine de production complètement robotisée.
1978 : PUMA (Programmable Universal Machine for Assembly) développé par General
Motors (toujours utilisé).

a. Robot Unimate b. Robot Puma

Figure I.2 : 1950-1970 Robotique industrielle

1960-1980 : Premiers robot mobiles :

1960-64 : Ouverture des laboratoires d'Intelligence Artificielle au M.I.T., Stanford Research


Institute (SRI), Stanford University, University of Edinburgh.
Fin des années 60 : Mise en place de « Shakey » premier robot mobile intégrant perception,
planification et exécution.
1970 : Standford Cart
1977 : premier robot mobile français HILARE au LAAS (CNRS
Toulouse)

Page 5
Chapitre I Généralités sur la robotique mobile

a. shakey b. Hilare c. Stanford cart

Figure I.3 1960-1980 : Premiers robot mobiles

1980-1990 :
Développement important de l'intelligence artificielle et de la robotique : de nouveaux
robots apparaissent constamment.

1990-2000 : développent de la robotique mobile :


1992 : Mise en place de la compétition annuelle AAAI sur la robotique mobile.
1995 : Mise en place de la RoboCup .
1997 : premier robot mobile extra planétaire sur Mars.
1999 : Lancement du robot chien Aibo, par SONY.

a. Aibo b. Sojourner c. robocup

Figure I.4 développent de la robotique mobile

Page 6
Chapitre I Généralités sur la robotique mobile

Dupuis 2000 : Exploration :

2003 : Projet "Mars Exploration Rover" (Spirit & Opportunity).


2009 : Projet "Mars Science Laboratory" succédant au projet Rover, envoi prévu de Curiosity
fin 2011.

a. Robot Spirit (image d’artiste ) b. Robot Curiosity

Figure I.5 Robots d’exploration planétaires

2000 : Lancement d'Asimo, par HONDA.


Diversification des compétitions de robotique.
Utilisation de drones en situation réelle.
2006 : le projet Aibo n'est plus assez rentable, fin de la production.
2009 : robot Nao utilisé dans la Robocup Soccer.

a. Robot Nao et Aibo b. Asimo c. robot Nao

Figure I.6 Les robots de dernières années

Page 7
Chapitre I Généralités sur la robotique mobile

I.1.2 Définitions
Un robot est un dispositif mécatronique (alliant mécanique, électronique et informatique)
accomplissant automatiquement soit des tâches qui sont généralement dangereuses,
pénibles, répétitives ou impossibles pour les humains, soit des tâches plus simples mais en
les réalisant mieux que ce que ferait un être humain. [1]

Un appareil automatique qui peut effectuer des fonctions normalement effectué par des
humains. « Traduit du dictionnaire Webster’s »

Appareil automatique capable de manipuler des objets ou d’exécuter des opérations selon
un programme fixe ou modifiable. « Petit Larousse »

Un manipulateur reprogrammable multifonctionnel conçu pour déplacer des matériaux, des


outils, des pièces ou des composantes spécialisées à travers une série de mouvements
programmés pour effectuer une tache précise. «Robot Institut de robotique d’Amérique,
1979 »

Manipulateur commandé en position, reprogrammable, polyvalent, à plusieurs degrés de


liberté, capable de manipuler des matériaux, des pièces, des outils et des dispositifs
spécialisés, au cours de mouvements variables et programmés pour l’exécution d’une
variété de tâches. Il a souvent l’apparence d’un ou plusieurs bras se terminant par un
poignet. Son unité de commande utilise, notamment, un dispositif de mémoire et
éventuellement de perception et d’adaptation à l’environnement et aux circonstances. Ces
machines polyvalentes ont généralement étudiées pour effectuer la même fonction de façon
cyclique et peuvent être adaptées à d’autres fonctions sans modification permanente du
matériel. « AFNOR Association Française de Normalisation »

I.1.3 Les lois de la robotique


Les Trois lois de la robotique, formulées par l'écrivain de science fiction de Isaac Asimov,
sont des règles auxquelles tous les robots qui apparaissent dans sa fiction obéissent [4]:

1. Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un
être humain soit exposé au danger.

Page 8
Chapitre I Généralités sur la robotique mobile

2. Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent
en conflit avec la Première loi.

3. Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec
la Première ou la Deuxième loi.

I.2 Les robots mobiles


I.2.1 Présentation générale sur les robots mobile

Un robot mobile est la combinaison de composants matériels (mécanique, hardware) et


immatériels (logiciels).

Les robots mobiles ont une place particulière en robotique. Leur intérêt réside dans leur
mobilité qui ouvre des applications dans de nombreux domaines. Comme les robots
manipulateurs, ils sont destinés à assister l’homme dans les tâches pénibles (transport de
charges lourdes), monotones ou en ambiance hostile (nucléaire, marine, spatiale, lutte
contre l’incendie, surveillance…).
L’aspect particulier de la mobilité impose une complexité technologique et méthodologique
qui s’ajoute en général aux problèmes rencontrés par les robots manipulateurs. La
résolution de ces problèmes passe par l’emploi de toutes les ressources disponibles tant au
niveau technologique (capteurs, motricité, énergie) qu’à celui du traitement des
informations par l’utilisation des techniques de l’intelligence artificielle ou de processeurs
particuliers (vectoriel, cellulaires).

L’autonomie du robot mobile est une faculté qui lui permet de s’adapter ou de prendre une
décision dans le but de réaliser une tâche malgré un manque d’informations préliminaires ou
éventuellement erronées. Dans d’autres cas d’utilisation, comme celui des véhicules
d’exploration de planètes, l’autonomie est un point fondamental puisque la télécommande
est alors impossible par le fait de la durée du temps de transmission des informations.

I.2.2 Classification des Robots Mobiles


On peut classer les robots mobiles selon leur degré d'autonomie, système de locomotion,
leur domaine d'application :

Page 9
Chapitre I Généralités sur la robotique mobile

I.2.2.1 Classification selon le degré d'autonomie


Un robot mobile autonome est un système automoteur doté de capacités décisionnelles et
de moyens d'acquisition et de traitements d’information qui lui permettent d'accomplir,
sous contrôle humain réduit un certain nombre de tâches, dans un environnement non
complètement connu. On peut citer quelques types :

• Véhicule télécommande par un opérateur Ces robots sont commandés par un opérateur
qui leurs impose chaque tache élémentaire à réaliser.

• Véhicule télécommandé au sens de la tâche à réaliser Le véhicule contrôle


automatiquement ses actions.

• Véhicule semi-autonome Ce type de véhicule réalise des tâches prédéfinies sans l'aide de
l'operateur.

• Véhicule autonome Ces derniers réalisent des tâches semi-définies.

I.2.2.2 Classification selon le type de locomotion

I.2.2.2.1 Les robots mobiles à roues


La mobilité par roues est la structure mécanique la plus communément appliquée. Cette
technique assure selon l’agencement et les dimensions des roues un déplacement dans toutes
les directions avec une accélération et une vitesse importante. Le franchissement d’obstacles ou
l’escalade de marches d’escalier est possible dans une certaine mesure. Toutes les
configurations (nombre, agencement, fonction) des roues sont appliquées.

A) Robots à roues différentielles : Un robot à roues différentiel est un robot mobile dont
le mouvement est basé sur deux roues entraînées séparément placées de part et
d'autre du corps du robot. On peut ainsi changer de direction en faisant varier la
vitesse relative de rotation des roues et donc ne nécessite pas de mouvement de
braquage supplémentaire.
CIR : Centre Instantané de Rotation

Page 10
Chapitre I Généralités sur la robotique mobile

Figure I.7 Robots à roues différentielles

B) Robots de type « tricycle » : équipés d’un essieu arrière fixe muni de deux roues non
orientables et d’une roue avant centrée orientable.

Figure I.8 Robot tricycle

C) Robots de type « voiture » : essieu arrière non orientable muni de deux roues non
orientables et libres en rotation et deux roues avant centrées orientables.

Figure I.9 Robot Voiture

Page 11
Chapitre I Généralités sur la robotique mobile

D) Robots à roues omnidirectionnelles : c’est un robot qui peut se déplacer librement


dans toutes les directions. Il est en général constitue de trois roues décentrées
orientables placées en triangle équilatérale

Figure I.10 Robot mobile omnidirectionnelles

I.2.2.2.2 Les robots mobiles a chenilles


L’utilisation des chenilles présente l’avantage d’une bonne adhérence au sol et d’une faculté
de franchissement d’obstacles. L’utilisation est orientée vers l’emploi sur sol accidenté ou de
mauvaise qualité au niveau de l’adhérence (présence de boue, herbe…).

Figure I.11 Robot mobile a Chenilles

Page 12
Chapitre I Généralités sur la robotique mobile

I.2.2.2.3 Les robots mobiles marcheurs

Les robots mobiles marcheurs sont destinés à réaliser des tâches variées dont l’accès au site
est difficile, dangereux ou impossible à l’homme. Leur anatomie à nombreux degrés de
liberté permet un rapprochement avec les robots manipulateurs. La locomotion est
commandée en termes de coordonnées articulaires. Les méthodes de commande des
articulations définissent le concept d’allure qui assure le déplacement stable de l’ensemble.
Les différentes techniques étudiées se rapprochent de la marche des animaux et notamment
de celle des insectes.

L’adaptation au support est un problème spécifique aux marcheurs. Il consiste à choisir le


meilleur emplacement de contact en alliant l’avance et la stabilité avec l’aide de capteurs de
proximité, de contact ou de vision.

A) Robot humanoïde :

Un robot humanoïde est un robot avec la forme du corps qui ressemble construit à celle du
corps humain. Une conception humanoïde pour des buts fonctionnelle, telles que
l'interaction avec les outils et les environnements humains, à des buts expérimentales, telles
que l'étude de la locomotion bipède, ou autres pour des raisons pratiques. En général, les
robots humanoïdes ont un torse, une tête, deux bras et deux jambes.

Figure I.12 Robot hexapode (Asimo)

Page 13
Chapitre I Généralités sur la robotique mobile

B) Robot hexapode :

Un robot hexapode est un dispositif mécatronique à base fixe ou mobile dont la locomotion
est fondée sur trois paires de pattes, les hexapodes sont considérés plus stables que les
robots bipèdes du fait que dans la plupart des cas, les hexapodes sont statiquement stables.
De ce fait, ils ne dépendent pas de contrôleurs en temps réel pour rester debout ou pour
marcher.

Figure I.13 Robot hexapode

I.2.2.2.4 Les robots mobiles rampants

Les techniques utilisées ressemblent à des méthodes de locomotion des animaux rampants
(comme les serpents), ils sont utilisés dans des environnements de type tunnel ou des
endroits restreints, leur système est composé d’un ensemble de modules ayant plusieurs
mobilités.

Figure I.14 Robot Rampant

Page 14
Chapitre I Généralités sur la robotique mobile

I.2.2.3 Classification selon leur domaine d'application

- surveillance de sites
Industrie nucléaire :
- manipulation de matériaux radio-actifs
- démantèlement de centrales

Sécurité civile - neutralisation d’activité terroriste


- déminage
- pose d’explosif
- surveillance de munitions

- surveillance, patrouille
Militaire
- pose d’explosifs
- manipulation de munitions

Chimique - surveillance de site


- manipulation de matériaux toxiques

- assistance d’urgence
Médecine
- aide aux handicapés physiques, aux
aveugles

Lutte contre l’incendie - assistance d’urgence


- aide aux handicapés physiques, aux
aveugles

- pose de câbles
Sous-marine
- recherche de nodules
- recherche de navires immergés
- inspection des fonds marins
Agricole - cueillette de fruits
- traite, moisson, traitement des vignes…

Construction BTP - projection mortier


- lissage du béton

Espace - exploration

- convoyage
Industriel
- surveillance

Tableau I.1 Domaines d'utilisation des robots mobiles

Page 15
Chapitre I Généralités sur la robotique mobile

I.2.3 Composants et architecture des robots mobiles

I.2.3.1 Composants fonctionnels

Les composants fonctionnels qui constituent la base d'un système robotise sont [3] :

Mécanismes: Système de corps articulés disposant d'une haute mobilité.


Actionneurs: Générateurs d'actions mécaniques pour mettre le mécanisme en mouvement.
Capteurs: Mesure de l'état du système mécanique et extraction d'informations
Relatives à la tache et l'environnement dans lequel elle est réalisée.
Système de contrôle: Ensemble électronique pour la commande des actions à partir
d'informations capteurs.
Interface de programmation: Système de communication entre l'operateur et la
Machine ou entre les machines (Interface graphique, interface de teleoperation,
langage structure, etc ...).

I.2.3.2 Technologie des constituants

Les éléments technologiques sur la base desquels les systèmes robotiques sont élaborés
peuvent être classés plusieurs grandes catégories [3] :

Mécanismes: Corps rigides articulés par des liaisons mécaniques selon différentes
topologies.
Actionneurs: Convertisseur d'énergie primaire en énergie mécanique (actionneurs
électriques, pneumatiques, hydrauliques, piézoélectriques, électrostatiques…).
Capteurs: Capteurs proprioceptifs (position, vitesse, accélération), capteurs extéroceptifs
(force, vision, télémétrie, tactile, sonores . . .).
Contrôleurs: Régulateurs d'énergie primaire, interfaces capteurs (traitement du signal et
numérisation), bus de communication (VME, CAN, Internet).
Interface homme machine: Langage symbolique, langage structure, COA robotique, contrôle
d'exécution et d'aide à la décision, interfaces de télé-opération.

Page 16
Chapitre I Généralités sur la robotique mobile

Figure I.15 Architecture générale d'un système robotique

I.2.3.3 Architecture des robots mobiles


L’architecture des robots mobiles se structure en quatre éléments :
• La structure mécanique et la motricité
• Les organes de sécurité
• Le système de traitement des informations et gestion des tâches.
• Le système de localisation.

Figure I.16 Architecture d’un robot mobile

A) La structure mécanique et la motricité


il y a plusieurs types de structures mécaniques assurant la motricité : (les mobiles à
roues, les mobiles à chenilles, Les mobiles marcheurs, les robots rampants…)

Page 17
Chapitre I Généralités sur la robotique mobile

B) Les organes de sécurité


Un robot, selon la tâche qui lui est confiée, peut être amené à travailler au voisinage
du personnel. A ce titre, il est obligatoire qu’il soit doté d’organes garantissant la
sécurité. Des capteurs sont disponibles tout auteur du mobile afin de détecter un
obstacle sur un domaine le plus étendu possible.

C) Traitement des informations et gestion des taches


L’ensemble de traitement des informations et gestion des tâches constitue le module
information central qui établit les commandes permettant au mobile de réaliser un
déplacement et d’activer les divers organes en accord avec l’objectif.

D) Le système de localisation
Les techniques de localisation employées sont de deux types :
• La localisation relative, basée sur l’utilisation de capteurs proprioceptifs.
• La localisation absolue, basée sur l’utilisation de capteurs extéroceptifs
On va explique chacune dans le deuxième chapitre.

I.2.4 La Navigation des Robot Mobile


La navigation est une étape très importante en robotique mobile, elle permet une large
autonomie à un robot mobile. Le système de navigation comporte plusieurs modules qui
peuvent être traités différemment et parmi lesquels on distingue celui de la localisation et
celui de l’évitement d’obstacles.

Lorsque le véhicule navigue dans un milieu parfaitement connu et non évolutif, sa trajectoire
peut être prédéterminée hors ligne. Dans le cas où la navigation s'effectue dans un
environnement connu mais dans lequel peuvent apparaître des obstacles imprévus, des
capteurs spécifiques doivent être utilisés pour contrôler en temps réel l'espace navigable et
fournir les mesures nécessaires pour modifier en ligne la trajectoire du véhicule. Dans un
milieu mal connu, la trajectoire doit être planifiée en ligne grâce à un système de perception
extéroceptif capable de construire simultanément un modèle de l'espace navigable. Ce
dernier type de tâche implique pour le véhicule des capacités décisionnelles qui peuvent
être éventuellement complétées par l'intervention d'un opérateur humain [2].

Page 18
Chapitre I Généralités sur la robotique mobile

La complexité de la méthode de navigation mise en œuvre sur un robot mobile dépend donc
de l'environnement dans lequel il doit évoluer (milieu intérieur ou environnement naturel,
sol plan ou irrégulier, milieu terrestre, sous-marin ou spatial...). Elle dépend également de la
connaissance de cet environnement qui peut être figé ou évolutif et du mode de définition
de la trajectoire (apprentissage préalable, planification en ligne...). Les performances du
système de navigation sont étroitement liées à la précision, à la fiabilité et au temps de
réponse des capteurs et des méthodes mis en œuvre pour localiser le véhicule.

Figure I.17 Navigation d'un robot mobile dans un environnement plein d'obstacles

Dans notre travail on s'intéresse beaucoup à la localisation qui aide le robot dans la
navigation. On a choisi de réaliser un système de localisation permettant au robot de se
mouvoir de manière autonome (sans intervention humaine) dans un milieu partiellement
connu. Cette étude d’un cas simple de robotique fera ressortir les difficultés posées par la
mise au point de mécanismes d’automatisation nettement plus sophistiqués, à savoir : le
choix des capteurs, leur positionnement et la localisation du mobile. La détection et
l’évitement des obstacles est l’étape fondamentale de l’évolution d’un robot en territoire
inconnu.

Page 19
Chapitre I Généralités sur la robotique mobile

I.2.5 La robotique et l’intelligence artificielle

La robotique est une branche de l'intelligence artificielle concernée par l'étude des systèmes
automatiques capables d'interagir directement avec le monde physique. C’est une automatisation de
ses machines, ou l’objectif est d’augmenter les capacités de localisation et de navigation dans son
espace de travail [5].

I.2.5.1 Intelligence Artificielle (IA) :

L'intelligence artificielle est la reproduction, par des moyens artificiels de toutes les formes de
l'intelligence humaine pour un objectif final, qui s’intéresse à la conception des systèmes intelligents.
L’IA est la capacité à raisonner, à apprendre, et à s’adapter face à de nouveaux changements qu’ils
sont des éléments principaux que nous recherchons.

I.2.5.2 Les outils d'exécution de l'IA dans le robot :

L’intelligence Artificielle d’un robot se résume a un ensemble de programmes préalablement


écrits avec un ordinateur [6] :
• les programmes s’exécutant sur les robots sont écrits avec un langage de programmation
(exemples : C++, Java, ...).
• ils s’exécutent grâce au contrôleur et a la mémoire du robot.
• ils prennent en entrée les informations obtenues par les capteurs et en sortie envoient des
ordres aux effecteurs.

I.2.5.3 Types de programmes d’IA utilisées dans la robotique : p

L’intelligence Artificielle d’un robot permet par exemple :


• analyse d’images.
• localisation et navigation.
• gestion des interactions : interfaces, communication…
• planification et prise de décision.
• contrôle d’exécution des taches.

Page 20
Chapitre I Généralités sur la robotique mobile

I.2.5.4 Domaines d’application d’IA dans la robotique : D

Un grand nombre de disciplines scientifiques sont concernées par la mise en place de robots
[6] :
• automatique : calibrage des capteurs, des effecteurs ...
• électronique : mise en place de composants pour les robots.
• informatique : création de programmes destinés aux robots.
• mathématiques : modèles pour la prise de décision ou/et l’apprentissage, le calcul de
trajectoires, la localisation ...
• sciences cognitives : interactions homme-machine, machine-machine, prise de décision ...
• physique : cinématique des robots, navigation, ....

I.3 Conclusion
Nous avons présenté, dans ce chapitre une récapitulation sur l’historique de la robotique, les
définitions d’un robot et les lois de la robotique, nous avons décrit des robots mobile et leurs
classifications (degré d’autonomie, locomotion et les domaines d’applications), et ensuite on
a cité les composants fonctionnels et la technologie des constituants d’un robot mobile et
son architecture , la navigation et les problèmes l'analyse de l’environnement et la
complexité de la navigation d’un robot mobile et enfin l’utilisation de l’intelligence artificielle
en robotique .

Le chapitre prochain concerne les différentes méthodes de localisation utilisée en robotique


mobile.

Page 21
Chapitre II La localisation en robotique mobile

Chapitre II
La localisation en robotique mobile
II.1 Introduction
Le problème de localisation en robotique mobile consiste à déterminer la posture
(position et orientation) d’un robot mobile dans son environnement. Malheureusement, la
posture d’un robot ne peut pas être mesurée directement. En effet, les robots ne possèdent
pas de capteurs parfaits permettant de déterminer directement leur posture. On notera que
le GPS est un système permettant de mesurer directement la position. Cependant ce
système n’est pas parfait (précision de l’ordre du mètre) et est difficilement exploitable en
milieu clos (intérieur de bâtiments, forêts...). Partant du principe qu’une seule donnée
capteur ne peut pas permettre une localisation efficace, le problème de localisation consiste
alors à traiter des données de natures différentes (mesures de différents capteurs, utilisé
plusieurs balises...) afin de déterminer la posture d’un robot.

Ce chapitre est une introduction au domaine de la localisation en robotique mobile. La


problématique de la localisation et l’intérêt de la connaissance de la position et de
l’orientation du robot par rapport à son environnement y sont présentés. Les différentes
approches de localisation ainsi que les capteurs associés.

Page 22
Chapitre II La localisation en robotique mobile

II.2 La localisation d’un Robot mobile


Quel que soit le domaine d’application pour lequel il est destiné, un robot mobile, pour être
utilisable, doit comporter un système permettant un certain niveau d’autonomie dans la
localisation et la navigation. Pour schématiser, il doit être capable de répondre à trois types
de questions : « où suis-je ? », « où vais-je ? » et « comment y aller ? ». La première question
soulève le problème de la localisation. Les deux autres sont liées à la planification de
trajectoire et à la navigation proprement dite. La bonne exécution des deux dernières tâches
est fortement liée à la première.

Cette étude se restreint au robot mobile navigant sur un plan (2-D), ce qui englobe une très
large partie des systèmes existants. Localiser le robot revient alors à déterminer trois
paramètres : deux coordonnées cartésiennes pour la position et un angle pour l’orientation.
De façon plus formelle, la tâche de localisation consiste à calculer la transformation de
passage d’un repère lié au robot à un repère lié à l’environnement (Figure II.1).

Figure II.1 formalisme du problème de localisation d’un robot mobile

Plusieurs techniques et méthodes ont été développées pour assurer la connaissance exacte
et de façon autonome de la position d’un robot mobile dans son environnement. A ce jour,
ces techniques peuvent être regroupées en deux catégories principales : les méthodes de
localisation relatives et les méthodes de localisation absolue.

Page 23
Chapitre II La localisation en robotique mobile

II.3 les Méthodes localisation


La localisation instantanée est un des points les plus importants et les plus délicats des
robots mobiles. Elle permet de définir le positionnement [2]:
• Du mobile dans l’environnement.
• D’éléments particuliers de l’environnement par rapport au mobile.

Plusieurs techniques et méthodes ont été développées pour assurer la connaissance exacte
et de façon autonome de la position d’un robot mobile dans son environnement. A ce jour,
ces techniques peuvent être regroupées en deux catégories principales [7] :

• les méthodes de localisation relatives.


• les méthodes de localisation absolue.

II.3.1 La localisation relative


Localisation relative consiste à évaluer la position, l’orientation, et éventuellement la vitesse
du robot mobile par intégration des informations fournies par des capteurs dits
proprioceptifs. L’intégration se fait par rapport au point de départ du robot. Ces données
peuvent être des informations de déplacement (odomètre), de vitesse (vélocimétrie) ou
d’accélération (accéléromètre). Ces systèmes permettent d’obtenir un flux relativement
important au niveau de l’obtention des estimations de position. Cette caractéristique
intéressante a favorisé l’utilisation de ces systèmes de localisation en robotique mobile.
L’inconvénient de ces méthodes par intégration réside dans l’accumulation des erreurs de
mesure et de calcul. Une telle technique n’est en général pas utilisée seule.

La vélocimétrie est une méthode qui consiste à mesurer directement la vitesse du véhicule
et à l’intégrer pour obtenir le déplacement, le calcul de la position est effectué alors par
double intégration de ces informations.

II.3.1.1 Les odomètres


Les odomètres permettent de fournir une quantification des déplacements curvilignes du
robot en mesurant la rotation de ses roues. Le calcul de la position relative du robot est
réalisé par intégration des rotations élémentaires des roues.

Page 24
Chapitre II La localisation en robotique mobile

Les odomètres sont généralement composés de codeurs incrémentaux qui permettent de


mesurer les angles de rotation avec une précision qui dépend de la résolution du codeur.
L’information de déplacement nécessitera la connaissance du diamètre des roues, de
l’entraxe des roues, de la structure mécanique et cinématique du véhicule.

Ce capteur est fortement utilisé en robotique mobile puisqu’il présente l’avantage d’être
simple à mettre en œuvre et surtout d’être peu coûteux [8].

Figure II.2 Odomètre (MG-10MC)

II.3.1.2 Les accéléromètres


L’accéléromètre est un capteur qui mesure l’accélération linéaire en un point donné. En
pratique, la mesure de l’accélération est effectuée à l’aide d’une masse d’épreuve M, de
masse m, reliée à un boîtier du capteur. Le principe de ce capteur est de mesurer l’effort
massique non gravitationnel qu’on doit appliquer à M pour le maintenir en place dans le
boîtier lorsqu’une accélération est appliquée au boîtier. Le calcul du déplacement
élémentaire du robot est obtenu par double intégration de ces informations. Cette double
intégration conduit généralement à des accumulations importantes d’erreurs [8].

Figure II.3 3-Axes Accéléromètre (MMA7361)

Page 25
Chapitre II La localisation en robotique mobile

II.3.1.3 Le radar Doppler


A) L'effet Doppler

L'effet Doppler ou effet Doppler-Fizeau est le décalage de fréquence d’une onde (onde
mécanique, électromagnétique, etc…) entre la mesure à l'émission et la mesure à la
réception lorsque la distance entre l'émetteur et le récepteur varie au cours du temps. Si on
désigne de façon générale ce phénomène physique sous le nom d'effet Doppler, on réserve
le terme d'« effet Doppler-Fizeau » aux ondes électromagnétiques [10].

B) Le radar Doppler

Le radar Doppler fournit une estimation instantanée de la vitesse linéaire d’une plate-forme
mobile par rapport à un objet de la scène en se basant sur l’effet Doppler-Fizeau. Le principe
est de diriger un faisceau électromagnétique de fréquence F vers le sol.

Le faisceau reçu après rediffusion sur le sol présente un décalage de fréquence ∆F


proportionnel à la vitesse V du déplacement relatif du véhicule par rapport au sol.
L’intégration de la mesure de vitesse fournira une estimation du déplacement du mobile.

Ce capteur est le plus souvent utilisé en milieu extérieur. Il présente le gros avantage d’être
insensible aux glissements des roues ou des chenilles du mobile. En revanche, sa précision se
dégrade rapidement avec la diminution de la vitesse. De plus il est généralement lourd à
mettre en œuvre, tant du point de vue électronique que du point de vue du traitement des
informations reçues [8].

Figure II.4 Wireless radar Doppler (HB100)

Page 26
Chapitre II La localisation en robotique mobile

II.3.1.4 Le gyroscope
Les gyroscopes permettent de mesurer une variation angulaire. Ils sont intéressants en
robotique mobile parce qu'ils peuvent compenser les défauts des odomètres. Une erreur
d'orientation odométrique peut entraîner une erreur de position cumulative qui peut être
diminuée voire compensée par l’utilisation conjointe de gyroscopes.

Les gyroscopes très précis sont trop onéreux pour être utilisé en robotique mobile.
Cependant, les gyroscopes à fibre optique, connu pour leur grande précision, ont vu leur prix
chuter et sont donc devenus une solution attractive pour la navigation en robotique mobile.

Figure II.5 3-Axes Gyroscope (PmodGYRO L3G4200D)

II.3.2 La localisation absolue

La localisation absolue est une technique qui permet à un robot de se repérer directement
dans son milieu d’évolution, que ce soit en environnement extérieur (mer, terre, espace), ou
en environnement intérieur (ateliers, immeubles, centrales nucléaires….).Ces méthodes de
localisation sont basées sur l’utilisation de capteurs extéroceptifs, elles assurent la mesure
de la position et de l’orientation du mobile à tout instant. Ces méthodes sont nombreuses et
variées.
Dans certains cas, leur emploi nécessite des contraintes qui ne sont pas toujours
compatibles avec la mobilité du robot.
Pour répondre à la problématique qu’est la localisation d’un robot dans son environnement,
deux types de stratégies sont utilisables :

Page 27
Chapitre II La localisation en robotique mobile

• La première consiste à utiliser des points de repère naturels : Les repères artificiels sont
des balises caractéristiques qui sont ajoutées au milieu d’évolution du robot et dont les
positions sont connues, l’inconvénient de ce type de techniques réside essentiellement dans
son manque de souplesse et dans sa lourdeur d’utilisation.
En effet tout changement de configuration de l’environnement impliquera une remise en
cause du réseau de balises. En revanche cette technique a le gros avantage d’être précise,
robuste et surtout de satisfaire la contrainte temps réel.

•La deuxième à utiliser des points de repères artificiels : Cette technique consiste à utiliser
les éléments caractéristiques de l’environnement pour estimer la position du robot, l’intérêt
de ces méthodes est leur souplesse d’utilisation puisqu’elles ne nécessitent pas d’aménager
le milieu d’évolution du robot.

La localisation absolue nécessite toujours une représentation de l’environnement, le robot


possède donc une banque de données regroupant les caractéristiques des références
externes qui est appelée carte de l’environnement.

II.3.2.1Localisation par des capteurs extéroceptifs

Les capteurs extéroceptifs permettent de percevoir le milieu d’évolution du robot, le


fonctionnement de ces capteurs utilisés classiquement en robotique mobile est présenté
dans les sections suivantes :
Les lasers d’abord puis les capteurs à infrarouge sont introduits, les capteurs à ultrasons sont
ensuite développés plus abondamment. En effet, en raison de leur coût faible par rapport
aux autres capteurs.

Les capteurs extéroceptifs embarqués servent pour les actions suivantes :


• vérification et amélioration de la trajectoire suivie par le robot.
• mesure des interactions entre le robot et l'environnement
• perception de l'environnement.
• prévention et sécurité.

Page 28
Chapitre II La localisation en robotique mobile

II.3.2.2.1 les télémètres laser :


Les télémètres laser sont à ce jour le moyen le plus répandu en robotique mobile pour
obtenir des mesures précises de distance, leur principe de fonctionnement est le suivant: a
un instant donné une impulsion lumineuse très courte est envoyée par l’intermédiaire d’une
diode laser de faible puissance, la réflexion de cette onde donne un écho qui est détecté au
bout d’un temps proportionnel à la distance capteur obstacle. La direction des impulsions
est modifiée par rotation d’un miroir.

a) Exemple de télémètre laser (SICK) b) Fonctionnement de télémètre laser

Figure II.6 Télémètre Laser

II.3.2.2.2Les capteurs infrarouge


Les capteurs infrarouges sont constitués d’un ensemble émetteur/récepteur fonctionnant
avec des radiations non visibles, dont la longueur d’onde est juste inférieure à celle du rouge
visible, la mesure des radiations infrarouges étant limitée et, en tout état de cause, la qualité
très dégradé d’un mètre, ces dispositifs ne servent que rarement de télémètres, on les
rencontrera le plus souvent comme détecteurs de proximité, Ou dans un mode encore plus
dégradé de présence.

Page 29
Chapitre
hapitre II La localisation en robotique mobile

a) Exemple
xemple d’un capteur infrarouge b) Principe
rincipe émié et reçu capteur infrarouge

Figure II.7 Capteur infrarouge (IR)

II.3.2.2.3 Les capteurs ultrason


Contrairement aux autres types de capteurs, ceux-ci
ceux ci émettent une onde qui se propage dans
l’air (le plus souvent). Cela augmente beaucoup le temps d’acquisition, la vitesse du son
étant très faible devant celle de la lumière. En revanche, la mesure par temps
tem de vol est ici
aisée avec une électronique simple.

L’atténuation de l’onde est importante dans ce milieu : les distances mesurées restent
faibles (quelques dizaines de mètres) mais suffisantes en intérieur. Deux caractéristiques
principales sont à préciser :

La première est la réflexion de l’onde sur un objet qui utilise les lois de Descartes.

La deuxième découle du fonctionnement du capteur en émetteur-récepteur.


émetteur récepteur.

a) Exemple
xemple d’un capteur ultrason b) Principe
rincipe émié et reçu capteur ultrason

Figure II.8 Capteur Ultrason (US)

Page 30
Chapitre II La localisation en robotique mobile

II.3.2.2.4 Les Balises à laser


Le principe consiste à faire tourner un laser à vitesse constante et connue avec précision sur
le dessus du robot. Les balises sont alors équipées de photodiodes (adaptées au laser utilisé)
afin de détecter le passage du laser. Lorsqu’une balise détecte le passage du laser, elle
renvoie alors l’information au système de localisation (situé sur le robot) qui peut alors
déduire les angles entre les balises.

On peut également déterminer l’orientation du robot si l’on est capable de connaître l’angle
entre une balise et l’avant du robot, ce qui revient à être capable de connaître à tout instant
l’orientation du laser par rapport à l’avant du robot [11].

Figure II.9 Capteur de distance a balayage laser

II.3.2.2 Localisation par vision artificielle


Chez l’humain, la vision est le sens qui transmet le plus d’informations au cerveau, elle
nous fournit une grande quantité de données en provenance de l’environnement et nous
permet d’entreprendre une interaction intelligente avec les environnements dynamiques
(évitement d’obstacles mobiles, rendez-vous avec autres agents mobiles. . .). De ce fait, il
n’est pas surprenant de trouver une grande quantité de recherches sur le développement de
capteurs qui essaient d’imiter le système visuel humain. De plus, les capteurs visuels utilisés
par les robots intelligents doivent avoir les mêmes sensibilités et réponses à la lumière que
notre système de vision.

Page 31
Chapitre II La localisation en robotique mobile

En robotique, au cours des deux dernières décennies, les innovations technologiques


concernant la fabrication de caméras et l’évolution des ordinateurs ont permis d’intégrer
des systèmes complexes de vision dans les systèmes embarques, que ce soit sur des robots
mobiles pour la navigation autonome ou sur des véhicules pour l’aide a la conduite. La vision
artificielle revêt une importance toute particulière car elle permet de fournir a la machine les
capacités nécessaires pour réagir avec son environnement, elle fournit les représentations a
partir desquelles le robot prend des décisions.

Les systèmes de vision en robotique sont basés sur l’utilisation d’une caméra CCD. L’arrivée
des capteurs CCD (Charge Coupled Device), en 1975, a été déterminante dans l’évolution de
la vision : la rapidité d’acquisition, la robustesse et la miniaturisation sont autant
d’avantages qui ont facilité leur intégration. Les systèmes de vision sont très performants en
termes de portée, précision et quantité d’informations exploitables. Ils sont de plus les seuls
capables de restituer une image sensorielle de l’environnement la plus proche de celle
perçue par l’être humain.

Figure II.10 Camera CCD (Conrad BC-103 Sony)

Notre travail est basé sur l’utilisation de la localisation par vision, on veut déterminer le
positionnement du robot au début par deux coordonnées (x,y) et par l’angle d’orientation en
utilisent une caméra extérieure perpendiculaire à l’environnement ou se déplace le robot
avec un programme de traitement vidéo.

Page 32
Chapitre II La localisation en robotique mobile

L'environnement dans lequel le robot se déplace est partiellement connu et représenté par
deux zones colorées sur le robot et une troisième couleur pour la position finale que nous
voulons que le robot atteigne.

On peut présenter le processus de localisation par vision dans notre travail en quatre étapes
qui sont :

- Acquisition de l’information : saisit d’une scène vidéo de l’environnement ou le robot se


déplace.

- Détection de couleurs : Cette étape correspond généralement aux opérations de


traitement d’image telles que le filtrage et la détection de la couleur qui nous permettent la
détection des deux couleurs et donc le positionnement de robot et son objectif.

- Extraction des coordonnées : Trouver pour chaque couleur dans la scène la position en
deux coordonnées(x,y).

- Calcul de la position et de l’orientation du robot : Se fait grâce aux correspondances


établies dans l’étape précédente.

II.3.2.3 Localisation par la géo-positionnement (GPS)


Un des systèmes les plus connus de ces dernières années est le Système de Positionnement
Global (GPS) du département de la défense des Etats-Unis qui exploite une constellation de
vingt-quatre satellites en orbite à haute altitude. Chaque satellite détecte les récepteurs
terrestres fixes ou mobiles qui se trouvent dans sa zone de visibilité et transmet à chacun, à
période fixe, un signal contenant des informations telles que son identification, l'heure
d'émission du signal et les paramètres définissant son orbite donc sa position.
Théoriquement, un récepteur doit être visible d’au moins trois satellites, pour pouvoir
calculer sa position dans un repère centré sur la terre, en calculant l’intersection de trois
sphère (trois cercles pour un système mobile au sol), de fait, pour tenir compte des
décalages temporels entre les mesures fournies par les satellites, quatre mesures de
distance entre le satellite et le récepteur sont requises pour disposer d’une précision
satisfaisante [12].

Page 33
Chapitre II La localisation en robotique mobile

Figure II.11Module de réception GPS (LINX)

Ce système est cependant loin de résoudre tous les problèmes de localisation des systèmes
mobiles. Il fonctionne en effet difficilement dans des environnements urbains, et n’est pas
utilisable à l’intérieur des bâtiments car les ondes employées sont fortement atténuées en
traversant les murs. Sa précision est de plus souvent trop faible pour qu’un système mobile
terrestre puisse utiliser ces informations seules. En pratique, il est souvent couplé à un
système inertiel qui permet de pallier aux pertes du signal GPS et il ne remplace de toute
façon pas les capteurs du système mobile qui lui permettent de percevoir son
environnement immédiat [13].

Mis à part son utilisation pour la localisation, ce système est aussi utilisé pour l’aide à la
navigation d’avions et de bateaux lors de l’approche d’aéroports ou de ports, ainsi que dans
la surveillance de camionnettes de livraison et de véhicules d’urgence, en vue de choisir au
mieux leurs itinéraires.

II.4 Conclusion
Comme nous pouvons le constater, il existe de nombreuses méthodes et techniques pour
localiser un robot mobile. En général ces méthodes et ces techniques sont divisées en deux
familles, la localisation relative qui est basée sur l’utilisation des capteurs proprioceptifs
(odomètre, accéléromètre, gyroscope …) et la localisation absolue qui utilise les capteurs
extéroceptifs (les capteurs ultrason, capteurs infrarouge, télémètres laser ….), la vision
(camera) et la géo-positionnement (GPS). Aucune n’est actuellement universelle. Le choix de
la technique est dicté par le type de tâche à réaliser.

Le chapitre suivant présente quelques notions sur la vision par ordinateur, ainsi que
quelques techniques de traitement d’images.

Page 34
Chapitre III Généralité sur le traitement d’image

Chapitre III
Généralités sur le traitement d’image
III.1 Introduction
Le traitement d'images est une discipline de l'informatique et des mathématiques
appliquées qui étudie les images numériques et leurs transformations, dans le but
d'améliorer leur qualité ou d'en extraire de l'information.

Il s'agit d'un sous-ensemble du traitement du signal dédié aux images et aux données
dérivées comme la vidéo (par opposition aux parties du traitement du signal consacrées à
d'autres types de données : son et autres signaux monodimensionnels notamment), tout en
opérant dans le domaine numérique ( par opposition aux techniques analogique de
traitement du signal, comme la photographie ou la télévision traditionnelles ).

Dans le contexte de la vision artificielle, le traitement d'images se place après les étapes
d'acquisition et de numérisation, assurant les transformations d'images et la partie de calcul
permettant d'aller vers une interprétation des images traitées. Cette phase d'interprétation
est d'ailleurs de plus en plus intégrée dans le traitement d'images, en faisant appel
notamment à l'intelligence artificielle pour manipuler des connaissances, principalement sur
les informations dont on dispose à propos de ce que représentent les images traitées.

La vision par ordinateur met en œuvre des caméras conventionnelles à champ de vue large
ou des systèmes permettant d’acquérir des images bidimensionnelles ou tridimensionnelles.
Elle décrit la géométrie et le traitement de ces images qui rendent possible l’utilisation de la
vision dans de nombreuses applications, parmi lesquelles figure l’augmentation de
l’autonomie perceptive des robots.

Page 35
Chapitre III Généralité sur le traitement d’image

III.2 L’image numérique


Le terme image numérique désigne, dans son sens le plus général, toute image qui a été
acquise, traitée et sauvegardée sous une forme codée représentable par des nombres
(valeurs numériques).
La numérisation est le processus qui permet de passer de l’état d’image physique (tel que
l’image optique) qui est caractérisée par l’aspect continu du signal qu’elle représente (une
infinité de valeurs dans l’intensité lumineuse par exemple), à l’état d’image numérique qui
est caractérisée par l’aspect discret (l’intensité lumineuse ne peut prendre que des valeurs
quantifiées en un nombre fini de points distincts). C’est cette forme numérique qui permet
une exploitation ultérieure par des outils logiciels sur ordinateur [14].

III.3Types d’images numériques

III.3.1 Image binaire

Les images binaires codent l’information sur deux valeurs. Parmi les images numériques, les
images binaires sont les plus simple, un pixel peut prendre uniquement les valeurs noir ou
blanc (0,1). C’est typiquement le type d’image que l’on utilise pour scanner du texte quand
celui-ci est composé d’une seule couleur.

Figure III.1 Image binaire

Page 36
Chapitre III Généralité sur le traitement d’image

III.3.2 Image à niveau de gris

Le niveau de gris est la valeur de l'intensité lumineuse en un point. La couleur du pixel peut
prendre des valeurs allant du noir au blanc en passant par un nombre fini de niveaux
intermédiaires. Donc pour représenter les images à niveaux de gris, on peut attribuer à
chaque pixel de l'image une valeur correspondant à la quantité de lumière renvoyée. Cette
valeur peut être comprise par exemple entre 0 et 255. Chaque pixel n'est donc plus
représenté par un bit, mais par un octet. Pour cela, il faut que le matériel utilisé pour afficher
l'image soit capable de produire les différents niveaux de gris correspondant.

Le nombre de niveaux de gris dépend du nombre de bits utilisés pour décrire la " couleur "
de chaque pixel de l'image. Plus ce nombre est important, plus les niveaux possibles sont
nombreux.

Figure III.2 Image a niveau de gris

III.3.3 Image couleur

A) Principe

Une image couleur est en réalité composée de trois images, afin de représenter le rouge, le
vert, et le bleu. Chacune de ces trois images s’appelle un canal. Cette représentation en
rouge, vert et bleu mime le fonctionnement du système visuel humain.

Page 37
Chapitre III Généralité sur le traitement d’image

La figure suivante montre la décomposition d’une image couleur en ses trois canaux
constitutifs :

Figure III.3 Les canaux d’une image numérique couleur

B) Codage RVB

Chaque pixel de l’image couleur contient ainsi trois nombres (r,v,b), chacun étant un
nombre entier entre 0 et 255. Si le pixel est égal à (r,v,b)=(255,0,0), il ne contient que de
l’information rouge, et est affiché comme du rouge. De façon similaire, les pixels
valant (0,255,0) et (0,0,255) sont respectivement affichés vert et bleu.

On peut afficher à l’écran une image couleur à partir de ses trois canaux (r,v,b) en
utilisant les règles de la synthèse additive des couleurs. La figure suivante montre les
règles de composition cette synthèse additive des couleurs. Un pixel avec les
valeurs (r,v,b)=(255,0,255) est un mélange de rouge et de vert, il est ainsi affiché comme
jaune.

Figure III.4 Synthèse additive des couleurs


Page 38
Chapitre III Généralité sur le traitement d’image

III.4Vision assisté par ordinateur (VAO)


La vision nous permet de percevoir et d'interpréter le monde qui nous entoure. La VAO est
un ensemble d’outils qui permet à l’ordinateur d’imiter la perception humaine afin d’extraire
des informations d’une image brute pour pouvoir prendre des décisions. C'est un problème
difficile en raison du fait que l'information disponible : des images 2D fournies par des
capteurs (CCD, CMOS etc.), correspondent à une projection du monde 3D. La projection 3D-
2D entraîne une perte d'informations importante, de plus, l'information disponible n'est pas
parfaite (numérisation des capteurs, déformation des objectifs, bruitages). Nous pouvons
alors dire que la VAO constitue une chaîne de traitements allant de l’acquisition de l’image
brute jusqu'à son interprétation par la machine.

Figure III.5 La chaine de la vision assisté par ordinateur (VAO)

III.4.1 Acquisition
Dans l’acquisition de l’image l’échantillonnage et la quantification sont deux étapes
nécessaires dans le passage d’une image analogique vers une image numérique :

A) L’échantillonnage

L’échantillonnage est le procédé de discrétisation spatiale d'une image consistant à associer


à chaque pixel une unique valeur. On parle de sous-échantillonnage lorsque l'image est déjà
discrétisée et qu'on diminue le nombre de pixels.

Page 39
Chapitre III Généralité sur le traitement d’image

B) La quantification

La quantification désigne la discrétisation tonale correspondant à la limitation du nombre de


valeurs différentes que peut prendre chaque pixel.

Figure III.6 les étapes de l’acquisition de l’image

III.4.2 Prétraitement
Le prétraitement ou bien le traitement, regroupe toutes les techniques visant à améliorer la
qualité d’une image. De ce fait, la donnée de départ est l’image initiale et le résultat est
également une image. L’idéal est d’obtenir un résultat sans bruit. La qualité d’une image
n’est pas forcement la même pour un ordinateur ou pour un opérateur humain. C’est la
raison pour laquelle les techniques ne sont pas les mêmes. La notion de qualité est une
notion très subjective, assujettie à la réalisation d’un objectif. La qualité d’une image n’est
pas forcement la même pour un ordinateur ou pour un opérateur humain. Les capacités de
vision de l’être humain étant limitées, il est indispensable d’adapter la dynamique de l’image
à notre vision [16].

Le prétraitement suit les étapes suivantes :


-La restauration.
-L’amélioration.
-La compression.

III.4.2.1 La restauration
La restauration a pour but d’inverser l’effet du phénomène dégradant. Il s’agit donc de
produire une image la plus proche de la réalité physique de la scène observée. Le plus
souvent, cette étape est la première dans la chaîne de traitements constituant un système
de vision.

Page 40
Chapitre III Généralité sur le traitement d’image

III.4.2.2 L’amélioration
L’amélioration de l’image a pour but d'améliorer la visualisation des images. Pour cela, elle
élimine/réduit le bruit de l'image et/ou met en évidence certains éléments (frontières, etc.)
de l'image. Elle est souvent appliquée sans connaissance à priori des éléments de l'image.
Les principales techniques sont [15] :
- l'amélioration de contraste (la modification d’histogramme).
- le filtrage linéaire (lissage, mise en évidence des frontières avec l'opérateur "Image - Image
lissée", etc.) et transformée de Fourier.

- filtrage non linéaire (filtres médians, etc.) pour éliminer le bruit sans trop affecter les
frontières...

III.4.2.2.1 la modification d’histogramme

L’histogramme des niveaux de gris ou des couleurs d’une image est une fonction qui donne
la fréquence d’apparition de chaque niveau de gris (couleur) dans l’image.

Pour diminuer l’erreur de quantification ou pour comparer deux images obtenues sous des
éclairages différents ou encore pour mesurer certaines propriétés de l’image, on modifie
souvent l’histogramme correspondant.

L’histogramme permet de donner un grand nombre d’informations sur la distribution des


niveaux de gris (couleur) et de voir entre quelles bornes est répartie la majorité des niveaux
de gris (couleur) dans le cas d’une image trop claire ou d’une image trop foncée (Figure III.7).

2500

2000

1500

1000

500

0 50 100 150 200 250

Figure III.7 Image et son histogramme

Page 41
Chapitre III Généralité sur le traitement d’image

L’histogramme peut être utilisé pour améliorer la qualité d’une image (Rehaussement
d’image) en introduisant quelques modifications, pour pouvoir extraire les informations
utiles de celle-ci [17].

Parmi les méthodes qui sont base sur l’utilisation de l’histogramme pour améliorer l’image :
- Le Recadrage de dynamique.

- Egalisation d’histogramme.

- Mise en évidence de zones dans l’histogramme.

A) Le Recadrage de dynamique :

C’est une transformation des niveaux de gris de l’image afin que l’image utilise toute la dynamique
valable pour la représentation, en d’autre termes si l’image et coder sur 8bit, les pixels de cette
image on bien une valeur qui va de 0 jusqu'à 255 (Figure III.8) :

4000 4000

3000 3000

2000 2000

1000 1000

0 0
0 100 200 0 100 200

Figure III.8 Image avant et après le recadrage

Page 42
Chapitre III Généralité sur le traitement d’image

B) Egalisation d’histogramme

Elle a pour but d'harmoniser la répartition des niveaux de luminosité de l'image, de telle
manière à tendre vers un même nombre de pixel pour chacun des niveaux de l'histogramme.
Cette opération vise à augmenter les nuances dans l’image (Figure III.9) :

a) Avant l’égalisation b) Après l’égalisation

Figure III.9 Image avant et après l’égalisation d’histogramme

C) Mise en évidence de zones dans l’histogramme

Cette méthode consiste en bancarisation de l’image pour mettre en évidence certaines


zones de l’histogramme.

On possède a un seuillage des niveaux de gris et on transforme tout le niveau compris entre
les seuils ‘a’ et ‘b’ en 255 (blanc), toutes les autres valeurs seront mise a zéro (le noir).

Page 43
Chapitre III Généralité sur le traitement d’image

III.4.2.2.2 Le filtrage
Entre une image réelle et l’image numérisée obtenue, un grand nombre de processus sont
venus l’altérer. Parmi ceux-ci, le bruit résultat du bruit électronique du capteur et de la
qualité de la numérisation joue un rôle fondamental. On peut définir le bruit dans une image
comme un phénomène de brusque variation d’un pixel isolé par rapport à ses voisins. On
peut en déduire que pour lutter contre les effets du bruit, il est nécessaire d’opérer des
transformations qui tiennent compte du voisinage de chaque pixel. L’une des méthodes
visant à atténuer les effets du bruit est un filtre passe-bas.

Différentes méthodes de filtrage passe bas ont été développées suivant le type et l’intensité
du bruit, ou les applications auxquelles on destine l'image. Les premières et les plus simples
de ces méthodes sont basées sur le filtrage linéaire stationnaire (invariant par translations),
mais les limitations de ces techniques (en particulier leur mauvaise conservation des
transitions) a conduit au développement des filtres "non-linéaire". Dans la plupart des cas
présentés ici, le filtrage consiste à balayer l'image par une fenêtre d'analyse de taille finie.

A) Filtrage linéaire

Le filtrage linéaire qui est la transformation d’un pixel par une combinaison linéaire des
pixels voisins. Une méthode simple consiste à considérer chaque point de l’image et d’en
faire la moyenne avec les 8 pixels qui lui sont voisins, ce qui aura pour effet d’adoucir l’image
en réduisant les fluctuations de luminosité [18].

Parmi les filtres linéaires on trouve le filtre moyen qui consiste à remplacer chaque pixel de
l’image et d’en faire la moyenne avec les 8 pixels voisins, et le filtre gaussien qui utilise la
moyenne pondérée.

B) Filtrage non-linéaire

Ils sont conçus pour régler les problèmes des filtres linéaires, sur tout pour ce qui concerne
la mauvaise conservation des contours. Leur principe est le même que celui des filtres
linéaires, il s’agit toujours de remplacer la valeur de chaque pixel par la valeur d’une fonction
calculée dans son voisinage, la seule différence c’est que cette fonction n’est plus linéaire
mais une fonction quelconque (elle peut inclure des opérateurs de comparaisons).

Page 44
Chapitre III Généralité sur le traitement d’image

L’exemple le plus classique de filtre non linaire est le filtre médian qui consiste à remplacer
le pixel central par la valeur médiane du voisinage centrée sur le pixel, il Élimine le bruit
impulsionnel et il préserve l’information de contour et peut être appliqué itérativement mais
il élimine
limine les contours très fins.

Figure
igure III.10
III. Image filtré par le médian

III.4.2.3 La compression
Le but de la compression est de réduire
rédu la taille des fichiers pour diminuer l’espace
nécessaire à leur stockage sur le disque ou leur transfert par le réseau. Ils encodent de
manières différentes les données de l’image afin de les rendre plus compactes.

a) Image original b) Image après la compression

Figure
igure III.11
III. Compression d’une image

Page 45
Chapitre III Généralité sur le traitement d’image

III.4.3 L’analyse
L’analyse est une suite d’opération permettant l’extraction de l’information essentielle
contenue dans une image. Elle est essentiellement composée par deux phases de la
segmentation qui fournit une partition d’image et de la caractérisation.

III.4.3.1 Segmentation
La segmentation, consiste à Identifier et définir des objets dans l’image en divisant l’image
en zones homogènes afin de séparer les divers composants visibles et de les identifier. Deux
approches sont nécessaires pour la réalisation de la segmentation, regroupement des pixels
présentant une caractéristique commune, dérivée par exemple de l’intensité des pixels
(région) et mise en place des frontières aux positions qui rendent localement maximale la
variation d’un critère (contour). Ces deux conceptions sont duales : une région définit son
contour, un contour définit une région.

III.4.3.1.2 Segmentation en régions


L’objectif de ces méthodes consiste toujours à partitionner l’image traitée en régions
homogènes, chaque objet de l’image pouvant être ainsi constitué d’un ensemble de régions.
Dans le but de produire des régions volumineuses et afin d’éviter une division parcellaire des
régions, un critère de proximité géographique peut être ajouté au critère d’homogénéité. Au
final, chaque pixel de l’image reçoit une étiquette lui indiquant son appartenance à telle ou
telle région. On obtient ainsi une carte des régions de l’image [20].

On distingue deux familles d’algorithmes pour l’approche région : les méthodes de


croissance de régions qui agrègent les pixels voisins (méthodes ascendantes) selon le critère
d’homogénéité (intensité, vecteur d’attributs), les méthodes qui fusionnent ou divisent les
régions en fonction du critère choisi (méthodes dites descendantes).

Page 46
Chapitre III Généralité sur le traitement d’image

III.4.3.1.1 Segmentation en contours


L’approche contour consiste à identifier les changements entre les régions. En général, un
élément de contours est un point de l'image appartenant à la frontière de deux ou plusieurs
objets ayant des niveaux de gris différents. Les variations d'intensité de lumière et de
couleurs sont très bien perçues par le système visuel humain. En effet, une frontière est
définie comme un endroit de l'image où le changement en niveaux de gris est le plus
important. Ces frontières constituent le contour des objets [19].

L’application de détecteurs de contours sous la forme de filtres dérivateurs ou reposants sur


des critères d’optimalité permet d’obtenir les contours d’objets présent dans la scène. Parmi
les filtres dérivateurs on peut citer les opérateurs de gradient et Laplacien, comme ceux de
roberts, de prewit, de sobel. Comme filtres optimal, on peut citer les filtres decanny, de
Derich.

III.4.3.2 caractérisation
La caractérisation c’est l’extraction des attributs au caractéristique lies a :

-La forme (élongation, périmètre, surface, capacité …)

-La couleur (l’analyse de l’histogramme…)

-La texture (écart type, moyenne, corrélation, entropie, contraste, énergie …)

III.4.4 Apprentissage et classification


Catégorisation ou classification on utilise des approches comme exemple :

-L’intelligence artificielle : les réseaux neuronaux et la logique floue.

-Séparateurs à vaste marge (SVM).

-L'apprentissage non supervisé (clustering).

Page 47
Chapitre III Généralité sur le traitement d’image

III.4.5 Interprétation
L'interprétation d'image est en général la dernière phase qui précède la prise de décision.
Elle donne une signification à l'information, par exemple en comparant cette information
avec une base de données pré-établie. Ainsi, il peut être établi qu'un ensemble connexe de
pixels d'une image. L'interprétation peut nécessiter des approches très complexes comme
l'intelligence artificielle, les réseaux neuronaux et la logique floue [15].

III.5 Domaine d’application de traitement d’image


Le traitement d'image s'est révélé indispensable pour des applications diverses parmi elle :

Industrie Contrôle non destructif.


Inspection et mesures automatique.
Véhicule autonome.
Reconnaissance des pièces.
Santé Aide au diagnostic.
Suivi des formes anatomiques.
Comptage des cellules.
Sciences Intervention en milieu confiné.
Astronomie, robotique mobile.
Microscopie électronique, biologie.
Analyse des ressources terrestres.
Militaire Surveillance.
Guidage automatique et poursuite d’engins.

Topographie.

Tableau III.1 Domaine d’application de traitement d’image

III.6 Conclusion
Dans ce chapitre nous avons vu brièvement les types des images numériques, on a présenté
les étapes et quelques notions sur la vision assisté par l’ordinateur ainsi que quelque
technique de traitement d’image.

Page 48
Chapitre IV Présentation générale du robot

Chapitre IV
Présentation générale du robot
Dans ce chapitre nous expliquerons le fonctionnement de notre robot ainsi que les
propriétés et les caractéristiques de tous ses composants, on citera les langages de
programmation utilisés. A la fin de ce chapitre on donnera les algorithmes utilisés dans le
projet sous forme d’organigrammes.

Figure IV.1 Photo du robot de l'extérieur

Figure IV.2 Photo du robot de l'intérieur

Page 49
Chapitre IV Présentation générale du robot

IV.1 Principe de fonctionnement


Notre robot mobile est autonome, localisé et contrôlé par une webcam reliée avec un
ordinateur et placée au-dessus du robot. Il ya deux marques colorées (rouge, verte), la cible
a une couleur bleue. Pour localiser le rebot on utilise un programme Matlab pour extraire
chacune des couleurs avec ses coordonnées, après ont utilise ces coordonnées pour faire les
calculs mathématique de la position et de l’angle d’orientation du robot. On envoie ensuite
ces données, en temps réel, vers le robot. L’envoi de ces données est effectué grâce à deux
modules de transmission sans fil. Une fois informé sur ses coordonnées et celles de sa cible
le robot pourra se déplacer d’une façon autonome vers la cible en évitant les obstacles sur
son chemin.

IV.2 Composants
Le robot est composé essentiellement de deux parties la partie mécanique et la partie
électronique :

IV.2.1 La partie mécanique

IV.2.1.1 Moteurs
Le moteur de type EGM30 (codeur, moteur, boîte de vitesses 30: 1) est un motoréducteur
équipé d’encodeurs. Il est idéal pour les petites ou moyennes applications en robotique [21].

Caractéristique de moteur EMG30 :

Tension nominale: 12 V
Couple nominal: 1.5kg.cm
Vitesse nominale: 170 RPM
Courant nominal: 530mA
Vitesse à vide: 216
Courant à vide: 150mA
Courant de blocage : 2.5A
Puissance nominale: 4.22 W
Nombre d’impulsions par tour : 360

Page 50
Chapitre IV Présentation générale du robot

Figure IV.3 Le moteur EMG30

IV.2.1.2Les roues motrices


Des roues de 100mm de diamètre avec moyeu de 5mm de diamètre pour une fixation facile
avec les moteurs utilisées (EMG30) , la roue a une large bande de roulement en caoutchouc
26mm

Figure IV.4 Roue du robot

IV.2.2 La partie électronique

IV.2.2.1 Les cartes de commande


On a utilisé deux cartes de commande la première est une carte de type Arduino UNO, elle
est reliée avec le module sans fil (wireless) émetteur et l’ordinateur, elle est responsable
d’envoi les commandes de matlab vers la deuxième carte de commande RedBoard qui est
reliée avec le deuxième module wireless récepteur et avec la carte de puissance et donc tous
les composants du robot.

Page 51
Chapitre IV Présentation générale du robot

IV.2.2.1.1 Arduino UNO

Le modèle UNO de la série ARDUINO est une carte électronique dont le cœur est un
microcontrôleur ATMEL de référence ATMega328. Le microcontrôleur ATMega328 est un
microcontrôleur 8bits de la famille AVR dont la programmation peut être réalisée en langage
C.

Figure IV.5 microcontrôleur ATMega328

L'intérêt principal des cartes ARDUINO (d'autres modèles existent) est leur facilité de mise
en œuvre. ARDUINO fournit un environnement de développement s'appuyant sur des outils
« open source ». Le chargement du programme dans la mémoire du microcontrôleur se fait
de façon très simple par port USB. En outre, des bibliothèques de fonctions "clé en main"
sont également fournies pour l'exploitation d'entrées-sorties courantes : gestion des E/S
TOR, gestion des convertisseurs ADC, génération de signaux PWM, exploitation de bus
TWI/I²C, exploitation de servomoteurs ...

Figure IV.6 Carte de commande Arduino UNO

Page 52
Chapitre IV Présentation générale du robot

Caractéristiques d’un Arduino Uno :

Microcontrôleur : ATmega328
Tension d'alimentation interne = 5V
tension d'alimentation (recommandée)= 7 à 12V, limites =6 à 20 V
Entrées/sorties numériques : 14 dont 6 sorties PWM
Entrées analogiques = 6
Courant max par broches E/S = 40 mA
Courant max sur sortie 3,3V = 50mA
Mémoire Flash 32 KB dont 0.5 KB utilisée par le bootloader
Mémoire SRAM 2 KB
mémoire EEPROM 1 KB
Fréquence horloge = 16 MHz

A) Alimentation :

La carte Arduino Uno peut-être alimentée soit via la connexion USB (qui fournit 5V jusqu'à
500mA) ou à l'aide d'une alimentation externe. La source d'alimentation est sélectionnée
automatiquement par la carte.

L'alimentation externe (non-USB) peut être soit un adaptateur secteur (pouvant fournir
typiquement de 7V à 12V sous 500mA) ou des piles. L'adaptateur secteur peut être connecté
en branchant une prise 2.1mm positif au centre dans le connecteur jack de la carte. Les fils
en provenance d'un bloc de piles ou d'accumulateurs peuvent être insérés dans les
connecteurs des broches de la carte appelées Gnd (masse ou 0V) et Vin (Tension positive en
entrée) du connecteur d'alimentation.

La carte peut fonctionner avec une alimentation externe de 6 à 20 volts. Cependant, si la


carte est alimentée avec moins de 7V, la broche 5V pourrait fournir moins de 5V et la carte
pourrait être instable. Si on utilise plus de 12V, le régulateur de tension de la carte pourrait
chauffer et endommager la carte. Aussi, la plage idéale recommandée pour alimenter la
carte Uno est entre 7V et 12V.

Page 53
Chapitre IV Présentation générale du robot

Les broches d'alimentation sont les suivantes :

• VIN. La tension d'entrée positive lorsque la carte Arduino est utilisée avec une source
de tension externe (à distinguer du 5V de la connexion USB ou autre source 5V
régulée). Nous pouvons alimenter la carte à l'aide de cette broche, ou, si
l'alimentation est fournie par le jack d'alimentation, accéder à la tension
d'alimentation sur cette broche.
• 5V. La tension régulée utilisée pour faire fonctionner le microcontrôleur et les autres
composants de la carte (les circuits électroniques numériques nécessitent une
tension d'alimentation parfaitement stable dite "tension régulée" obtenue à l'aide
d'un composant appelé un régulateur et qui est intégré à la carte Arduino). Le 5V
régulé fourni par cette broche peut donc provenir soit de la tension d'alimentation
VIN via le régulateur de la carte, ou bien de la connexion USB (qui fournit du 5V
régulé) ou de tout autre source d'alimentation régulée.
• GND. Broche de masse (ou 0V).

B) Mémoire :

L'ATmega 328 à 32Ko de mémoire FLASH pour stocker le programme (dont 0.5Ko également
utilisés par le bootloader). L'ATmega328 a également 2ko de mémoire SRAM (volatile) et
1Ko d'EEPROM (non volatile – mémoire). Le bootloader est un programme préprogrammé
une fois pour toute dans l'ATméga et qui permet la communication entre l'ATmega et le
logiciel Arduino via le port USB, notamment lors de chaque programmation de la carte.

C) Entrées et sorties numériques :

Chacune des 14 broches numériques de la carte UNO (numérotées des 0 à 13) peut être
utilisée soit comme une entrée numérique, soit comme une sortie numérique, en utilisant
les instructions pinMode(), digitalWrite() et digitalRead() du langage Arduino. Ces broches
fonctionnent en 5V. Chaque broche peut fournir ou recevoir un maximum de 40mA
d'intensité et dispose d'une résistance interne de "rappel au plus" (pull-up) (déconnectée
par défaut) de 20-50 KOhms. Cette résistance interne s'active sur une broche en entrée à
l'aide de l'instruction digitalWrite(broche, HIGH).

Page 54
Chapitre IV Présentation générale du robot

De plus, certaines broches ont des fonctions spécialisées :

• Communication Série: Broches 0 (RX) et 1 (TX). Utilisées pour recevoir (RX) et


transmettre (TX) les données série de niveau TTL. Ces broches sont connectées aux
broches correspondantes du circuit intégré ATmega8U2 programmé en convertisseur
USB-vers-série de la carte, composant qui assure l'interface entre les niveaux TTL et
le port USB de l'ordinateur.
• Interruptions Externes: Broches 2 et 3. Ces broches peuvent être configurées pour
déclencher une interruption sur une valeur basse, sur un front montant ou
descendant, ou sur un changement d’état. Voir l'instruction attachInterrupt() pour
plus de détails.
• Impulsion PWM (largeur d'impulsion modulée): Broches 3, 5, 6, 9, 10, et 11.
Fournissent une impulsion PWM 8-bits à l'aide de l'instruction analogWrite().
• I2C: Broches 4 (SDA) et 5 (SCL). Supportent les communications de protocole I2C (ou
interface TWI (TwoWire Interface - Interface "2 fils"), disponible en utilisant la
librairie Wire/I2C (ou TWI - Two-Wire interface - interface "2 fils") .
• LED: Broche 13. Il y a une LED incluse dans la carte connectée à la broche 13. Lorsque
la broche est au niveau HAUT, la LED est allumée, lorsque la broche est au niveau
BAS, la LED est éteinte.

D) Broches analogiques :

La carte ArduinoUno dispose de 6 entrées analogiques (numérotées de 0 à 5), chacune


pouvant fournir une mesure d'une résolution de 10 bits (c-à-d sur 1024 niveaux soit de 0 à
1023) à l'aide de la très utile fonction analogRead() du langage Arduino. Par défaut, ces
broches mesurent entre le 0V (valeur 0) et le 5V (valeur 1023), mais il est possible de
modifier la référence supérieure de la plage de mesure en utilisant la broche AREF et
l'instruction analogReference() du langage Arduino.

Les broches analogiques peuvent être utilisées en tant que broches numériques : elles sont
numérotées en tant que broches numériques de 14 à 19.

Page 55
Chapitre IV Présentation générale du robot

IV.2.2.1.2 RedBoard

La carte RedBoard est compatible avec Arduino UNO. Elle dispose de 14 broches d'E/S
numériques avec 6 sorties MLI, 6 entrées analogiques, une UART, une SPI et des
interruptions externes. La redBoard peut être programmée via un câble USB mini-B en
utilisant l'IDE Arduino[23].

Figure IV.7 Carte de commande Redboard

Caractéristiques de RedBoard :

• Microcontrôleur ATmega328
• Programmation USB simplifiée grâce au FTDI FT231X omniprésent
• 14 broches d'E/S numériques (6 sorties MLI)
• Sorties de 0 à 5 V avec entrées compatibles 3,3 V
• Tension en entrée : de 7 à 15 V
• Mémoire Flash de 32 K
• Vitesse d'horloge de 16 MHz
• Construction totale par composants avec montage en surface (SMD)
• Bus série, I2C et SPI

Page 56
Chapitre IV Présentation générale du robot

IV.2.2.2 Carte de puissance


La carte de puissance joue le rôle d’une carte d’interface entre la carte de commande et la
partie motrice, elle nous permet de commander les moteurs suivant les ordres fournis par la
carte de commande, la carte de puissance utilisée dans notre projet est le modèle MD25.

La MD25 destinée à être commandée par le microcontrôleur au moyen d'une liaison série
(niveau logique 0 - 5 V) ou via un bus I²C, cette platine électronique intègre un double pont
en "H" permettant le pilotage indépendant de 2 moteurs à courant continu avec
encodeur (consommation: 2,5 A max. par moteur) [24].
Des ordres simples nous permettrons de définir le sens de rotation ainsi que la vitesse des
moteurs, de lire les informations en provenance des encodeurs des moteurs, de lire les
valeurs de la tension et du courant consommé par les moteurs, de connaître la vitesse de
rotation des moteurs, de définir les accélérations, etc ...

Figure IV.8 Carte de puissance MD25

• Caractéristiques de MD25 :
- Alimentation: 12 Vcc (régulateur 5 Vcc intégré délivrant 300 mA)
- Consommation: jusqu'à 3 A pour chaque moteur
- Pilotage du module par bus I²C (jusque 8 modules MD25 adressables)
- Lecture des encodeurs des moteurs pour déterminer la distance parcourue et la
direction
- Lecture du courant des moteurs dans un registre
- Régulation de puissance
- Accélération réglable

Page 57
Chapitre IV Présentation générale du robot

IV.2.2.3 Les capteurs

IV.2.2.3.1 Capteur infrarouge

Le Télémètre infrarouge utilisé c’est le SHARPGP2Y0D815, ce petit module est composé d'un
circuit imprimé associé à un télémètre infrarouge ainsi qu'à quelques composants (Leds,
condensateurs...), leur principe de fonctionnement est expliqué dans le chapitre 2.

Figure IV.9 Télémètre infrarougeSHARPGP2Y0D815

Caractéristiques: Alimentation: 2.7 à 6.2 V, Consommation: 5 mA env.

IV.2.2.3.2 Capteur de fin de course

Le micro-Switch, appelés aussi "Interrupteur de fin de course", sont des boutons poussoirs
simples à utiliser à leur déclenchement, ils passent à l'état bas (0 volt) et en position de
repos restent à l'état haut (5V). Ils coupent ou établissent un circuit lorsqu'ils sont actionnés
par un mobile ou par un obstacle.

La détection s’effectue par contact d’un objet extérieur sur le levier ou un galet. Ce capteur
peut prendre alors deux états : Enfoncé (en logique positive l'interrupteur est fermé) et
l’état Relâché (en logique positive l'interrupteur est ouvert).

Figure IV.10 Interrupteur de fin de course

Page 58
Chapitre IV Présentation générale du robot

IV.2.2.4 Webcam
On a utilisé une webcam pour effectuer l’acquisition en temps réel, dont les données
numériques seront transmises à l’ordinateur via le port USB. La résolution utilisée dans
l’acquisition est de 640*480 pixels.

Figure IV.11 La Webcam du projet

IV.2.2.5 Connexion sans fil

On a utilisé le module radio fréquence RF24 qui est composé par deux modules émetteurs /
récepteurs et qui utilisent la bande de fréquence 2.4 GHz.
La vitesse de fonctionnement maximale est de 2 Mbps, avec une faible consommation
électrique, la distance de transmission est relativement élevée et permet le pilotage du
robot mobile. Ces modules peuvent être adressés par logiciel, et peuvent être accédés
directement par un large éventail de microcontrôleurs comme l’Arduino et Redboard.

Figure IV.12 Le module émetteur/récepteur RF24

Caractéristiques de RF24:
Construit en NRF24L01 + émetteur-récepteur.
Sélectionnable taux de données avec 2 mbit/s, 1 mbit/s, 250 kbit/s.
Plage d'alimentation: 1.9 à 3.6 V, entrée tolérée jusqu’à 5 V
Régulateur de tension intégré
Dimension: 29mm x 15.2mm.

Page 59
Chapitre IV Présentation générale du robot

IV.3 Les bus de communication :


IV.3.1 Le Bus I²C :

IV.3.1.1 Caractéristiques
Le bus I²C (Inter Integrated Circuit) fait partie des bus série : 3 fils pour faire passer les
données, il permet de faire communiquer entre eux des composants électroniques très
divers grâce à seulement trois fils : un signal de données (SDA), un signal d'horloge (SCL), et
un signal de référence électrique (masse).

Il s'agit d'une liaison en mode série, ce qui signifie que la vitesse de transfert sera plus faible
qu'avec un bus de type parallèle. Le bus I²C permet cependant des échanges à la vitesse de
100 kbits par seconde. Certes, la vitesse de transfert du bus I²C n'est pas exceptionnelle,
mais dans bien des cas, la vitesse n'est pas l'élément prédominant.

L'utilisation d'un bus I²C permet de réduire la complexité des circuits imprimés à réaliser. Par
exemple, pour connecter une EEPROM ou une RAM à un microcontrôleur classique, il faut
relier entre eux les bits de données et les bits d'adresses des différents composants, et, en
plus, il faut bien souvent ajouter une logique de sélection. Avec des composants prévus pour
se connecter au bus I²C, il suffit de les relier par deux pistes seulement. Si, par la suite, on
souhaite ajouter des composants sur le circuit, le nombre de pistes à ajouter sera vraiment
plus réduit [22].

De nombreux fabricants ayant adopté le système la variété des systèmes disponibles


disposant d'un port I²C est énorme : microcontrôleurs, , convertisseurs A/N et N/A ,
mémoires (RAM, EPROM, EEPROM, etc.) , récepteurs infrarouge , capteurs de température ,
circuits audio (égaliseur, contrôle de volume, etc.) , drivers d'affichage LCD ou à LEDs ,
décodeurs télétexte , chargeurs de batterie ,etc …

IV.3.1.2La prise de contrôle du bus


Pour prendre le contrôle du bus, il faut que celui-ci soit au repos (SDA et SCL à '1').
Pour transmettre des données sur le bus, il faut donc surveiller deux conditions particulières:
- La condition de départ. (SDA passe à '0' alors que SCL reste à '1')
- La condition d'arrêt. (SDA passe à '1' alors que SCL reste à '0')

Page 60
Chapitre IV Présentation générale du robot

Lorsqu'un circuit, après avoir vérifié que le bus est libre, prend le contrôle de celui-ci, il en
devient le maître. C'est lui qui génère le signal d'horloge.

Figure IV.13 Exemple de condition de départ et d'arrêt

IV.3.1.3Lecture d'une donnée :


La lecture d'une donnée par le maître se caractérise par l'utilisation spéciale qui est faite du
bit ACK. Après la lecture d'un octet, le maître positionne ACK à '0' s'il veut lire la donnée
suivante (cas d'une mémoire par exemple) ou à '1' le cas échéant. Il envoie alors la condition
d'arrêt [22].

Figure IV.14 Exemple de lecture d'une donnée

IV.3.1.4 Écriture d'une donnée


Si le bit R/W précédemment envoyé était à 0, cela signifie que le maître doit transmettre un
ou plusieurs octets de données. Après chaque bit ACK valide, le maître peut continuer
d'envoyer des octets à l'esclave ou bien il peut décider de terminer le dialogue par une
condition d'arrêt [22].

Figure IV.15 Exemple d’écriture d'une donnée


Page 61
Chapitre IV Présentation générale du robot

IV.3.1.5 La transmission d'une adresse

Le nombre de composants qu'il est possible de connecter sur un bus I²C étant largement
supérieur à deux, le maître doit pouvoir choisir quel esclave est censé recevoir les données.
Dans ce but, le premier octet que transmet le maître n'est pas une donnée mais une adresse.
Le format de l'octet d'adresse est un peu particulier puisque le bit D0 est réservé pour
indiquer si le maître demande une lecture â l'esclave ou bien au contraire si le maître impose
une écriture à l’esclave [22].

Figure IV.16 Exemple d’une transmission d'une adresse

Chaque circuit connecté au bus I²C possède une adresse, qui doit être unique. L'adresse
associée à un composant est définie en partie par l'état de broches de sélections et d'autre
part par sa fonction. Par exemple, le circuit PCF8574, qui est un port d'entrées/sorties
bidirectionnel 8 bits, décompose son adresse de la façon suivante :
[0] [1] [0] [0] [A2] [A1] [A0] [R/W]. Les bits A2, A1 et A0 reflètent l'état des broches 1, 2 et 3
du circuit. Cela permet de placer 8 circuits PCF8574 sur le bus I²C. Lors de la conception d'un
système, il faut donc veiller à l'unicité des adresses attribuées aux différents composants.

Une fois l'adresse envoyée sur le bus, l'esclave concerné doit répondre en plaçant le bit ACK
à 0. Si le but ACK vaut 1, le maître comprend qu'il y a une erreur de sélection et il génère la
condition arrêt. En revanche, si le bit ACK vaut 0, le maître peut continuer les opérations
[22].

Page 62
Chapitre IV Présentation générale du robot

IV.3.2 Le Bus SPI

IV.3.2.1Caractéristique
Dans les circuits d’interface le bus SPI (Serial Peripheral Interface) n’est pas seul est se trouve
talonné depuis de nombreuses années par les circuits dotés d’une liaison série synchrone de
type SPI. Cette appellation rencontre cependant des signaux et des chronogrammes qui sont
beaucoup moins bien normalisés que ceux du bus I2C, tout simplement parce que la liaison
du bus SPI ne fait l’objet d’aucune norme officielle.
Certains circuits indiquent qu’ils sont munis d’une interface SPI, mais nous pouvons aussi
trouver comme appellation « Microwire » (qui est une marque déposée de National Semi-
conducteur) ou bien encore « bus série trois fils ». Un bus de ce type permet la connexion,
sous forme série maître-esclave, de plusieurs circuits disposant d’interfaces compatibles,
avec seulement trois fils de liaisons.

Les dernières versions d’Arduino incluent une bibliothèque qui permet la communication
avec les périphériques SPI.
SPI a des lignes labellisés « MOSI » : Master Output Slave Input, généré par le maître, des
lignes labellisées « MISO » : Master Input Slave Output, généré par l’esclave et une ligne
d’horloge (SCK : SPI Serial Clock). Ces trois lignes sont connectées à leurs lignes respectives
sur un ou plusieurs esclaves. Les esclaves sont identifiées grâce au signal de leur ligne SS
(Slave Select). Autres nommages possibles : SDO (Serial Data Out) et SDI (Serial Data
Input)[25].

La figure ci-dessous illustre les connexions SPI :

Figure IV.17 Schéma de connexions SPI

Page 63
Chapitre IV Présentation générale du robot

IV.3.2.2principe d’une liaison SPI


La figure ci-dessous correspond au schéma de principe simplifié d’une liaison de données
SPI, avec ses principaux composants.

Figure IV.18 Schéma de principe simplifié d’une liaison SPI

Deux registres à décalages sont généralement mis en œuvre. Ils peuvent être de type
matériel ou logiciel, selon les dispositifs employés. Quel que soit leur mise en œuvre, ces
deux registres à décalage forment un buffer circulaire inter-puce, qui se trouve au cœur de la
liaison SPI.
Les communications sont initiées par le maître, qui commence par sélectionner l’esclave. Au
cours de chaque cycle d’horloge, le maître envoie un bit à l’esclave, qui le lit sur la ligne
MOSI. En parallèle, l’esclave envoie un bit au maître, qui le lit sur la ligne MISO. Ces lectures
et écritures simultanées entre le maître et l’esclave forment une communication Full-Duplex.

La gestion d’une liaison SPI avec l’Arduino est facile à mettre en œuvre. Les microcontrôleurs
d’AtmelAtmega disposent d’une interface SPI dont les entrées/sorties se répartissent
comme suit : SCK sur 13, MISO sur 12, MOSI sur 11 et SS (choix de l’esclave) sur 10 pour les
Uno [25].

Page 64
Chapitre IV Présentation générale du robot

IV.4 Communication entre les composants :


La communication entre l’ordinateur et le robot mobile est réalisée avec des modules sans fil
(radio fréquence), le premier relié avec l’ordinateur et l’autre avec la carte de commande du
robot. Après l’acquisition de la scène dans laquelle le robot mobile se déplace , le
programme Matlab extrait les coordonnées de robot et de la cible en temps réel avec un
programme de traitement d’images, ensuite il effectue les calculs nécessaires pour connaitre
la position et l’angle d’orientation de robot pour ensuite envoyer des données vers la carte
de commande du robot on utilisant les modules sans fil. Les données sont envoyées en
chaque instant, ils représentent des ordres donnés vers la carte de commande du robot.
Chaque donnée est exploitée par un programme spécial dans cette carte pour guider le
robot vers la cible en évitant les obstacles sur son chemin.

Figure IV.19 image qui simplifie les composants du projet

Page 65
Chapitre IV Présentation générale du robot

IV.5 Programmation
IV.5.1 Matlab

IV.5.1.1 Introduction sur Matlab


MATLAB (matrix laboratory ) est un langage de programmation de quatrième
génération émulé par un environnement de développement du même nom ; il est utilisé à
des fins de calcul numérique. Développé par la société The Math Works, MATLAB permet de
manipuler des matrices, d'afficher des courbes et des données, de mettre en œuvre des
algorithmes, de créer des interfaces utilisateurs, et peut s’interfacer avec d’autres langages
comme le C, C++, Java, et Fortran. Les utilisateurs de MATLAB sont de milieux très différents
comme l’ingénierie, les sciences et l’économie dans un contexte aussi bien industriel que
pour la recherche. Matlab peut s’utiliser seul ou bien avec des toolbox (boîte à outils) [26].

IV.5.1.2 Traitement d’images avec Matlab

Matlab est un langage qui utilise les données sous forme matricielle. Ce format est très
compatible avec le format de représentation des images, avec Matlab on peut réaliser
plusieurs opérations de traitement d’images telles que la détection de contours, la détection
des régions, le changement d'espace de couleur, le filtrage, l’amélioration de contraste...
aussi il ya des toolbox (bibliothèques) complet dans Matlab de traitement d’image prêt à
l'emploi.

Dans notre projet nous avons utilisées des bibliothèques de traitement d’image avec le
matlab comme :

- La binarisation

- Le filtrage (filtre médian)

- Etiquetage

- Extraction des coordonnées

- Soustraction de la couleur

Page 66
Chapitre IV Présentation générale du robot

IV.5.2 Arduino IDE

L'environnement de programmation Arduino (IDE) est une application écrite en Java inspirée
du langage de traitement. L'IDE permet d'écrire, de modifier un programme et de le
convertir en une série d'instructions compréhensibles par le microcontrôleur. Le logiciel
Arduino IDE a des fonctions principales:

- Pouvoir écrire et compiler des programmes pour la carte Arduino et Redboard.

- Connecter la carte Arduino avec un PC pour y transférer les programmes.

- De communiquer avec la carte Arduino à travers le port série 0.

Cet espace de développement intégré (IDE) qui est dédié à la programmation des cartes
Arduino et aussi Redboard comporte 3 parties principales :

- La partie déclaration des variables et les bibliothèques

- La partie initialisation et configuration des entrées/sorties : la fonction setep()

- La partie qui exécute en boucle : la fonction loop()

Figure IV.20 La fenêtre de l’Arduino IDE

Page 67
Chapitre IV Présentation générale du robot

IV.5.3
3 Les algorithmes de projet

Dans notre projet nous


ous avons essayé deux algorithmes,
algorithmes les deux méthodes donnent le
résultat désiré. Nous avons choisi la première méthode car elle permet d’utiliser tous les
composants, l’algorithme
algorithme est plus développé et plus rapide que l’autre méthode,
méthode dans notre
algorithme il ya du traitement d’images
d’image et des calculs mathématiques qui permet de
déterminer la position et l’angle
l’angl d’orientation du robot mobile ainsi que laa communication
entre
re l’ordinateur et le robot et ses
s composants, Il y a aussi les ordres de mouvements
mouvement pour
guider le robot mobile d’une façon autonome vers son but.

Organigrammes de la détection des couleurs et l’extraction des coordonnées qui est utilisé
pour les deux méthodes:

Page 68
Chapitre IV Présentation générale du robot

Les organigrammes de la première méthode (la méthode utilisée) :

1. L’organigramme de déplacement:

Page 69
Chapitre IV Présentation générale du robot

2. L’organigramme de l’émetteur :

L’Arduino est équipé de quatre boutons, un afficheur LCD et une communication par port
série avec Matlab, donc les commandes ou l'affichage se fait instantanément.

Page 70
Chapitre IV Présentation générale du robot

3. L’organigramme suivi de la cible :

Page 71
Chapitre IV Présentation générale du robot

4. L’organigramme déplacement d’un objet :

Page 72
Chapitre IV Présentation générale du robot

5. L’organigramme de réception :

Le robot est commandé par la carte RedBoard, une fois qu’elle reçoit une commande elle
sera communiquée directement aux roues et à la pince par le bus de communication I2C.

Page 73
Chapitre IV Présentation générale du robot

Les organigrammes de la deuxième méthode :

Page 74
Chapitre IV Présentation générale du robot

L’organigramme de la carte de commande (récepteur) :

Page 75
Chapitre IV Présentation générale du robot

Des photos instantanées de robot mobile durant la navigation vers la cible :

Page 76
Chapitre IV Présentation générale du robot

Page 77
Chapitre IV Présentation générale du robot

IV.6 Conclusion
Dans ce chapitre nous avons mentionné tous les composants de notre robot mobile, nous
avons aussi expliqué les systèmes de communications utilisés entre les constituants du robot
ainsi que la communication entre le micro-ordinateur et le robot.

Nous avons conclu que la bonne détection de couleur avec l'extraction de ces coordonnées
est une étape très importante dans notre travail pour que l’algorithme donne de bons
résultats sans problèmes particuliers.

Les deux algorithmes sont capables d'atteindre le but désiré de notre projet, la localisation
instantanée du robot permet au robot de naviguer d’une façon autonome vers la cible.

Page 78
Conclusion Générale

Conclusion générale
La réalisation d’un système robotisé autonome doit généralement accomplir trois tâches de
base qui sont la localisation, la planification et la navigation. La localisation est la tâche la
plus essentielle car elle détermine le bon déroulement des deux autres.

Dans ce travail on s’est intéressés à la localisation d’un robot mobile à roues. On a étudié
deux méthodes de localisation différentes, qui sont généralement utilisées en robotique
mobile, à savoir la localisation relative et la localisation absolue. On a utilisé la méthode de
localisation par vision avec une webcam. En effet pour être autonome, un robot mobile doit
être capable d'adapter l'exécution d'un ensemble d'actions suivant les variations dans son
environnement. Il a donc besoin de percevoir l'environnement et de raisonner sur les
données perceptuelles acquises.

La localisation par vision, utilisée dans notre projet est très riche en quantité d’informations,
ce qui implique un certain nombre de problèmes :

- Beaucoup d’informations engendrent une très grande quantité de données brutes.


- Représentation d’un environnement 3D sous forme de données 2D.
- Le changement d'éclairage peut engendrer des pertes d'informations et
chevauchement entre les couleurs.

Malgré tout les problèmes cités précédemment, nous pouvons estimer que les résultats
expérimentaux que nous avons obtenus sont très satisfaisants dans le sens ou le cahier des
charges préalablement fixé a été atteint. Ceci n’empêche pas de prévoir un certain nombre
d’améliorations tels que l’utilisation d’une caméra de meilleure qualité munie d’un objectif
permettant découvrir une plus grande surface et donc élargir l’espace travail du robot. Ceci
permettra aussi d’envisager des applications pratiques dans plusieurs domaines tels que le
guidage de robot mobiles de transport dans un environnement industriel restreint, dans le
nettoyage des gares ou aéroports etc...

En perspective et afin d'améliorer l’acquisition, nous proposant d'installer une deuxième


webcam pour une représentation stéréoscopique "3D" de la scène réel.

Page 79
Bibliographie
[1] Site web : http://fr.wikipedia.org/wiki/Robot#Historique

[2] SLIMANE Noureddine, « Système de localisation pour robots mobiles », Thèse de


doctorat en robotique, Université de Batna. 2005.

[3] Ph. Bidaud, Cours de Modélisation des Systèmes Robotiques, Université Pierre et Marie
Curie. Master Systèmes Intelligents et Robotiques

[4] Mouna Souissi, Introduction à la mécatronique, HEI l’ingénieur pour le monde

[5] CHERROUN Lakhmissi , « Navigation Autonome d’un Robot Mobile par des Techniques
Neuro-Floues » , Thèse de doctorat en automatique , Université Mohamed Khider – Biskra ,
2014.

[6] Laetitia Matignon, « Introduction a la robotique », Université de Caen, France, 2011/2012

[7] Omar AÏT-AIDER, « Localisation référencée modèle d'un robot mobile d'intérieur », Thèse
de doctorat en robotique , Université d’Evry. 2002.

[8] Cyril DROCOURT, « Localisation et modélisation de l'environnement d'un robot mobile


par coopération de deux capteurs omnidirectionnels », thèse de doctorat, Université de
Technologie de Compiègne. 2002.

[9] BALI Chaher eddine et ABAIDI Hakim, « Réalisation d’un robot mobile avec évitement
d’obstacle et trajectoire programmé », Mémoire de Fin d'Etudes Master, Université
Mohamed Khider Biskra.

[10] Site web : http://fr.wikipedia.org/wiki/Effet_Doppler

[11] Sébastien GROS, Systèmes de positionnement d’un robot dans le cadre de la coupe
Eurobot, Club ROBOTIK2000.

[12] J. P. Laumond, “La robotique mobile”, Hermès Sience Publications, 2001, Paris, ISBN 2-
7462-0246-8.

Page 85
[13] David FILLIAT, “Robotique Mobile”, Cours C10-2, ENSTA, France, Octobre 2004.

[14] Hadjila Feth Allah et Bouabdallah Réda, « Reconnaissance des visages en utilisant les
réseaux de neurones ». Mémoire d’ingénieur. Université de Tlemcen. 2003.

[15] J.P. Gastellu-Etchegorry , « Acquisition et traitement d’image numérique » ,


Département de Mesures Physiques, Université Paul Sabatier . Avril 2008.

[16] Cours de Traitement d’image, Licence de Physique S6 , Université de Picardie Jules


Verne , Année Académique 2007-2008

[17] KADDOUR Chakib, AISSA BRAHIM Salim, « Généralités sur le traitement d’images ».

[18] Site web : http://nguyen.univ-tln.fr/projet-c-traitement-dimages.html

[19] MELIANI Maamar, « Segmentation d’Image par Coopération Régions-Contours »,


mémoire de magister. Ecole nationale Supérieure en Informatique. 2012.

[20] Arnaud CAPRI, Caractérisation des objets dans une image en vue d’une aide à
l’interprétation et d’une compression adaptée au contenu : application aux images
échographiques, thèse doctorat, Université D’ORLÉANS. 2007.

[21] Site web : http://french.alibaba.com/product-free/emg30-motor-with-gearbox-and-


encoder-243848785.html

[22] Site web : http://www.aurel32.net/elec/i2c.php

[23] Site web : http://www.robotshop.com/ca/fr/microcontroleur-redboard-compatible-


arduino.html

[24] Site web : http://www.lextronic.fr/P3104-module-de-commande-de-moteur-md25.html

[25] Cour Architecture fonctionnelle d’un système communicant, Transmission série : Le bus
SPI

[26] Site web : http://fr.wikipedia.org/wiki/MATLAB

Page 86
Annexe
Schéma simplifié de la carte Arduino UNO

Page 80
Caractéristiques d’Arduino Uno :

Micro contrôleur : ATmega328


Tension d'alimentation interne = 5V
tension d'alimentation (recommandée)= 7 à 12V, limites =6 à 20 V
Entrées/sorties numériques : 14 dont 6 sorties PWM
Entrées analogiques = 6
Courant max par broches E/S = 40 mA
Courant max sur sortie 3,3V = 50mA
Mémoire Flash 32 KB dont 0.5 KB utilisée par le bootloader
Mémoire SRAM 2 KB
mémoire EEPROM 1 KB
Fréquence horloge = 16 MHz
Dimensions = 68.6mm x 53.3mm

Moteur a courant continu EMG30


Caractéristique de moteur EMG30 :

Tension nominale: 12 V
Couple nominal: 1.5kg.cm
Vitesse nominale: 170 RPM
Courant nominal: 530mA
Vitesse à vide: 216
Courant à vide: 150mA
Décrochage courant: 2.5A
Puissance nominale: 4.22 W
Codeur coups par Drive l'arbre tournant: 360

Page 81
Le moteur EMG30 est fourni avec un connecteur JST à 6 voies

Voici ci-dessous les couleurs des fils de moteur et leurs connexions :

Violet (1) : capteur à effet Hall B V out

Bleu (2) : capteur à effet Hall A V out

Vert (3) : capteur à effet Hall « terre »

Brun (4) : capteur à effet Hall Vcc

Rouge (5) : le positive du moteur (+)

Noir (6) : le négative de moteur (-)

Le module émetteur/récepteur NRF24L01

Page 82
(1) GND : masse « marron »
(2) VCC : 3.3V « rouge »
(3) CE (Pin controls RX / TX) : résistance 10 kΩ : digital pin8 « vert »
(4) CSN (Chip select) : résistance 10 kΩ : digital pin7 « bleu »
(5) SCK --> résistance 10 kΩ : digital pin13 « blanc »
(6) MOSI --> résistance 10 kΩ : digital pin11 « noir »
(7) MISO --> digital pin12 « jaune »
(8) IRQ --> non utilisé « orange »

Le schéma du module est le suivant :

Schéma de Télémètre infrarouge SHARP GP2Y0D815

Page 83
Schéma de la carte RedBoard

Caractéristiques:
- alimentation: via port USB ou 7 à 15 V sur connecteur alimenté
- microprocesseur: ATMega328
- mémoire flash: 32 kB
- mémoire SRAM: 2 kB
- mémoire EEPROM: 1 kB
- 14 broches d'E/S dont 6 PWM
- 6 entrées analogiques 10 bits
- intensité par E/S: 40 mA
- cadencement: 16 MHz
- bus série, I2C et SPI
- gestion des interruptions
- fiche mini-USB
- dimensions: 70 x 53 x 13 mm

Page 84

Vous aimerez peut-être aussi