Eprint 10950
Eprint 10950
Eprint 10950
MÉMOIRE PRÉSENTÉ À
L’UNIVERSITÉ DU QUÉBEC À TROIS-RIVIÈRES
PAR
ABOUBACAR SALIF TAPSOBA
JUILLET 2023
Université du Québec à Trois-Rivières
Service de la bibliothèque
Avertissement
II
REMERCIEMENTS
Avant tous, nous remercions ALLAH, pour nous avoir donné le pouvoir
pour réaliser ce travail.
Un grand merci à mon encadreur M. Fathallah Nouboud, Professeur à
l’Université du Québec à Trois-Rivières, qui a fourni des efforts énormes par
ses conseils, ses orientations et ses informations.
Nous tenons à remercier les membres du jury et tous les enseignants du
département Mathématiques et Informatiques Appliquées.
A mon père, ma mère, mon frère, ma sœur, mon âme sœur, mes enfants,
mes amis bien-aimés et à toutes personnes ayant participé de près ou de loin
à la réalisation de ce modeste travail.
III
Table des matières
Résumé ........................................................................................................................................... II
REMERCIEMENTS ................................................................................................................... III
INTRODUCTION GÉNÉRALE ................................................................................................ 10
CHAPITRE 1 : ÉTAT DE L’ART ............................................................................................. 12
CHAPITRE 2 : AU CŒUR DU BIG DATA ............................................................................. 15
1. Introduction ..................................................................................................................... 15
2. Le paysage des données massives ................................................................................... 16
2.1. L’activité des données ............................................................................................. 16
2.2. Évolution des Mégadonnées.................................................................................... 16
3. Representation des mégadonnées ................................................................................... 17
3.1. Definition .................................................................................................................. 17
3.2. Dimensions des Mégadonnées................................................................................. 18
4. Sources de données .......................................................................................................... 19
5. Différents Types de données ........................................................................................... 19
5.1. Données Structurées ................................................................................................ 19
5.2. Données non structurées ......................................................................................... 20
5.3. Données semi-structurées ....................................................................................... 20
6. Infrastructure des mégadonnées .................................................................................... 20
7. Cycle de vie des mégadonnées ......................................................................................... 21
8. Défis rencontrés lors de la gestion des mégadonnées .................................................... 22
9. Techniques d’analyse des données .................................................................................. 22
9.1. Analyse descriptive ................................................................................................... 22
9.2. Analyse prédictive..................................................................................................... 23
9.3. Analyse Prescriptive.................................................................................................. 23
10. Cas d’usages du Big Data .............................................................................................. 23
10.1. Soins de santé ....................................................................................................... 23
10.2. Les télécoms .......................................................................................................... 24
10.3. Les services financiers........................................................................................... 24
11. Conclusion ..................................................................................................................... 24
CHAPITRE 3 : VISION PAR ORDINATEUR ...................................................................................... 25
IV
1. Introduction ...................................................................................................................... 25
2. Aperçu de la vision par ordinateur ................................................................................ 26
3. Les cas d’usages de la vision par ordinateur .................................................................... 27
3.1. Sécurité et sureté ...................................................................................................... 27
3.2. Le domaine de l’automobile ..................................................................................... 27
3.3. Le secteur de la vente ............................................................................................... 28
3.4. Le domaine sportif .................................................................................................... 28
3.5. Le domaine médical .................................................................................................. 28
4. Les principales tâches de la vision par ordinateur........................................................... 28
5. Les défis de la vision par ordinateur ................................................................................ 29
6. Conclusion ......................................................................................................................... 29
CHAPITRE 4 : Le CLOUD COMPUTING .......................................................................................... 30
1. Introduction ...................................................................................................................... 30
2. La technologie Cloud Computing ..................................................................................... 30
2.1. Définition .................................................................................................................. 30
3. Modèles de services cloud................................................................................................ 31
3.1. SaaS (Software as a Service) ..................................................................................... 31
3.2. PaaS (Plateforme as a Service) ................................................................................. 32
3.3. IaaS (Infrastructure as a Service) .............................................................................. 32
4. Modèles de déploiement.................................................................................................. 33
4.1. Les Clouds publics ..................................................................................................... 33
4.2. Les Clouds privés ....................................................................................................... 33
4.3. Les Clouds communautaires ..................................................................................... 33
4.4. Les Clouds hybrides................................................................................................... 34
5. Avantages et inconvénients du Cloud Computing ........................................................... 34
5.1. Les avantages ............................................................................................................ 34
5.2. Les inconvénients...................................................................................................... 34
6. Les caractéristiques du Cloud ........................................................................................... 35
6.1. Libre-service à la demande ....................................................................................... 35
6.2. Large accès au réseau ............................................................................................... 35
6.3. Élasticité rapide......................................................................................................... 35
6.4. Mise en commun des ressources ............................................................................. 35
6.5. Services mesurés ...................................................................................................... 36
V
7. Cloud Computing et Big Data ........................................................................................... 36
8. Conclusion ......................................................................................................................... 37
CHAPITRE 5 : CONTEXTE D’ÉTUDE ................................................................................................ 38
1. Introduction ...................................................................................................................... 38
2. Reconnaissance faciale .................................................................................................... 38
2.1. Architecture de reconnaissance faciale.................................................................. 38
2.2. Les types de représentations ................................................................................... 39
2.2.1. Les approches holistiques ..................................................................................... 39
2.2.2. Les approches locales ........................................................................................... 40
2.2.3. Les approches Hybrides ........................................................................................ 40
2.3. Les domaines d’applications .................................................................................... 40
3. Les réseaux de neurones ................................................................................................. 41
3.1. Fonction d’activation............................................................................................... 42
3.2. Algorithme d’apprentissage ................................................................................... 43
3.3. Rétropropagation .................................................................................................... 43
3.4. Bases de données ...................................................................................................... 44
3.5. Quelques notions ...................................................................................................... 45
4. Présentation des réseaux de neurones convolutifs (CNN) .............................................. 45
4.1. Les images RVB ......................................................................................................... 45
4.2. Les couches de convolutions .................................................................................... 46
4.3. Couche de mise en commun..................................................................................... 47
4.4. Les couches entièrement connectées ...................................................................... 48
4.5. Présentation des réseaux de neurones LeNet-5 ...................................................... 49
5. Amélioration du modèle .................................................................................................. 50
5.1. Augmentations des données .................................................................................... 50
5.2. Dropout..................................................................................................................... 51
5.3. Processus de normalisations par lots ..................................................................... 51
5.4. Présentation de la taille des lots.............................................................................. 51
5.5. Taux d’apprentissage .............................................................................................. 51
CHAPITRE 6 : MÉTHODOLOGIE DE RECHERCHE ........................................................ 52
1. Introduction ..................................................................................................................... 52
2. Environnement logiciel et matériel de développement................................................. 52
2.1. Configuration Matérielle ........................................................................................ 52
VI
2.2. Langage de programmation ..................................................................................... 53
2.3. Présentation des bibliothèques ............................................................................... 53
2.4. Environnement de développement ......................................................................... 55
3. Données............................................................................................................................. 56
3.1. Collecte des données. ............................................................................................... 56
3.2. Organisation des données ....................................................................................... 56
3.3. Détection de visages ................................................................................................. 58
3.4. Alignement de visages ............................................................................................. 59
3.5. Extractions des caractéristiques (prétraitement des données) .............................. 59
4. Formation des modèles de reconnaissance faciale ......................................................... 60
4.1. Première expérimentation ....................................................................................... 61
4.2. Deuxième expérimentation ...................................................................................... 62
4.3. Troisième expérimentation ...................................................................................... 62
4.4. Bases de données...................................................................................................... 62
4.5. Les métriques de performances.............................................................................. 63
CHAPITRE 7 : RÉSULTATS ET DISCUSSIONS .................................................................. 65
1. Présentations des résultats et discussions. ..................................................................... 65
2. Résultats obtenus ............................................................................................................. 71
CONCLUSION GÉNÉRALE..................................................................................................... 74
RÉFÉRENCES ............................................................................................................................ 76
VII
Liste des figures
FIGURE 1 : IMAGE D’UN HOMME ET D’UN CHAT [38]. .................................................................................... 26
FIGURE 2 : LES MODÈLES DE SERVICE DU CLOUD COMPUTING [47] .............................................................. 31
FIGURE 3 : PROCESSUS DE RECONNAISSANCE FACIALE [54]. ......................................................................... 39
FIGURE 4 : ARCHITECTURE D’UN RÉSEAU DE NEURONES [61]. ...................................................................... 42
FIGURE 5 : UN NEURONE ARTIFICIEL [63]. ..................................................................................................... 43
FIGURE 6 : ÉVOLUTION DE LA COURBE D’ERREUR DURANT LA PHASE D’APPRENTISSAGE [61]. ..................... 44
FIGURE 7 : ARCHITECTURE D'UN RÉSEAU DE NEURONES CONVOLUTIFS......................................................... 45
FIGURE 8 : UNE REPRÉSENTATION VISUELLE D'UNE COUCHE CONVOLUTIVE [67]. ......................................... 47
FIGURE 9 : OPÉRATION DE MISE EN COMMUN [69]. ............................................................................ 48
FIGURE 10 : OPÉRATION D’APLATISSEMENT [70]. .............................................................................. 49
FIGURE 11 : ARCHITECTURE LENET-5 [73]. .................................................................................................. 50
FIGURE 12 : COMMANDES D’INSTALLATION ET D’ACTIVATION. .................................................................... 55
FIGURE 13 : EXEMPLES D’IMAGES DE LA BASE DE DONNÉES FFHQ [5]. ........................................................ 57
FIGURE 14 : EXEMPLES D'IMAGES DE VISAGES DÉTECTÉS. ............................................................................. 58
FIGURE 15 : EXEMPLES D'IMAGES DE VISAGES RECADRÉS. ............................................................................ 59
FIGURE 16 : EXEMPLES D'IMAGES APRÈS EXTRACTIONS DES CARACTÉRISTIQUES. ........................................ 60
FIGURE 17 : ARCHITECTURE DU BIG DATA PROPOSÉ ........................................................................ 63
FIGURE 18 : (1) GRAPHIQUE DE PRÉCISION D’ENTRAINEMENT ET DE VALIDATION ET (2) GRAPHIQUE DE PERTE
D’ENTRAINEMENT ET DE VALIDATION POUR LA PREMIÈRE EXPÉRIMENTATION . .................................... 66
FIGURE 19 : (1) GRAPHIQUE DE PRÉCISION D’ENTRAINEMENT ET DE VALIDATION ET (2) GRAPHIQUE DE PERTE
D’ENTRAINEMENT ET DE VALIDATION POUR LA DEUXIÈME EXPÉRIMENTATION. ................................... 66
FIGURE 20 : (1) GRAPHIQUE DE PRÉCISION D’ENTRAINEMENT ET DE VALIDATION ET (2) GRAPHIQUE DE PERTE
D’ENTRAINEMENT ET DE VALIDATION POUR LA TROISIÈME EXPÉRIMENTATION. ................................... 67
FIGURE 21 : MATRICE DE CONFUSION DE LA PREMIÈRE EXPÉRIMENTATION. ................................................. 68
FIGURE 22 ; MATRICE DE CONFUSION DE LA DEUXIÈME EXPÉRIMENTATION. ................................................ 69
FIGURE 23 : MATRICE DE CONFUSION DE LA TROISIÈME EXPÉRIMENTATION. ................................................ 70
FIGURE 24 : RÉSULTATS DE LA RECONNAISSANCE FACIALE DE LA 1ERE EXPÉRIMENTATION. ........................ 72
FIGURE 25 : RÉSULTATS DE LA RECONNAISSANCE FACIALE DE LA 2EME EXPÉRIMENTATION. ....................... 72
FIGURE 26 : RÉSULTATS DE LA RECONNAISSANCE FACIALE DE LA 3EME EXPÉRIMENTATION. ....................... 73
VIII
Liste des tableaux
TABLEAU 1 : CONFIGURATION MATÉRIELLE .................................................................................................. 53
TABLEAU 2 : TABLEAU DE COMPARAISON DES RÉSULTATS DES TROIS EXPÉRIMENTATIONS. ......................... 71
IX
INTRODUCTION GÉNÉRALE
10
convolutifs utilisent des grands ensembles de données pour les applications de
reconnaissance faciale masquée. Cependant, l’acquisition de quantités massives de
données est souvent un défi crucial pour obtenir d’excellentes performances.
Une approche combinant la technique d’augmentation des données et le
modèle LeNet-5 [4] est proposée pour la résolution de notre problématique. Notre
travail mène des expériences de reconnaissances des visages masquées sur le jeu de
données Flickr-Face HQ (FFHQ) [5].
Notre projet de recherche est structuré en sept (7) chapitres. Tout d'abord, le
premier chapitre aborde l'état de l'art, en examinant les recherches existantes dans
les domaines de la reconnaissance faciale et des réseaux de neurones convolutifs.
Par la suite, dans le deuxième chapitre, nous nous penchons sur le concept du « Big
Data », en décrivant en détail le paysage des mégadonnées, les différents types de
données et les technologies utilisées pour leur traitement. Le troisième chapitre,
intitulé « Vision par ordinateur », explore les différentes applications de cette
discipline ainsi que les principales tâches qu'elle englobe. Ensuite, dans le quatrième
chapitre, nous nous intéressons au « Cloud Computing », en étudiant les modèles de
déploiement et de service, leurs avantages respectifs et les critères à prendre en
compte lors du choix d'un modèle spécifique. Dans le cinquième chapitre, appelé «
Contexte d'étude », nous approfondissons notre compréhension des technologies de
reconnaissance faciale et des réseaux de neurones artificiels, en explorant également
les diverses techniques susceptibles de garantir des résultats satisfaisants. Par la
suite, le sixième chapitre, intitulé « Méthodologie de recherche », présente en détail
la méthodologie que nous avons élaborée pour mener à bien notre projet, ainsi que
les outils spécifiques que nous avons utilisés. Enfin, dans le dernier chapitre intitulé
« Présentation des résultats et discussion », nous mettons en avant les résultats
obtenus grâce à nos travaux de recherche et entamons une discussion approfondie
autour de ces résultats.
11
CHAPITRE 1 : ÉTAT DE L’ART
La technologie de reconnaissance faciale est un domaine de recherche qui a
attiré beaucoup d’attention aux cours de ces dernières années [1, 6]. Elle comprend
généralement quatre étapes, à savoir la détection des visages, l'alignement,
l'extraction des caractéristiques faciales et la classification des visages [7]. Les
caractéristiques faciales utilisées dans les technologies de reconnaissance faciale
incluent souvent le nez, la bouche et les yeux. Cependant, diverses situations et
circonstances, comme la pandémie de COVID-19, ont rendu le port de masques
courant, ce qui masque partiellement les visages et affecte donc la précision de la
reconnaissance faciale [8, 9]. Cela renforce la nécessité de former des modèles
d'apprentissage en profondeur capables d’identifier et de vérifier avec précision les
systèmes de reconnaissance faciale masquée. De nombreuses recherches ont été
entreprises pour relever le défi de la reconnaissance faciale masquée dans le
domaine de l'apprentissage en profondeur.
M. S. Ejaz et al. [12] ont proposé l’approche d’augmentation des données des
images de visages masqués et non masqués pour une meilleure précision à l’aide du
réseau de neurones convolutifs en cascade multitâche (MTCNN), du modèle
d’intégration Google FaceNet et du classificateur SVM (Séparateurs à vaste marge).
Dans cette approche, les régions faciales sont détectées à l'aide du réseau MTCNN.
Ensuite, l'extraction des caractéristiques faciales est effectuée à l'aide du modèle
d'intégration Google FaceNet. Enfin, le classificateur SVM est utilisé pour
12
reconnaître les identités des individus. Les résultats obtenus par les auteurs
démontrent une performance remarquable en termes de reconnaissance faciale
masquée.
A. Anwar et al. [13] ont mené des recherches sur la reconnaissance faciale
masquée dans le contexte de l'authentification sécurisée. Ils ont présenté le modèle
MaskTheFace, un outil open-source qui génère un grand ensemble de données de
visages masqués. MaskTheFace détecte les points de repère du visage pour
identifier les principales caractéristiques du visage. Les auteurs ont évalué la
précision de leur système réentraîné en utilisant l'ensemble de données de
reconnaissance faciale masquée MFR2[14]. Les résultats obtenus ont démontré une
précision comparable à celle des approches existantes.
P. Nagrath et al. [15] ont obtenu des résultats prometteurs avec une précision
de 93% et un score F1 de 93% en utilisant le modèle SSDMNV2 pré-entraîné sur
l'ensemble de données de visages masqués provenant de Kaggle [16]. L'objectif de
leur recherche était de détecter en temps réel les masques faciaux. Pour atteindre cet
objectif, ils ont utilisé le classificateur d'images MobileNetV2 pour classifier les
images. Les performances élevées obtenues démontrent l'efficacité de leur approche
dans la détection des masques faciaux en temps réel.
M. Loey et al. [19] ont réalisé une étude portant sur un modèle hybride utilisant
l'apprentissage par transfert pour détecter les masques faciaux dans des images
réelles. Leur modèle exploite trois ensembles de données : l'ensemble de données
13
RMFD (Real-world Masked Faces Dataset) [20] pour les visages masqués du monde
réel, l'ensemble de données SMFD (Simulated Masked Faces Dataset) [21] pour les
visages masqués simulés, et l'ensemble de données LFW (Labeled Faces in the
Wild) [22] pour les visages non masqués. L'approche proposée comprend
l'utilisation du modèle ResNet-50 pour extraire les caractéristiques des visages, et
du modèle Yolov2 pour la détection des masques faciaux. Les chercheurs ont obtenu
d'excellents résultats avec une précision de 99,64% pour RMFD, 99,48% pour
SMFD, et 100% pour LFW respectivement.
14
CHAPITRE 2 : AU CŒUR DU BIG DATA
1. Introduction
La croissance exponentielle des utilisateurs d’internet a engendré une
saturation du flux de données au cours des dernières décennies. Les données
générées exponentiellement à partir des applications informatiques, sont collectées
puis traitées dans une panoplie de domaines d’applications tels que les services
mobiles, les services financiers, les sciences naturelles et génie. Selon une enquête
récente d’IBM 2,5 quintillions (2 500 000 000 000 000 000 000, soit 2,5 × 1018)
octets de données sont générés chaque jour [23].
Nul doute que les données sont la nouvelle source économique du fait que la
taille de l’univers numérique augmente avec le temps. La quantité de donnés a
connu un boom, et par conséquent le terme Big Data qui se réfère aux mégadonnées
recèle un énorme potentiel pour améliorer nos vies.
15
2. Le paysage des données massives
16
La convergence de ces technologies émergentes et la réduction des coûts du
stockage aux cycles de calcul ont transformé le paysage des données et rendu
possibles de nouvelles opportunités.
3.1. Definition
« The ability of society to harness information in novel ways to produce
useful insights or goods and services of significant value » and « things one can do
at a large scale that cannot be done at a smaller one, to extract new insights or create
new forms of value. » by Mayer-Schonberger and Cukier (2013) [26].
Le Big Data est littéralement défini comme des mégadonnées ou des données
massives. C’est un ensemble d’entités de données hétérogènes en extensibilité
permanente qui ne peuvent pas être pris en charge par les systèmes de gestion de
données traditionnels. Il est aussi défini comme une architecture distribuée et
évolutive pour stocker et traiter de gros volumes de données.
En effet, les données sont créées chaque jour à l'aide de différents outils. Le
Big Data est un terme désignant des ensembles de données très volumineuses. Cet
ensemble de données géré par les grandes sociétés Internet telles que Google,
Facebook, Amazon et Yahoo a changé les processus, les objectifs et la prise de
décision ces dernières années [27].
17
3.2. Dimensions des Mégadonnées
Le Big Data se distingue par ses caractéristiques exceptionnelles aux
dimensions variées. La première des dimensions est la taille des données. La taille
des données augmente car il y a eu une diminution significative de cout de stockage
et de CPU. La deuxième dimension du Big Data est la vitesse. Elle concerne la
rapidité avec laquelle les données traitées peuvent être produites et analysées. Puis
la variété, qui définit l'hétérogénéité des données qu’elles soient structurées, semi-
structurées ou non structurées. D’où la troisième dimension.
3.2.1.Volume
Créer des solutions commerciales meilleures et plus adaptées est un objectif pour
nombreuses entreprises. En effet, les solutions plus larges impliquent une
augmentation significative des données à stocker. Le volume fait référence aux
grandes quantités de données générées et enregistrées. Le volume Big Data mesure
des téraoctets aux zettaoctets (1024 Go = 1 téraoctet ; 1024 To = 1 pétaoctet ; 1024
Po = 1 exaoctet ; 1024 EB = 1 zettaoctet ; 1024 ZB = 1 yottabyte) [23].
3.2.2.Vitesse
Les données doivent être stockées, traitées, analysées et livrées en temps réel.
La rapidité avec laquelle les données sont reçues et enregistrées puis analysées est
la vitesse. Les données sont collectées à un rythme élevé, ce qui rend difficile leur
sauvegarde dans un court laps de temps. Les entreprises doivent appréhender la
vitesse non seulement en termes de création de données, mais aussi sur le plan de
leur traitement, de leur analyse et de leur restitution à l'utilisateur en respectant les
exigences des applications en temps réel.
3.2.3.Variété
La variété fait référence au format de données pris en charge par le Big Data.
Les données arrivent sous un format structuré, semi-structuré et non structuré.
L'analyse des mégadonnées est possible grâce à l'essor de l'intelligence artificielle
et de l'apprentissage automatique. Différentes sources de données : des avions aux
trains et aux voitures, circulent constamment dans des systèmes distincts. Cela
permet la classification, l'intégration et l'analyse des données de nouvelles façons.
3.2.4.Autres dimensions
D’autres dimensions définissent aussi le Big Data; à savoir la véracité et la
valeur des données. La véracité fait référence à la fiabilité des données. Pour extraire
la valeur des données, celles-ci doivent être nettoyées pour éliminer le bruit. C'est
18
pourquoi, des données précises et fiables recueillies à partir de mégadonnées sont
véridiques. La valeur fait référence à la quantité de connaissances utiles qui peuvent
être extraites des données. Les données ressemblent à une mine d'or potentielle,
mais comme dans une mine d’or, il y’a peu d'or et beaucoup de résidus [29].
4. Sources de données
L'augmentation massive de la taille des données est due à la numérisation
mondiale de divers appareils. Les données proviennent de multiples sources de
différents domaines. Bon nombre de ces changements ont été causés par l'utilisation
d'appareils électroniques, notamment les ordinateurs, les téléphones cellulaires et
les achats en ligne. D'autres raisons de l'augmentation du volume de données sont
les transactions par courriel, les paiements de factures et les publications sur les
réseaux sociaux.
Données structurées;
Données non structurées;
Données semi-structurées.
19
structurées, implémentées à l'aide d'un schéma puis sont interrogées à l'aide d'un
langage de requête structuré, ou SQL.
Apache Hadoop est une plateforme open source écrite en Java pour le
traitement de grands ensembles de données. Il s'agit d'un cadriciel capable de traiter
des données semi-structurées, structurées et non structurées à des vitesses élevées.
Hadoop stocke une grande quantité de données dans un système de fichiers distribué
et les traite en parallèle sur plusieurs ordinateurs. L’évolutivité de Hadoop fait
référence à sa capacité de gérer des charges plus importantes tout en maintenant les
performances. Chaque fichier Hadoop est écrit une fois et lu plusieurs fois. Les
fichiers ne peuvent pas être modifiés. Un groupe d'ordinateurs connectés les uns aux
20
autres et vus comme un seul ordinateur est appelé un cluster. Les clusters sont
utilisés pour stocker et analyser des quantités massives de données provenant de
nombreuses sources de manière rentable. Certains sont utilisés pour créer, stocker
et analyser des données avec Hadoop [31].
HDFS [30, 31 et 32] est un système de fichiers open source conçu pour gérer
de grands ensembles de données avec un modèle d'accès en lecture ou en écriture
en continu. Il est exécuté sur du matériel de base à faible coût. Les ensembles de
données HDFS sont écrits une seule fois dans le système de fichiers et lus plusieurs
fois. Ce modèle à écriture unique et à lecture multiple permet d'effectuer des
analyses sur l'ensemble de données pour extraire des informations.
MapReduce [33] est le modèle de traitement par lots de Hadoop. Il utilise une
approche divisée pour mieux régner qui est très fiable, tolérante aux pannes et
évolutive. MapReduce traite tout type de données en parallèle et dans des
environnements distribués; cela ne fonctionne qu'avec les charges de travail par lots.
Le paradigme traditionnel du traitement par lots impliquait le déplacement des
données entre la plate-forme de stockage et la plate-forme de traitement. En
revanche, le traitement des données MapReduce a lieu là où les données sont
stockées. L'approche traditionnelle prend plus de temps que l'approche MapReduce.
21
Le nettoyage des données garantit que les données sont exactes, cohérentes
et complètes en supprimant les redondances et les incohérences. Il consiste à
préparer les données pour la phase d’analyse.
• Classification hiérarchique;
• Classification neuronale;
• Recherche d'association.
22
9.2. Analyse prédictive
Les prédictions utilisent les informations existantes pour estimer de
nouvelles informations. L'analyse prédictive utilise des données historiques et en
temps réel pour trouver des tendances qui aident à prédire les résultats futurs. Ces
analyses sont plus fiables si les modèles utilisés sont fiables. Cette technique fait
appels à de l'intelligence artificielle; les principales méthodes sont :
• Arbres de décision;
• Réseaux de neurones;
• Classification bayésienne;
23
10.2. Les télécoms
Les trois principales raisons pour lesquelles les gens utilisent le Big Data
dans les télécommunications sont d'attirer de nouveaux clients, d'améliorer les
performances du réseau et de conserver les clients actuels. À 87 %, l'industrie des
télécommunications a déjà adopté le Big Data plus que toute autre industrie [34].
Les télécoms prévoient d'inclure de nouvelles utilisations de données pour leurs
mégadonnées en analysant les appareils en fonction de leur emplacement et en
incluant l'assurance des revenus. Ils veulent aussi optimiser les réseaux, les centres
d'appels et les prix des équipements.
11. Conclusion
Les données qui auparavant ne pouvaient pas être traitées avec des méthodes
standards sont devenues le carburant de la révolution numérique.
24
CHAPITRE 3 : VISION PAR ORDINATEUR
1. Introduction
Prendre constamment des photos et des vidéos avec les appareils intelligents
est une tendance actuelle. Nous prenons constamment des photos et des vidéos que
nous partageons sur plusieurs plateformes des médias sociaux. Diverses tendances
photographiques sont populaires depuis plusieurs années.
25
2. Aperçu de la vision par ordinateur
Que contient l'image ci-dessous ? On voit bien qu'il s'agit d'une photo d’un
homme et d’un chat. Nous comprenons instantanément la signification d'une image
en tant qu'être humain. Les ordinateurs, en revanche, n’étaient pas capables de le
faire jusqu’à tout récemment.
La vision par ordinateur est une discipline informatique qui apprend aux
ordinateurs à interpréter le monde qui les entoure. Son but est de fournir aux
ordinateurs des informations du monde réel en examinant leur environnement à
travers des images.
Pour se rendre compte de l’utilité que peut avoir la vision par ordinateur,
réfléchissez à la façon dont les ordinateurs peuvent vous être utiles lorsque vous ne
voyez plus.
Nous recevons un des sens de notre environnement à travers nos yeux. Par
conséquent, bon nombre de nos décisions quotidiennes sont influencées par ce que
nous voyons. La vision par ordinateur consiste d’autres part à assister les personnes
dans l’exécution des tâches.
Le fonctionnement de la vision par ordinateur est basé sur des outils matériels
tels que les caméras, des ressources dans le cloud, les logiciels et l’intelligence
26
artificielle. Il existe plusieurs outils mais nous avons tendance à généraliser les
algorithmes basés sur des appareils de prise de vue courants comme les smartphones.
Prendre des images sur Internet est une ressource inépuisable. Nous
analysons des images déjà stockées sur le net, leur donnant une valeur significative
même lorsqu'elles ne sont pas utilisées. Nombreuses tâches de vision par ordinateur
utilisent ce fait à leur avantage en créant une énorme base de données d'images facile
d'accès.
Une inspection visuelle automatisée avec des drones est possible et entraine
un gain de temps prodigieux dans la prévention des délits.
Les constructeurs comme TESLA [41], avec les systèmes de voitures sans
pilote permettent à leurs véhicules de naviguer en toute sécurité dans la circulation
tout en lisant les panneaux de circulations.
27
3.3. Le secteur de la vente
Tout comme l’automobile et la sécurité, la vente est un domaine
d’application des technologies de vison par ordinateur. Dans les magasins de ventes,
les algorithmes de vision par ordinateurs sont utilisés pour l’amélioration de
l’expérience clientèle tout en réduisant les vols et toutes autres pertes [42]. La vision
par ordinateur détecte les défauts avec une méthodologie cohérente qui ne nécessite
aucune intervention humaine. Cela permet de ne pas passer à côté de défauts
critiques et augmente le risque d'inattention.
28
de trouver des objets dans une image tout en déterminant leur position. La
segmentation est la détermination des contours de différents éléments qui
composent une image. Elle dessine des polygones qui circonscrivent l’image.
6. Conclusion
En résumé nous avons donc vu que les systèmes de vision par ordinateur sont
composés de trois tâches qui sont la classification, la détection et la segmentation.
Plusieurs domaines tels que la santé utilisent les approches de vision par ordinateur
pour diagnostiquer les problèmes de santé. Ce pendant le plus grand défi de ses
systèmes est d’égaler la vision humaine.
29
CHAPITRE 4 : Le CLOUD COMPUTING
1. Introduction
Internet n'a cessé de croître depuis sa création. Dans le paradigme du Big
Data, des infrastructures matérielles fiables sont essentielles pour fournir un
stockage fiable. La démocratisation de la technologie du BD profite également des
services cloud, car les entreprises clientes n'ont plus à supporter le coût de la mise
en place de l'infrastructure. Avec la promesse de fournir de meilleurs modèles
commerciaux et services rapidement et à moindre coût, le Cloud Computing est
devenu un moteur majeur d'innovation pour les entreprises de tous les secteurs. Les
gens utilisent des logiciels et du matériel via des services en ligne connectés qui
offrent des performances et une expansion supplémentaire [45].
30
Le Cloud Computing permet aux infrastructures logicielles et matérielles
d'être adaptables et évolutives grâce à des services virtuels partagés via un réseau
de centres de données. Cette technologie permet à ses utilisateurs d'accéder et de
déployer des applications à partir d'Internet en fonction de leurs demandes et de la
qualité de service souhaitée [47].
31
l’installation du logiciel en question. C'est par exemple le cas des services de
messagerie électroniques (Outlook).
32
4. Modèles de déploiement
Chaque système nécessite des protections différentes en matière de
tarification, de sécurité et de protections des données personnelles. De plus, les
exigences changent en fonction du programme avec lequel il est utilisé. Il existe
deux principaux types de services de CC qui se déclinent en versions publiques et
privées. De plus, deux autres types de cloud dérivent des principaux à savoir le
Cloud communautaire et le Cloud hybride [51].
33
4.4. Les Clouds hybrides
Les Clouds hybrides sont un mélange de Cloud privé combiné à
l'infrastructure de Cloud public. Les modèles Cloud hybrides ne sont utilisés que
pour étendre les fonctions d'un cloud privé d'entreprise à un cloud public.
• Tout est considéré comme un service défini par entente de niveau de services
(SLA);
34
• Chiffrement des données;
• Problème d’interopérabilité;
• Problème de portabilité;
• Faible contrôlabilité;
35
6.5. Services mesurés
Chaque application et ses utilisateurs sont suivis pour l'utilisation des
ressources. Cela aide à la fois l'utilisateur et le fournisseur de la ressource à suivre
leur utilisation. Ceci est utile aux deux parties en raison de la nécessité de surveiller
la facturation et d'utiliser efficacement les ressources.
Étant donné que les ensembles de données du Big Data sont vastes et
nécessitent une puissance de calcul importante, le Cloud offre la plate-forme idéale
pour gérer, stocker et analyser ces données de manière efficace et évolutive.
36
8. Conclusion
Pour clore ce chapitre, nous avons fourni une compréhension générale des
idées clés et des points clés du Cloud Computing. Le CC a donné naissance à une
nouvelle façon d'utiliser les technologies de l'information qui change radicalement
la manière dont les entreprises investissent dans leur infrastructure. IL promet un
stockage illimité à faible coût avec une puissance de calcul élevée. Mais, le Cloud
Computing fait face à plusieurs obstacles qui doivent être résolus. La sécurité et la
confidentialité des données personnelles sont des préoccupations majeures qui
suscitent le scepticisme des utilisateurs [53].
37
CHAPITRE 5 : CONTEXTE D’ÉTUDE
1. Introduction
Dans ce chapitre, nous introduirons la reconnaissance faciale en mettant en
évidence son importance dans différents domaines. Nous examinerons ensuite les
fondements théoriques de cette technologie, en présentant différentes approches
utilisées. Ensuite, nous explorerons l'architecture des réseaux de neurones artificiels,
en nous concentrant particulièrement sur les réseaux de neurones convolutifs, avec
une étude détaillée du modèle LeNet-5. Nous discuterons également des techniques
qui peuvent être utilisées pour améliorer les performances des modèles de
reconnaissance faciale.
2. Reconnaissance faciale
Ces dernières années, la reconnaissance faciale a fait l'objet d'une grande
attention et est considérée comme l'une des applications les plus prometteuses dans
le domaine de l'analyse d'images. La reconnaissance faciale est une méthode de
reconnaissance d'un visage humain grâce à la technologie [1, 6, 54].
Elle est largement utilisée dans différents domaines tels que la sécurité, les
guichets automatiques, l'identification criminelle, la vidéoconférence, la délivrance
de permis de conduire et de passeports, ainsi que la surveillance des espaces publics.
Par exemple, le Canada utilise un logiciel de reconnaissance faciale pour identifier
les problèmes de sécurité publique comme les émeutes et surveiller les personnes
dans les lieux publics comme les aéroports et les supermarchés.
38
aligné afin de normaliser leur position et leur orientation. En outre, la troisième
étape est l'extraction des caractéristiques faciales telles que les yeux, la forme du
visage, etc. Ainsi dans cette étape, des représentations numériques sont générées.
De même, la correspondance faciale est effectuée en utilisant des algorithmes de
reconnaissance faciale. Les résultats de la correspondance détermineront l’identité
du visage dans l’image d’où l’étape de la classification d’images.
Les systèmes FR peuvent être divisés en trois grandes approches afin de faciliter
ce processus. : les approches holistiques qui sont une représentation entière du
visage sur un ensemble de caractéristiques discriminantes d’un visage à l’autre, les
approches locales qui résultent de l’extraction des caractéristiques particulières à
certains points d’intérêt du visage et enfin les approches hybrides qui combinent les
deux approches précédentes.
39
Leur avantage est la conservation implicite des informations de texture et de la
forme pour la reconnaissance faciale, en plus des aspects d’organisation structurelle
globaux de la face. Néanmoins, l’inconvénient majeur réside dans la dimension très
grande de l’espace de l’image ce qui reflétera négativement sur la classification [58].
Parmi les approches les plus répandues, nous énumérons les méthodes HMM,
DCP [60] et les approches purement géométriques.
40
personnaliser les publicités en fonction des caractéristiques faciales des
consommateurs.
La couche d’entrée : elle reçoit et traite toutes nos données brutes fournies
en entrée. Nos données sont sous forme vectorielle [62];
La/ les couche(s) cachée(s) : est constituée d’unités qui transforment nos
données d’entrée en informations utiles pour la couche de sortie. Un réseau
peut contenir une ou plusieurs couches cachées [62];
La couche de sortie: qui est la couche ou les informations traitées sont
présentées. Elle donne les résultats du calcul interne [62].
41
FIGURE 4 : ARCHITECTURE D’UN RÉSEAU DE NEURONES [63].
42
La fonction d’activation est une fonction mathématique qui s’applique
uniquement à la sortie des neurones des couches cachées [64].
3.3. Rétropropagation
Le processus de rétropropagation commence en calculant l’erreur de prédiction
par rapport aux poids synaptiques des neurones. Une fois l’erreur de prédiction
calculée, l’algorithme d’optimisation intervient pour la quantifier. Elle utilise ainsi
la technique de descente du gradient.
43
Parmi les algorithmes d’optimisation on retrouve la descente de gradient
stochastique, l’algorithme d’optimisation par Adam ou encore l’algorithme
d’optimisation par RMSprop.
44
3.5. Quelques notions
Le terme époque est définie comme la période de temps nécessaire pour passer
complètement les ensembles de données à travers les réseaux de neurones.
Ces valeurs sont comprises entre 0 et 255 où chacun de ces nombres représente
l'intensité des pixels. Les lignes représentent la largeur de l’image, les colonnes
correspondent à la hauteur de l’image et le nombre de canaux correspond à la
profondeur de l’image.
45
4.2. Les couches de convolutions
L’architecture d’un réseau de neurones convolutifs repose sur une ou
plusieurs couches convolutives, qui sont connectées aux couches précédentes de
façon sélective. La couche de convolution est une combinaison d’une opération de
convolution et d’une fonction d’activation.
Dans un CNN, les premières couches extraient les caractéristiques les plus
génériques, tandis que, à mesure que le réseau s’approfondit les dernières couches
obtiennent les caractéristiques cachées. En sortie de chaque couche de convolution,
une fonction d'activation est finalement introduite [69]. Cette dernière est une
fonction de non-linéarité permettant au réseau de neurones de s’adapter facilement
à une variété de données.
46
FIGURE 8 : UNE REPRÉSENTATION VISUELLE D'UNE COUCHE CONVOLUTIVE [70].
47
FIGURE 9 : OPÉRATION DE MISE EN COMMUN [71].
48
FIGURE 10 : OPÉRATION D’APLATISSEMENT [72].
49
L’opération d’aplatissement est utilisée à la suite du dernier bloc de couches
de convolution. Ensuite nous avons le classificateur qui comprend 3 couches. La
première couche comporte 120 neurones. La suivante est une couche entièrement
connectée avec 84 neurones qui aboutissent à la sortie à 84 valeurs et la fonction
d’activation utilisée ici est Relu.
5. Amélioration du modèle
50
5.2. Dropout
Dropout est une approche de régularisation utilisée dans les réseaux de neurones
qui empêche le problème de sur-ajustement [77]. Cette technique rend le processus
d'entraînement "bruyant" en les neurones de couche cachée à gérer les entrées de
manière aléatoire, avec une probabilité variable. Par exemple, lorsqu'un "Dropout"
avec une probabilité de 0.25 est appliqué à une couche cachée, cela signifie que
pendant la phase d'apprentissage, 25% des neurones de cette couche sont désactivés
de manière aléatoire.
La normalisation par lots [78] est un processus qui améliore notre modèle en
ajoutant des couches supplémentaires dans notre approche de réseau de neurones
profond. La nouvelle couche effectue les opérations de standardisation et de
normalisation sur l'entrée d'une couche provenant d'une couche précédente.
51
CHAPITRE 6 : MÉTHODOLOGIE DE
RECHERCHE
1. Introduction
Ce chapitre décrit les trois parties principales : la première est la description des
outils que nous avons utilisés pour concevoir notre modèle; la deuxième aborde les
démarches de collecte et d’organisation des données, et la dernière est la formation
de notre réseau de neurine et de son évaluation. Les trois étapes sont expliquées en
détail ci-dessous.
Fabricant HP
52
Architecture 64 bits
Son plus grand avantage est le large éventail de bibliothèques qu'il contient.
Un autre de ses avantages est sa forte communauté qui pousse constamment à
son développement. Pour toutes ces qualités, notre choix s’est tourné vers
Python, ayant déjà fait ses preuves dans le domaine de la vision par ordinateur.
53
OpenCV a été développé en 2002 par Intel et écrit en C++, ce pendant la
bibliothèque a fourni des liaisons en Java et en Python. Il est facile à lire et à utiliser.
2.3.3.Pandas
Pandas [84] est une bibliothèque open source largement utilisée par les scientifiques
des données du monde entier pour effectuer des analyses et des manipulations de
données. Elle repose sur le langage de programmation Python. Pandas est rapide,
flexible et très puissant.
2.3.4.SciPy
La bibliothèque open source SciPy [85] est utilisée pour résoudre des problèmes
d'ingénierie, mathématiques et scientifiques. Construit sur l'extension python
Numpy, SciPy contient une variété de sous-packages pour différentes applications.
SciPy est rapide et a une puissance de calcul élevée.
2.3.5.Scikit Learn
Scikit Learn [86] est l’une des meilleures bibliothèques pour l'apprentissage
automatique en Python. Pour tout projet de science des données, l'utilisation de la
bibliothèque Scikit Learn est indispensable. C'est un outil simple et très rapide pour
l'analyse prédictive des données et la modélisation statistique.
2.3.6.TensorFlow
TensorFlow [87] est une bibliothèque mathématique symbolique qui utilise le flux
de données et la programmation différentiable pour effectuer de nombreuses tâches
liées à la formation et à l'inférence sur les réseaux de neurones profonds. C’est une
plate-forme open source qui permet aux développeurs de créer des applications
d'apprentissage automatique à l'aide de divers outils, bibliothèques et ressources
communautaires.
54
2.3.7.Matplotlib
Matplotlib [88] a été introduit par John Hunter en 2002. C’est une bibliothèque de
visualisation étonnante en Python pour les tracés 2D de tableaux de données. Elle
est l'une des bibliothèques de visualisation de données les plus utilisées au monde.
2.3.8.Jupyter
Jupyter [89] est l’environnement de développement intégré (IDE) choisi pour notre
travail de recherche. C'est un IDE qui combine de manière transparente les bases du
langage Python avec des fonctionnalités et des commodités supplémentaires
disponibles dans un IDE. De plus, nous avons utilisé les frameworks CAFFE [90]
permettant de réaliser des applications interactives depuis Python.
55
3. Données
Étant donné que notre ensemble de données se subdivise en quatre (4) sous-
ensembles, nous appliquons quatre étiquettes pour représenter les quatre classes.
56
FIGURE 13 : EXEMPLES D’IMAGES DE LA BASE DE DONNÉES FFHQ [5].
57
3.3. Détection de visages
Une fois notre jeu de données collecté, labellisé et organisé, nous détectons les
visages. La détection de visage est le processus d'identification du visage à partir de
l'image capturée ou de l'image spécifiée à partir de la base de données. Pour une
image donnée, nous identifions l’emplacement du visage.
CAFFE (Convolutional Architecture for Fast Feature Embedding) est développé par
Yangqing [90]. Il prend en charge différents types d'architectures de réseaux de
neurones profonds spécialisés pour le traitement d'images, comme dans notre projet.
58
3.4. Alignement de visages
L'alignement du visage est un processus de recadrage de la partie du visage à
partir d'images et l'image recadrée représente les traits du visage.
Nous recadrons le visage une fois que nous le détectons dans le but d’obtenir la
région d’intérêt de l’image qui contient le visage. Ce qui nous permet d’extraire les
caractéristiques du visage afin qu’il soit facile pour notre modèle de s’entrainer .
59
FIGURE 16 : EXEMPLES D'IMAGES APRÈS EXTRACTIONS DES CARACTÉRISTIQUES.
60
Nous fixons les valeurs des paramètres tels que le nombre de lots de traitement,
la taille des images traitées et le nombre d'itérations puis, nous définissons le taux
d’apprentissage, qui est un hyperparamètre qui contrôle la mesure dans laquelle le
modèle répond à l'erreur d'estimation chaque fois que les poids du modèle neuronal
de notre réseau sont mis à jour.
Une fois que nous avons décrit nos hyperparamètres, nous implémentons notre
propre architecture, ce qui nous a permis de faire des modifications et des
expérimentations.
Nous utilisons une couche de sortie pour créer notre sortie finale. La fonction
Dense () est utilisée ainsi avec le neurone 4, car nous avons que quatre (4) classes.
Puis nous utilisons les métriques fondamentales telles que le score FI, le rappel,
la précision, la matrice de confusion et la perte d'entropie croisée pour afficher les
performances de notre modèle. Nous affichons les graphes de précision et de perte.
Nous reviendrons plus en détail sur ces métriques dans le chapitre suivant dans la
section dédiée aux résultats et discussions.
61
4.2. Deuxième expérimentation
Notre deuxième expérience présente quelques variations par rapport à la
première. Nous avons utilisé la même taille de lot et nous l’avons entrainé pour le
même nombre d‘itérations « epochs ». Nous avons juste une couche de Batch
normalisation dans le premier bloc de convolution avec le paramètre « Dropout »
de même valeur 0.50.
62
FIGURE 17 : ARCHITECTURE DU BIG DATA PROPOSÉ
63
𝑝𝑟é𝑐𝑖𝑠𝑖𝑜𝑛 ∗ 𝑟𝑎𝑝𝑝𝑒𝑙
𝐹1 = 2
(𝑝𝑟é𝑐𝑖𝑠𝑖𝑜𝑛 + 𝑟𝑎𝑝𝑝𝑒𝑙)
4.5.2.Matrice de confusion
Les matrices de confusion [92] sont utilisées pour montrer les performances
sur les problèmes de classification. Elles comparent votre prédiction aux résultats
réels pour déterminer l'exactitude.
64
CHAPITRE 7 : RÉSULTATS ET DISCUSSIONS
65
(1) (2)
(1) (2)
66
La figure 19 présente les graphiques de précision et de perte de la deuxième
expérimentation. Initialement, la précision augmente rapidement au cours des deux
premières époques, puis se stabilise près de 1. Cela indique que notre modèle ne
nécessite pas un grand nombre d'époques pour être entraîné efficacement. La
précision atteint finalement 98,80 % sur l'ensemble d'entraînement. La perte
d'entraînement diminue progressivement et se stabilise près de zéro, tandis que la
perte de validation augmente lentement.
Au début de l'entraînement, les pertes sont élevées, mais elles diminuent
légèrement au fil du temps et se stabilisent. Après l'entraînement, un test est
effectué, et le graphique de précision se stabilise rapidement près de 1, ce qui
indique une performance élevée du modèle.
(1)
(2)
67
classes. La matrice montre des valeurs élevées de TP et de TN par rapport aux
faibles valeurs de FP et de FN, nous pouvons donc dire que notre modèle est capable
de prédire correctement les échantillons corrects avec une bonne précision.
68
FIGURE 22 ; MATRICE DE CONFUSION DE LA DEUXIÈME EXPÉRIMENTATION.
69
FIGURE 23 : MATRICE DE CONFUSION DE LA TROISIÈME EXPÉRIMENTATION.
70
TABLEAU 2 : TABLEAU DE COMPARAISON DES RÉSULTATS DES TROIS EXPÉRIMENTATIONS.
2. Résultats obtenus
L'étude de notre modèle nous a permis d'apporter des améliorations
significatives, nous conduisant finalement à un résultat satisfaisant compte tenu des
contraintes auxquelles nous étions confrontés.
Les contraintes dans notre recherche et comme toujours dans les problèmes
de classification sont relatives aux données traitées. La préparation et le
prétraitement des données sont cruciaux pour la formation aux données. Aussi du
fait que d’autres images étaient contenues dans certaines classes, accentuent aussi
cette problématique de classification.
71
FIGURE 24 : RÉSULTATS DE LA RECONNAISSANCE FACIALE DE LA 1ERE EXPÉRIMENTATION.
72
FIGURE 26 : RÉSULTATS DE LA RECONNAISSANCE FACIALE DE LA 3EME EXPÉRIMENTATION.
73
CONCLUSION GÉNÉRALE
Le présent rapport nous synthétise le travail effectué dans le cadre du projet
de fin d'études à l'Université du Québec à Trois-Rivières. Ce projet s'est concentré
sur l'étude de la reconnaissance faciale et la détection des masques faciaux en
utilisant des techniques d'apprentissage en profondeur, en particulier les réseaux de
neurones convolutifs.
Nous avons d'abord entrepris une étude approfondie des concepts du Big
Data, de la vision par ordinateur et du Cloud Computing. Ensuite, nous nous
sommes familiarisés avec le contexte général de notre approche pour la
reconnaissance faciale en utilisant les réseaux de neurones convolutifs.
Le but de ce rapport est d'identifier les visages sans masques et de sensibiliser
les individus à l'importance de bien porter des masques. L'analyse principale se
concentre sur la classification des visages humains masqués et l'influence de la
proportion du visage humain sur la précision.
Nous avons proposé quatre classes, chacune représentant une catégorie de
classification. Pour automatiser cette classification des visages, nous avons réalisé
trois expérimentations en utilisant le modèle LeNet-5 [4]. Dans ces
expérimentations, nous avons appliqué des techniques telles que l'augmentation de
données, l'ajout de couches de normalisation par lots (Batch Normalization) et de «
Dropout », et nous avons testé différents taux d'apprentissage.
Les performances des modèles ont été évaluées sur l'ensemble de données
Flickr-Face HQ (FFHQ) [5], qui comprend 3000 images. Nos résultats de test ont
démontré un taux de précision élevé dans l'identification des personnes dont le
visage est masqué, celles dont seulement le menton est couvert, et celles dont le nez
n'est pas couvert. Notre modèle a atteint une précision d'entraînement de 98,80 %
grâce à l'utilisation de la normalisation par lots et du "Dropout".
Notre projet de reconnaissance faciale masquée présente un potentiel
d'extension considérable dans le futur. Cependant, bien que notre modèle ait obtenu
de bons résultats de validation, il est important de reconnaître que ces résultats
peuvent ne pas être généralisables à tous les types d'ensembles de données
d'entraînement. Par exemple les masques n’ont pas tous la même couleur bleue.
Dans le cadre de nos travaux futurs, nous envisageons d'utiliser le même jeu
de données d'entraînement pour tester divers autres modèles, tels que MobileNet
[93]. Cette approche nous permettra d'explorer différentes options et de sélectionner
un modèle plus stable et mieux adapté à la reconnaissance faciale masquée.
74
En outre, Nous pouvons ajouter plus de valeurs qui ne se limitent pas
seulement à la reconnaissance faciale, mais incluent également la reconnaissance
des genres. Bien sûr, cela nécessitera des changements de nos jeux de données, où
nous devrons inclure des annotations pertinentes pour ces nouvelles tâches.
Par ailleurs, nous nous aventurons à explorer l'utilisation d'autres types de
réseaux neuronaux tels que les réseaux antagonistes génératifs [10] pour la
réalisation de la reconnaissance faciale masquée. Cette approche nous permettra de
repousser les limites et d’expérimenter de nouvelles méthodes pour améliorer les
performances de notre système.
75
RÉFÉRENCES
[1] P.S. Prasad, R. Pathak, V.K. Gunjan et H.V.R. Rao, «Deep Learning Based
Representation for Face Recognition, » Springer: Berlin, Germany, 2019; pp. 419–
424.
[2] V. C.-C. Cheng, S.-C. Wong, V. W.-M. Chuang et al., «The role of
community-wide wearing of face mask for control of coronavirus disease 2019
(covid-19) epidemic due to sars-cov-2, » Journal of Infection, vol. 81, no. 1, pp.
107–114, 2020. [En ligne]. Available:
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7177146/pdf/main.pdf.
[3] « Convolutional neural network, » Visité en Septembre 2020, [En ligne].
Available: https://en.wikipedia.org/wiki/Convolutional_neural_network.
[4] « LeNet, » Visité en Septembre 2020, [En ligne]. Available :
https://en.wikipedia.org/wiki/LeNet#:~:text=In%20general%2C%20LeNet%20ref
ers%20to,in%20large%2Dscale%20image%20processing.
[5] « Flickr-Face HQ Dataset, » visité en Octobre 2020, [En ligne]. Available:
https://github.com/NVlabs/ffhq-dataset.
[6] Y. Taigman, M. Yang, M. Ranzato et L. Wofl, « Deepface: Closing the gap to
human-level performance in face verification, » In Proceedings of the IEEE
Conference on Computer Vision and Pattern Recognition, Columbus, OH, USA,
23–28 June 2014; pp. 1701–1708. [En ligne]. Available:
https://openaccess.thecvf.com/content_cvpr_2014/papers/Taigman_DeepFace_Clo
sing_the_2014_CVPR_paper.pdf.
[7] G. Hu, Y. Yang, D. Yi, J. Kittler, W. Christmas, S.Z. Li et T. Hospedales, «
When face recognition meets with deep learning: An evaluation of convolutional
neural networks for face recognition, » In Proceedings of the IEEE International
Conference on Computer Vision Workshops, Santiago, Chile, 11–12 December
2015; pp. 142–150. [En ligne].
Available :https://www.cvfoundation.org/openaccess/content_iccv_2015_worksho
ps/w11/papers/Hu_When_Face_Recognition_ICCV_2015_paper.pdf.
[8] W. Hariri, « Efficient masked face recognition method during the covid-19
pandemic, » 2021. [En ligne]. Available: https://arxiv.org/abs/2105.03026.
[9] H. Deng, Z. Feng, Z. Qian, X. Lv, H. Li et G. Li« MFCosface: A masked-face
recognition algorithm based on large margin cosine loss, » Appl. Sci. 2021, 11,
7310. [En ligne]. Available: https://www.mdpi.com/2076-3417/11/16/7310.
76
[10] N. U. Din, K. Javed, S. Bae et J. Yi, « A novel GAN-based network for
unmasking of masked face, » IEEE Access 2020, 8, 44276-44287. [En ligne].
Available: https://ieeexplore.ieee.org/ielx7/6287639/8948470/09019697.pdf.
[11] G. Deore, R. Bodhula, V. Udpikar et V. More, « Study of masked face detection
approach in video analytics, » 2016 Conference on Advances in Signal Processing
(CASP), Pune, 2016, pp. 196-200, doi: 10.1109/CASP.2016.7746164.
[12] M. S. Ejaz et M. R. Islam, « Masked Face Recognition Using Convolutional
Neural Network, » 2019 International Conference on Sustainable Technologies for
Industry 4.0 (STI), Dhaka, Bangladesh, 2019, pp. 1-6,
doi:10.1109/STI47673.2019.9068044.
[13] A. Anwar et A. Raychowdhury, « Masked face recognition for secure
authentication, » arXiv preprint arXiv:2008.11104 (2020).
[14] Z. Wang, G. Wang, B. Huang, Z. Xiong, Q. Hong, H. Wu, P. Yi, K. Jiang, N.
Wang, Y. Pei et al., « Masked face recognition dataset and application, » arXiv
preprint arXiv:2003.09093, 2020.
[15] P. Nagrath, R. Jain, A. Madan, R. Arora, P. Kataria et J. Hemanth, «
SSDMNV2: A real time DNN-based face mask detection system using single shot
multibox detector and MobileNetV2, » Sustainable cities and society, March 2021.
[En ligne]. [En ligne]. Available: https://pdf.sciencedirectassets.com/.
[16] « Face masked dataset, » Visité en Septembre 2020, [En ligne]. Available:
https://www.kaggle.com/datasets/manishkc06/face-mask-dataset.
[17] S. V. Militant et N. V. Dionisio, « Real-Time Facemask Recognition with
Alarm System using Deep Learning, » IEEE Control and System Graduate
Research Colloquium (ICSGRC), 2020. [En ligne]. Available:
https://ieeexplore.ieee.org/ielx7/9223048/9232452/09232610.pdf.
[18] S. Ge, J. Li, Q. Ye et Z. Luo, « Detecting Masked Faces in the Wild with
LLE-CNNs, » IEEE Conference on Computer Vision and Pattern Recognition,
2017. [En Ligne]. Available:
https://openaccess.thecvf.com/content_cvpr_2017/papers/Ge_Detecting_Masked_
Faces_CVPR_2017_paper.pdf.
[19] M. Loey, G. Mangogaran, T. M.H.N et K. N.E.M., « A hybrid deep transfer
learning model with machine learning methods for face mask detection in the eraof
the COVID-19 pandemic, » National Library of Medicine, 1 January 2021. [En
ligne]. Available: https://pubmed.ncbi.nlm.nih.gov/32834324/.
[20] « Real-World Masked Face Dataset» visité en Décembre 2020, [En ligne].
Available: https://github.com/X-zhangyang/Real-World-Masked-Face-Dataset.
[21] « Simulated Masked Face Dataset » visité en Décembre 2020, [En ligne].
Available: ] https://github.com/prajnasb/observations.
77
[22] G. B. Huang, M. Mattar, T. Berg, et E. Learned-Miller, «Labeled faces in the
wild: A database for studying face recognition in unconstrained environments, »
Technical report, 2007.
[23] B. Balusamy, R. N. Abirami, S. Kadry et A.H. Gandomi, « Big Data
Concepts, Technology, and Architecture, » Published by JohnWiley & Sons, Inc.,
New Jersey, USA, 2021.
[24] J-S. Bergé, S. Grumbach et V. Zeno-Zencovich, « The ‘Datasphere’, Data
Flows beyond Control, and the Challenges for Law and Governance, »
Forthcoming in the European Journal of Comparative Law and Governance n. 5
(2018) [En ligne]. Available: https://deliverypdf.ssrn.com/
[25] P. Lemberger, M. Batty, MÉ Morel et J-L. Raffaëlli, « Big Data and machine
learning: Manuel du data scientis, » 5 rue Laromiguière, 75005 Paris (2015).
[26] V. Mayer-Schonberger et K. Cukier (2013), « Big data: A revolution that will
transform how we live, work, and think, » UK: Hachette.
[27] B. Braian de Souza et A. Cicero Aparecido, « L'importance des données pour
Big compréhension des habitudes d'achat des consommateurs, l'augmentation de
l'avantage concurrentiel dans le détail, » Magazine scientifique multidisciplinaire
du Centre du savoir. Numéro 08. Année 02, vol 03. p 18-41, Novembre 2017.
ISSN: 2448-0959.
[28] D-S. Singh, et G. Singh, «Big data – A Review, » International Research
Journal of Engineering and Technology (IRJET), Apr -2017, Volume: 04 Issue:
04, 822-824. [En Ligne] Available:
https://d1wqtxts1xzle7.cloudfront.net/53502016/IRJET-V4I4167-libre.pdf.
[29] J. Hurwitz, A. Nugent, F. Halper et M. Kaufman, « Big data for dummies, »
Published by JohnWiley & Sons, Inc., New Jersey, USA, 2013.
https://jan.newmarch.name/IoT/BigData/Big%20Data%20For%20Dummies.pdf
[30] J. Singh et V. Singla, « Big Data: Tools and Technologies in Big Data, »
International Journal of Computer Applications (0975 – 8887), f Computer
Applications (0975 – 8887) Volume 112 – No 15, February 2015, 6-10.
[31] T. Bikku, NS. Rao et AR. Akepogu, « Hadoop based feature selection and
decision making models on Big Data, » Indian Journal of Science and Technology.
2016 Mar; 9(10). DOI: 10.17485/ijst/2016/v9i10/88905.
[32] L. Greeshma et G. Pradeepini, « Big Data Analytics with Apache Hadoop
MapReduce FrameworkI, » Indian Journal of Science and Technology, Vol 9(26),
DOI: 10.17485/ijst/2016/v9i26/93418, July 2016.
[33] A. Elsayed, O. Ismail, et M. E. El-Sharkaw, « MapReduce: State-of-the-Art
and Research Directions, » IJCEE 2014 Vol.6 (1): 34-39 ISSN: 1793-8163
DOI: 10.7763/IJCEE.2014.V6.789.
78
[34] « Big Data analytics market, » visité en Janvier 2021, [En Ligne]. Available:
Https://www3.microstrategy.com/getmedia/cd052225-be60-49fd-ab1c-
4984ebc3cde9/Dresner-Report-Big_Data_Analytic_Market_Study-
WisdomofCrowdsSeries-2017.pdf
[35] Advanced Analytics & AI Summit: BFSI 2019. Survey Report: Big Data
analytics for financial services (2018).
https://www.intelligentautomation.network/events/advancedanalyticsfinance/down
loads/big-data-analytics-for-financial-services-survey-report-2018.
[36] D. Mavaluru, R. Shriram et V. Sugumaran, « Big Data Analytics in
Information Retrieval: Promise and Potential », Proceedings of 0 8 th IRF
International Conference, 05 th July – 2014.
[37] « 30+ Youtube Statistics and facts [CurrentYear, » visité en Janvier 2021, [En
Ligne]. Available: https://www.comparitech.com/tv-streaming/youtube-statistics/.
[38] « Attentats du 11 Septembre, » visité en Janvier 2021, [En Ligne]. Available:
https://fr.wikipedia.org/wiki/Attentats_du_11_septembre_2001.
[39] « homme chat » visité en Février 2021, [En Ligne]. Available:
https://www.istockphoto.com/fr/photos/homme-chat.
[40] « Media post: Can car technology help prevent fatigued driving? » visité en
Février 2021,[En Ligne]. Available:
https://bestsellingcarsblog.com/2021/09/media-post-can-car-technology-help-
prevent-fatigued-driving/
[41] S. Ingle et M. Phute, « Tesla Autopilot : Semi-Autonomous Driving, an
Uptick for Future Autonomy, » International Research Journal of Engineering and
Technology (IRJET), Volume: 03 Issue: 09 | Sep-2016 , 369-372.
[42] « Computer vision in retail: 7 use cases and one way to succed, » visité en
Mars 2021, [En Ligne]. Available: https://mindtitan.com/resources/industry-use-
cases/computer-vision-in-retail/
[43] P. Spagnolo et al, « Non-Invasive Soccer Goal Line Technology: A Real Case
Study, »in National Research Council of Italy , IEEE Conference on Computer
Vision and Pattern Recognition Workshops, 2013, 1011-1018. DOI :
10.1109/CVPRW.2013.147.
[44] SV. Doctorvaladan et al, « Accuracy of Blood Loss Measurement during
Cesarean Delivery, » Published by AJP Repports, Avril 2017, 93-100.
Doi: 10.1055/s-0037-1601382.
[45] « Qu’est ce que le Cloud Computing » visité en Aout 2023, [En ligne].
Available: ] https://www.salesforce.com/fr/learning-centre/tech/cloudcomputing/.
79
[46] NB. Ruparelia, « Cloud Computing, » Published The MIT Press,2016.
https://mitpressbookstore.mit.edu/book/9780262546478.
[47] Vaquero, L, Rodero-Merino, L, Caceres, J et Lindner M (2009), « A break in
the clouds: towards a cloud definition, » ACM SIGCOMM computer
communications review. Volume 39, Issue 1, January 2009, 50-55. Doi:
10.1145/1496091.1496100.
[48] I. Ashraf, « An Overview of Service Models of Cloud Computing, »
International Journal of Multidisciplinary and Current Research. Vol.2 (July/Aug
2014), 779-783.
https://citeseerx.ist.psu.edu/document?repid=rep1&type=pdf&doi=1596e1fda5456
adfbba56e530e4f69be08696c64.
[49] « Cloud Computing et ses différents modèles et topologies. » visité en Juin
2021, [En Ligne]. Avalaible: https://fr.linkedin.com/pulse/cloud-computing-et-ses-
diff%C3%A9rents-mod%C3%A8les-topologies-saad-faouzi.
[50] A. Rashid et A, Chaturvedi, « Cloud Computing Characteristics and Services:
A Brief Review, » International Journal of Computer Sciences and Engineering.
Vol.-7, Issue-2, Feb 2019É, 421-426. [En Ligne]. Available:
https://www.ijcseonline.org/pub_paper/70-IJCSE-05826.pdf.
[51] A. Nayak et A. Yassir, « Cloud Computing as an Emerging Paradigm, »
International Journal of Computer Science and Network Security, VOL.12 No.1,
January 2012. 61-65.
[52] M. Armbrust, A.D. Joseph, R.H. Katz et A. Patterson, « Above the Cloud: A
Berkeley View of Cloud Computing, » Technical Report, EECS Department,
University of California, Berkeley, 2009. [En Ligne]. Available:
https://www2.eecs.berkeley.edu/Pubs/TechRpts/2009/EECS-2009-28.pdf.
[53] S. P. Mirashe et N.V. Kalyankar, « Cloud Computing, » Journal of
Compyting, Volume 2, Issue 3, March 2010, ISSN 2151-9617 Available:
Https://sites.google.com/site/ Journal of Compyting /
[54] « Face recognition systems, » visité en Juin 2021, [En ligne]. Available:
https://fr.wikipedia.org/wiki/Syst%C3%A8me_de_reconnaissance_faciale
[55] « Reconnaissance faciale automatisée dans les secteurs public et privé, »
visité en Aout 2021, [En ligne]. Available:
https://www.priv.gc.ca/media/1766/fr_201303_f.pdf
[56] S. KO. BASEMA, « Identification des personnes par reconnaissance de visage
pour la sécurité d’une institution bancaire, » Mémoire pour l’obtention du diplôme
80
de la licence en informatique de gestion, Institut supérieur pédagogique de Bukavu-
RDC, 2010.
[57] W. Zhao, R. Chellappa, P. J. Phillips et A. Rosenfeld, « Face recognition: A
literature survey, » ACM computing surveys (CSUR), vol. 35(4), pp. 399-458,
2003.
https://inc.ucsd.edu/mplab/users/marni/Igert/Zhao_2003.pdf
[58] K. Bouchra, « Mise au point d’une application de reconnaissance faciale, »
Mémoire pour l’obtention du diplôme de master en informatique, Université Abou
Bakr Belkaid-Tlemcen, novembre 2013.
[59] S. G. Bhele et V. H. Mankar, « A Review Paper on Face Recognition
Techniques, » International Journal of Advanced Research in Computer
Engineering & Technology. Volume 1, Issue 8, October 2012, 339-346.
[60] J.-T. Chien et C.-P. Liao, « Maximum Confidence Hidden Markov Modeling
for Face Recognition, » IEEE transactions on pattern analysis and machine
intelligence, vol. 30(4), pp. 606-616, 2008.
[61] F. Rosenblatt, «The Perceptron: A Probabilistic Model for Information Storage
and Organization in the Brain, » Psychological Review, 1958.
[62] P. Paquet, « L’utilisation des réseaux de neurones artificiels en finance ».
[63] « Les réseaux de neurones convolutifs, » visité en Aout 2021, [En ligne].
Available : https://histrory.hashnode.dev/les-reseaux-de-neurones-convolutifs
[64] P. Hensman et D. Masko, «The Impact of Imbalanced Training Data for
Convolutional Neural Networks, » Degree project, in computer science, first level
Stockholm, Sweden 2015.
[65] « Qu’est-ce que le Deep Learning et comment ça marche, » visité en
Septembre 2021, [En ligne]. Available : https://www.saagie.com/fr/blog/l-
histoire-du-deep-learning/
[66] Y. LeCun, K. Kavukcuoglu et C. Farabet, « Convolutional networks and
applications in vision, » In: Circuits and Systems (ISCAS), Proceedings of 2010
IEEE International Symposium on (2010), pp. 253–256.
[67] O. M. Parkhi, A. Vedaldi, et A. Zisserman, « Deep Face Recognition, »
Proceedings of the British Machine Vision, vol. 1(3), p. 6, 2015.
[68] « A comprehensive Guide to Convolutional Neural Network, » Visité en
Septembre 2021, [En ligne]. Available: https://towardsdatascience.com/a-
comprehensive-guide-to-convolutional-neural-networks-the-eli5-way-
3bd2b1164a53.
[69] A. M’BEGNAN NAGNAN, « Développement d’outils web de détection
d’annotations manuscrites dans les imprimés anciens, » Mémoire pour l’obtention
81
du diplôme de maitrise en mathématiques et informatique appliquées, Université
du Québec à Trois-Rivières, avril 2021.
[70] K. O’Shea and R. Nash, «An Introduction to Convolutional Neural Networks,
»arXiv: 1511.08458v2[CS.NET] 2 décembre 2015.
[71] « Max Pooling Layer, » Visité en Mai 2023, [En ligne]. Available:
https://www.geeksforgeeks.org/cnn-introduction-to-pooling-layer/
[72] « Flatenning Opération, » Visité en Mai 2023, [En ligne]. Available:
https://www.simplilearn.com/tutorials/deep-learning-tutorial/convolutional-neural-
network
[73] V. Nair et G.E. Hinton, « Rectified linear units improve restricted boltzmann
machines[C], » International Conference on International Conference on Machine
Learning. Omnipress, 2010:807-814.
[74] A. Krizhevsky, I. Sutskever, et G. E. Hinton, « Imagenet classification with
deep convolutional neural networks, » 2021. [En ligne]. Available:
https://proceedings.neurips.cc/paper_files/paper/2012/file/c399862d3b9d6b76c843
6e924a68c45b-Paper.pdf
[75] « The Architecture of Lenet-5, » Visité en Janvier 2022, [En ligne].
Available : https://www.analyticsvidhya.com/blog/2021/03/the-architecture-of-
lenet-5/
[76] D.C. Cireşan, U. Meier, J. Masci, L.M. Gambardella et J. Schmidhuber,
«Flexible, High-performance convolutional neural networks for Image
Classification,» Arxiv preprint arXiv:1102.0183, 2011.
[77] B. Prenkaj, P. Velardi, et al, « A Survey of machine learning approaches for
student dropout prediction in online courses, » ACM Computing Surveys Volume
53, Issue 3.
[78] S. Santurkar, D. Tsipras et al « How does batch normalization help
optimization? » 32nd Conference on Neural Information Processing Systems
(NeurIPS 2018), Montréal, Canada. [En ligne]. Available :
https://proceedings.neurips.cc/paper/2018/file/905056c1ac1dad141560467e0a99e1
cf-Paper.pdf.
[79] I. Goodfellow, Y. Bengio et A. Courville, « Deep Learning, » MIT Press,
Cambridge, MA, 2016.
[80] K. P. Murphy, « Machine Learning: A Probabilistic Perspective, »
Cambridge: MIT Press. p. 247. ISBN 978-0-262-01802-9., 2012.
82
[81] « Python, » Visité en Janvier 2022, [En ligne]. Available:
https://www.python.org.
[82] S. Gholizadeh., « Top Popular Python Libraries in Research, » Journal of
Robotics and Automation Research, Rondebosch, Cape Town, 7701, South Africa,
May 2022, 3(2), 142-145.
[83] « OpenCV, » Visité en Février 2022, [En ligne]. Available:
https://en.wikipedia.org/wiki/OpenCV
[84] « Pandas software, » [En ligne]. Available:
https://en.wikipedia.org/wiki/Pandas_(software)
[85] « SciPy, » Visité en Février 2022, [En ligne]. Available:
https://en.wikipedia.org/wiki/SciPy
[86] « Scikit-learn, » Visité en Février 2022, [En ligne]. Available:
https://en.wikipedia.org/wiki/Scikit-learn
[87] « Tensorflow, » Visité en Février 2022, [En ligne]. Available:
https://en.wikipedia.org/wiki/TensorFlow
[88] « Matplotlib, » Visité en Février 2022, [En ligne]. Available:
https://matplotlib.org.
[89] « Jupyter Notebook, » Visité en Février 2022, [En ligne]. Available:
https://jupyter.org.
[90] « Coffe, » Visité en Février 2022, [En ligne]. Available:
https://caffe.berkeleyvision.org/
[91] J. Deng, W. Dong, R. Socher, L. J. Li, K. Li et L. Fei-Fei, « ImageNet: A
Large-Scale Hierarchical Image Database, » IEEE Computer Vision and Pattern
Recognition (CVPR), 2009.
[92] H. M et S. M.N, « A Review on Evaluation Metrics for Data Classification
Evaluations, » International Journal of Data Mining & Knowledge Management
Process, vol. 5, no. 2, pp. 01–11, Mar. 2015. [Online]. Available:
http://www.aircconline.com/ijdkp/V5N2/5215ijdkp01.pdf
[93] S. -H. Tsang, « Review: MobileNetV1 — Depthwise Separable Convolution
(Light Weight Model), » 2018, Octobre 14. [En ligne]. Available:
https://miro.medium.com/max/1400/1*Voah8cvrs7gnTDf6acRvDw.png
83