Big Data

Télécharger au format pptx, pdf ou txt
Télécharger au format pptx, pdf ou txt
Vous êtes sur la page 1sur 21

BIG DATA

 MBEGHAM NJOFANG HYACINTHE RAOUL


 MALE STEVE LOBE
 MANFOUO FOYANGUEM STACHYS
 KOUETE HOZA HERBERT
 
INTRODUCTION
 

L’explosion quantitative des données numériques a obligé les


chercheurs à trouver de nouvelles manières de voir et d’analyser le
monde. Il s’agit de découvrir de nouveaux ordres de grandeur
concernant la capture, la recherche, le partage, le stockage, l’analyse
et la présentation des données.
L’explosion des données est en effet d’abord perçue comme une menace sur la
vie privée, côté technique aussi : l’espace de stockage grandit, mais les
données s’étendent systématiquement jusqu’à le combler. Dans les années 70,
la qualité des données est enfin mise en cause : tout est stocké, il n’est plus
utile de faire le tri.
L’expression « Big data » fait finalement son apparition en octobre 1997 dans la
bibliothèque numérique de l’ACM, au sein d’articles scientifiques qui pointent
du doigt les défis technologiques à visualiser les « grands ensembles de
données ». Le Big data est né, et avec lui ses nombreux défis.
Le Big Data offre ainsi un contexte d’informations dont la
puissance est telle qu’elle peut permettre d’améliorer un
processus industriel, d’anticiper les comportements
utilisateurs, de réduire des dépenses énergétiques, d’optimiser
le recrutement, de transformer les métiers, etc. Car la donnée
crée de la valeur ! Et l’information qu’elle génère offre un
univers de possibilités.
Le Big Data, c’est quoi ?
Littéralement, ces termes signifient mégadonnées, grosses données ou encore
données massives. Ils désignent un ensemble très volumineux de données
qu’aucun outil classique de gestion de base de données ou de gestion de
l’information ne peut vraiment travailler. En effet, nous procréons environ 2,5
trillions d’octets de données tous les jours. Ce sont les informations provenant
de partout : messages que nous nous envoyons, vidéos que nous publions,
informations climatiques, signaux GPS, enregistrements transactionnels
d’achats en ligne et bien d’autres encore. Ces données sont baptisées Big Data
ou volumes massifs de données. Les géants du Web, au premier rang desquels
Yahoo (mais aussi Facebook et Google), ont été les tous premiers à déployer
ce type de technologie.
I. Définition
 

Big data est un terme générique employé pour désigner les


stratégies et technologies mises en œuvre pour rassembler, organiser,
analyser des vastes ensembles de données. C’est l’art de gérer et
d’exploiter des gros volumes de données.
Cependant, aucune définition précise ou universelle ne peut être donnée
au Big Data. Etant un objet complexe polymorphe, sa définition varie selon
les communautés qui s’y intéressent en tant qu’usager ou fournisseur de
services.
I. LES TYPES DE DONNÉ E
BIG DATA
 
1. Les données structurer
Les données structurées ont un format fixe et sont souvent
numériques. Dans la plupart des cas, elles sont traitées par des
machines plutôt que par des humains. Ce type de données est
constitué d’informations déjà organisées en bases de données et
feuilles de calcul stockées dans des bases SQL, des data lakes et
des data Warehouse.
2. Les données non structurées
Les données non structurées sont des informations qui ne sont pas
organisées et qui n’ont pas de format prédéterminé, car il peut s’agir de
quasiment n’importe quoi. Les données recueillies à partir des réseaux
sociaux, par exemple, sont des données non structurées. Elles peuvent être
placées dans des fichiers texte conservés dans des clusters de type Hadoop
ou des systèmes NoSQL.
3. Les données semi-structurées
Les données semi-structurées contiennent les deux types de données
précédents, comme c’est le cas des journaux de serveur Web ou des données
provenant de capteurs que vous avez mis en place. Bien que ces données
n’aient pas été classées dans un dépôt (base de données) particulier, elles
contiennent des informations essentielles ou des balises séparant les
différents éléments au sein des données.
III. LES GRAND V DU BIG DATA
 

En 2001, Doug Laney, un analyste de chez Gartner (est une entreprise américaine de
conseil et de recherche dans le Domain des technique avancées) , a donné une définition
intéressante du Big Data. Pour expliquer ce qu’est le Big Data, il a présenté la théorie des
3 V. C’est un mode de présentation du Big Data simple et efficace. Elle permet de mieux
appréhender la définition du Big Data. Selon Doug Laney, le Big Data peut se comprendre
à partir de trois notions ayant tous la particularité de commencer par la lettre « V » :
- Volume : la grande quantité d’information contenue dans ces bases de données.
- Vélocité : la vitesse de leur création, collecte, transmission et analyse.
- Variété : les différences de natures, formats et structures.
 
C’est 3 notions on était élargie à cinq <V> :
- Valeur : la capacité de ces données à générer du profit.
- Véracité : leur validité, i.e. qualité et précision ainsi que
leur fiabilité.
 
IV. COMMENT LE BIG DATA
FONCTION T’IL?
Intégration
Le Big Data se compose de données numériques recueillies à partir de nombreuses
sources et, étant donné la quantité énorme d’informations, il faut trouver de nouvelles
stratégies et de nouvelles technologies pour les traiter. Dans certains cas, des pétaoctets
d’informations circulent dans votre système. Intégrer un tel volume d’information ne
sera pas facile. Vous devrez recevoir les données, les traiter et les formater dans un
format adapté aux besoins de votre entreprise et que vos clients comprennent.
Gestion
Une bonne gestion des données est également essentielle à toute stratégie de Big Data réussie. Vous
aurez besoin d’un endroit où les stocker. Votre solution de stockage peut se faire en cloud computing,
sur site ou les deux. Vous devez aussi faire en sorte qu’elles soient disponibles en temps réel à la
demande. C’est pourquoi de plus en plus d'entreprises choisissent des solutions de stockage dans le
cloud, prenant en charge leurs besoins informatiques spécifiques.
Analyse
Une fois que vous avez reçu et stocké les données, vous devez les analyser pour pouvoir les utiliser.
Explorez vos données et utilisez-les pour prendre des décisions importantes, par exemple en identifiant
les caractéristiques les plus recherchées par vos clients, ou utilisez-les pour partager vos recherches.
Faites-en ce que vous voulez en fonction de vos besoins. L’essentiel est que vous en tiriez parti. Vous
avez fait des investissements importants pour mettre en place cette infrastructure, il est donc important
que vous l’utilisiez.
 Comment les données big data sont-il générées ?
Les Big Data sont générées à partir de 3 activités numériques principales :
Les individus laissent des empreintes numériques lorsqu'ils naviguent sur le Web, achètent
des articles en ligne, utilisent le courrier électronique ou interagissent avec les médias
sociaux.
Les entreprises, en plus de générer des empreintes de données similaires, sont également
désireuses de recueillir et d'analyser autant de données que possible pour leur propre
usage commercial.
Enfin, les machines échangent continuellement des données entre elles sans aucune
intervention humaine.
 
V. Avantages et inconvénients de
l'utilisation du Big Data
 

Le Big Data permet aux entreprises et autres organisations (publiques et privées) de


prendre des décisions plus efficaces et plus intelligentes. De plus, l’utilisation du Big
Data présente les avantages suivants :
 
- La réduction des coûts
- La création de produits et services améliorés ou nouveaux pour répondre aux
différents besoins des clients
- La possibilité d'avoir des retours en temps réel
- Une meilleure connaissance du marché.
Cependant, le Big Data est aussi à l’origine de certaines des grandes problématiques de ce
début de siècle, principalement la confidentialité et le respect de la vie privée.
Ainsi, un certain nombre d'inconvénients et de faiblesses associés au Big Data sont à
considérer :
 
- La confidentialité des données
- La sécurité des données stockées mise à mal par les risques d'espionnage numérique
- La manipulation des données
- Les données personnelles doivent être collectées dans un but bien précis, explicite et
légitime selon la loi « informatique et libertés » de 1995, mais tous ne tiennent pas
compte de cette législation.
VI. Compétences nécessaires pour
devenir ingénieur Big data
 
Maitrise des bases de données et des cadriciels du Big data (Hadoop, Spark, Kafka, Hive…)
Maitrise des langages de programmation (Javascript, Scala, Python…)
Connaissances des techniques d’analyse des données, des méthodologies statistiques
Maîtrise de l’anglais technique
Esprit d’équipe
Organisation et rigueur
Aisance rédactionnelle
Comment devenir ingénieur Big data ? Quels diplômes et quelles écoles choisir ?
Pour devenir ingénieur(e) Big data, il faut obtenir un niveau Bac+5 minimum. Il est possible de suivre
une formation informatique et réseaux dans une école d’ingénieurs, un master en Data Science.
 
Conclusion
 
 

Pour conclure le Big Data en quelques mots


La portée et les possibilités du Big Data étaient inimaginables il y a encore quelques années.
Aujourd’hui, il est difficile de trouver des innovations technologiques qui n’y fassent pas
appel.
Mais soyons honnêtes comprendre ce qu’est le Big Data et son fonctionnement n’est pas
simple, même si nous avons faits des efforts pour en simplifier la définition. Après tout, cela
reste un concept complexe. C’est pourquoi nous en avons résumé les principaux aspects.
 

Vous aimerez peut-être aussi