Intelligence D'affaire

Télécharger au format docx, pdf ou txt
Télécharger au format docx, pdf ou txt
Vous êtes sur la page 1sur 48

Université Abdelmalek Essaadi-Martil


Faculté des sciences juridiques, économiques
et sociales

Mémoires de fin d’études


Licence fondamentale au sciences économiques
et gestion

L’intelligence d’affaire

Elaboré par :
 El khamlichi Hamza {Apogée :16 04 12 43 }
 El khamlichi Najim {Apogée : 17 01 20 95 }
Encadré par :
M. El kettani Moumou
Année universitaire : 2020/2021
Remerciement
On remercie dieu le tout puissant de nous
donné la santé et la volonté d'entamer et de
terminer ce mémoire.

Tout d'abord,ce travail ne serait pas riche et


n'aurait pas pu avoir le jour sans l'aide et
l'encadrement de M. El Ketani Moumou ,on le
remercie pour la qualité de son encadrement
exceptionnel pour sa patience ,sa rigueur et sa
disponibilité durant notre préparation de ce
mémoire.

Nos remerciement s'adresse également á tout


nos professeurs pour leurs générosités et la
grande patience dont ils ont su faire preuve
malgré leurs charge académiques et
professionnelles.
Table des matières

 Remerciement
 Sommaire
 Glossaire
 Liste des abréviations
 Objectif De l’étude (motivation)

Introduction générale………………………………………………………….....8

Chapitre 1 : les étapes du processus De l’intelligence d’affaires : ………………….12


1.1 : phase de collecte ou d’alimentation……………………………………………………12
1.2 : phase d'intégration……………………………............ ...............................
1.3 : phase distribution………………………………………..............................................
1.4 : phase de restitution…………………………………………………………………………………
Chapitre 2 : Architecture d’un système décisionnel :…………………………………………..
2.1 : sources des donnés.....................................................................................
2.2 : outils d’extractions, transformations, et chargement ( ETL )…………….
2.3 : entrepôt des donnés………………………………………………………
2.4 : traitement analytique en ligne (OLAP ) …………………………………
2.5 : outils De visualisation …………………………………………………...
2.6 : métadonnées ……………………………………………………………..

Chapitre 3 : Business Intelligence vs Business Analytics – Le


...……………………………………………meilleur choix pour votre entreprise

3.1 : Business analytics……………………………………………………….


3.2 : Intelligence d'affaires et analyse d'affaires-Rapport et analyse…………..

3.3 : Points communs entre les fonctions BI et BA : BI et BA………………..

3.4 : Business Intelligence et Business Analysis-les similitudes……………...

3.4.1 Les fonctionnalités de BI incluent .......................................................

3.4.2 Les fonctions de BA comprennent…………………………………...

3.5 : Choix entre BI et BA…………………………………………………… .

3.6 :Qu’est-ce qui fonctionne le mieux pour votre entreprise – BI ou BA?.......

Chapitre 4 : exemple d’une entreprise utilisant l’intelligence d’affaire

(Cas « Macnific SA » et « Pizzaline SARL »)………………………………….

4.1 Cas de Macnific SA………………………………………………………...

4.1.1 : Description de l’entreprise et contexte du cas d’étude ………….

4.1.2: analyse………………………………………………………………...

4.1.2.1 : situation…………………………………………………………...

4.1.2.2 : Application de la méthode ……………………………………...

4.1.2.3 Diagnostic…………………………………….................................

4.2 Cas Pizzaline SARL ……………………………………………………….

4.2.1 Description de l’entreprise et contexte du cas étude…………………...

4.2.2 Analyse ………………………………………………………………...

4.2.2.1 Situation …………………………………………………………….

4.2.2.2 Application de la méthode…………………………………………..

4.2.2.3 Diagnostic………………………………………………………………………………………

4.2.3 Conclusion………………………………................................................

Conclusion générale……………………………………………………………

Web graphie
Glossaire

 Datamart : Sous ensemble thématique d’un Datawarehouse.


 BI : La business intelligence ou informatique décisionnelle désigne les outils et
méthode destiné à l’exploitation des données de l’entreprise dans un objectif de prise
de décision.
 BIG DATA : Désigne l’ensemble des données numériques produites par l’utilisation
des nouvelles technologies. Cela recoupe les données d’entreprise aussi bien que des
données issues de capteurs, des contenus publiés sur le web (, des transactions de
commerce électronique, des échanges sur les réseaux sociaux, des données transmises
par les objets connectés, des données géo localisées, etc.
 Data warehouse : Un entrepôt de données est une base de données dans laquelle les
informations stratégiques de différentes sources de données sont synthétisées et
réorganiser pour en faciliter l’analyse selon différentes axes prédéterminés.
 ETL : « Extract Transform Load ». Processus ayant pour but de récupérer les données
des bases de production pour les injecter dans le Data warehouse après avoir effectué
des transformations.
 Métadonnées : Ensemble structuré de données créées pour fournir des informations
sur des ressources électroniques.
 ODS : Base de données conçus pour centraliser les données issues de sources
hétérogènes afin de faciliter les opérations d’analyse et de reporting.
 SAAS : Les Logiciels en tant que Service désignent des logiciels qui sont hébergés
sur le serveur d’un prestataire, accessibles à distance, et dont la facturation s’effectue
sous forme d’abonnement, ou proportionnellement à l’utilisation de certaines
ressources.
 SGBD Un SGBD est un logiciel qui prend en charge la structuration, le stockage, la
mise à jour et la maintenance d'une base de données.

Liste des abréviations

BI : « Business intelligence ». Ensemble de données consolidées qui permet la prise de


décision. CSV : Format de fichier contenant des valeurs séparées par des virgules.
DSI : Direction des systèmes d’information.
EHPAD : Etablissement d’Hébergement pour Personnes Agées Dépendantes.
ERP : « Enterprise Resource Planning ». Progiciel de gestion intégré (PGI).
ETL : « Extract Transform Load. »
ETP : Equivalent temps plein
GIR : Groupe Iso ressource
IPP : identifiant personnel patient
MPLS : « MultiProtocol Label Switching
ODS : « Operational Data Store ». Zone de préparation des données.
OLAP : « Online Analytical Processing ». Traitement analytique en ligne.
OLTP : « online transaction processing ». Traitement transactionnel en ligne.
SAAS : Software as a service 
SDSI : Schéma directeur des systèmes d’information
SGBD : Système de Gestion de bases de données.
SID : Système d’information décisionnel
SIG : Système d’information de gestion
SIO : Système d’information opérationnel
Objectif de l’étude

L'intelligence d'affaires est un domaine émergent, et est le sujet de


nombreuses recherches scientifiques, ouvrages et articles
professionnels au cours des dernières années D’ailleurs, l'information
est un actif corporatif dont les organisations doivent profiter pour
créer de la valeur. Alors, Ce qui nous a attiré á choisir cet sujet C'est
savoir comment les organisations utilisent les données pour prendre
des décisions rationnelles et nous l'appliquons à l'avenir dans nos
projets pour leur donner une valeur ajoutée et les faire réus
Introduction générale

Convenu de confirmer la naissance de l'intelligence d'affaires en 1958. La paternité a été


accordée à l'analyste d'IBM Hans Peter Luhn, qui a écrit un article intitulé "Business
Intelligence System", qui décrit "un système automatique qui diffuse des informations à
d'autres". Divers intervenants dans l'industrie, la science ou les organisations
gouvernementales. Luhn définit même la BI comme « la capacité de saisir les interrelations
des faits afin de les présenter de manière à orienter les actions vers les objectifs souhaités. »
Recueillir des faits et les analyser pour dessiner des modèles : Luhn a posé les bases de la
business intelligence, même n'imaginait pas Utiliser un réseau informatique ou encore moins
de navigateurs Web pour essayer de le construire Cependant, il a théoriquement théorisé la
pratique du bégaiement, et nous avons commencé à considérer sa portée. 1

Démarrage et premier outil Lorsque la plupart des données sont stockées dans des documents
papier, l'élaboration d'un plan de business intelligence est utopique. Ainsi, au cours des deux
dernières décennies, l'intelligence d'affaires n'est restée qu'à l'état de concepts et de
prédictions futures, mais avec les progrès technologiques et le stockage de données
informatiques, son potentiel est devenu de plus en plus évident. À la fin des années 1970 et
dans les années 1980, l'informatisation des entreprises s'est focalisée sur la perspective de la
production : écritures et calculs pour la comptabilité, la paie, l'inventaire, les factures, etc. Le
système n'est pas conçu pour lancer des requêtes analytiques. Ces derniers, de par leur poids,
provoquent des erreurs et des ralentissements dans la base de données... et irritent les
opérateurs de saisie ! Le premier centre d'information est apparu au début des années 1980 :
Un serveur séparé qui stocke des copies des données de production pour analyse. Il s'agit
généralement d'une copie partielle et mise à jour mensuellement, mais il fournit un aperçu
des activités passées et des informations utiles pour les décisions de la haute direction. La
séparation entre la production et l'informatique décisionnelle fait entrer la business

1
HTTPS://WWW.SALESFORCE.COM/FR/BLOG/2016/06/UNE-BREVE-HISTOIRE-DE-LA-BUSINESS-
INTELLIGENCE.HTML

1
intelligence dans l'ère moderne.2

90’s : L’envol – industrialisation du stockage des données et interfaces ergonomiques métier

La standardisation de la business intelligence sera développée avec Howard Dresner dans les
années 1990, qui a réutilisé le terme business intelligence et proposé des concepts et
méthodes pour améliorer les processus d'aide à la décision. Les améliorations se traduisent
par deux aspects : l'extraction et le stockage des données et les nouvelles fonctions d'analyse.
Les outils ETL (extraire, transformer, charger) permettent la création d'entrepôts de données
(entrepôts de données ou data marts). L'entrepôt crée et agrège les données de différentes
applications de gestion des opérations et facilite un accès approprié et rapide aux requêtes BI.
Le logiciel d'analyse de données possède une interface conviviale et aide à récupérer les
données via la couche sémantique métier, surmontant ainsi certains langages de requête
difficiles.
Différents types de retours peuvent être développés : des listes de contrôle de saisie ou de
comptage pour les gestionnaires d'applications aux rapports de synthèse et tableaux de bord
pour les décideurs. 3

Business intelligence et big data : des prédictions illimitées ?


Dans l'explosion informatique des années 2000, les puissantes fonctions des ordinateurs et
des logiciels ont conduit à un traitement rapide des données qui peut désormais être effectué
en temps réel. L'essor des interfaces ergonomiques permet aux non-professionnels de
manipuler des données, de les comparer, de les comparer et de se construire des rapports
d'activité et des prévisions clairs. Nous nous sommes débarrassés du carcan des lourdes
opérations informatiques. Une autre révolution vient du développement explosif d'Internet :
la numérisation de toutes les activités a apporté de nouveaux défis et ouvert de nouvelles
perspectives.

L'enjeu est de maîtriser la croissance exponentielle et la diversité des données : données

2
HTTPS://WWW.SALESFORCE.COM/FR/BLOG/2016/06/UNE-BREVE-HISTOIRE-DE-LA-BISINESS-
INTELLIGENCE.HTML

3
HTTPS://WWW.COGITIS.FR/BLOG/BUSINESS-INTELLIGENCE-ORIGINES-A-NOS-JOURS/

2
formelles et factuelles (statistiques) et données informelles (vues et comportements sur les
réseaux sociaux). Un défi qui transcende les compétences humaines, pas un défi de traitement
du big data via le machine learning (machine learning). Grâce aux super algorithmes,
l'analyse actuelle des données non structurées a produit des modèles prédictifs (data mining)
couvrant l'ensemble des activités de l'entreprise : comptabilité, budgétisation, et même
relation client, organisation interne, ressources humaines... la direction générale bénéficie
d'une vue à 360° l'état de son activité mondiale en temps réel. Il bénéficie également de
prévisions plus granulaires, qui facilitent la prise de décision. 4
Aujourd'hui, la business intelligence est devenue un outil indispensable pour les entreprises
marocaines face à un environnement de plus en plus complexe et concurrentiel, avec le
développement du big data, l'information devient une force de guerre. La BI vous permet de
mieux utiliser les données en les analysant et en les modélisant sous une forme qui aide à la
prise de décision. C'est l'allié des managers qui souhaitent rester réactifs et tournés vers
l'avenir dans la prise de décision. Elle les aide à assurer la performance de l'entreprise face
aux évolutions rapides de l'environnement.5

Une solution BI bien intégrée peut apporter de nombreux avantages. Mais cela ne s'applique
pas forcément à toutes les entreprises, et des erreurs surviennent souvent lors de la mise en
œuvre des solutions de BI. En d'autres termes, avec le bon support et les meilleures pratiques,
nous pouvons vraiment bénéficier de l'intelligence d'affaires.6
Parmi les avantages de l'intelligence d'affaires, nous trouvons :
Améliorer la performance des employés grâce à la BI : L'intelligence d'affaires peut vous
aider à tous les niveaux de gestion, y compris les ressources humaines. Les managers sont
très intéressés à intégrer l'utilisation de cette intelligence d'affaires pour mieux fédérer et
animer leurs équipes.7 

4
HTTPS://WWW.SALESFORCE.COM/FR/BLOG/2016/06/UNE-BREVE-HISTOIRE-DE-LA-BUSINESS-
INTELLIGENCE.HTML

5
HTTPS://WWW.PEGASE.MA/ACTUALITES/181-BUSINESS-INTELLIGENCE-COMMENT-MIEUX-
TIRER-PROFIT-DE-SA-SOLUTION-BI

6
HTTPS://WWW.PEGASE.MA/ACTUALITES/181-BUSINESS-INTELLIGENCE-COMMENT-MIEUX-
TIRER-PROFIT-DE-SA-SOLUTION-BI

3
Améliorer la relation client :

Avec l'aide de la business intelligence, nous pouvons mieux surveiller les données et trouver
plus tôt les clients insatisfaits en amont. De cette façon, les actions nécessaires peuvent être
prises avant que le problème ne se propage et n'affecte l'image de marque de l'entreprise.8

Améliorer la prédiction des revenus :

La Business Intelligence ne se limite pas à l'analyse descriptive, elle intègre de plus en plus
des outils d'analyse prédictive. Une telle analyse peut faire des prédictions précises afin de
prendre les décisions les plus pertinentes pour la croissance de votre entreprise. Cela inclut
également la prévision des flux de revenus futurs. De tels outils permettent à la direction de
prendre les bonnes décisions pour assurer l'efficacité de l'entreprise, mais pas seulement. Les
vendeurs peuvent l'utiliser pour rendre leurs actions plus pertinentes, par exemple en
sélectionnant les clients potentiels avec le taux de conversion le plus élevé.9
Sur la base de cette introduction générale sur l'intelligence d'affaires, il y a deux questions de
base qui s'imposent et nous essaierons d'y répondre dans nos recherches, et elles sont les
suivantes:

Quelles sont les étapes de l'intelligence d'affaires?

Quels sont les outils et techniques utilisés à ces étapes?

Et Dans le dernier chapitre, nous aborderons une étude de cas d'une entreprise utilisant
l'intelligence d'affaires.

7
HTTPS://WWW.PEGASE.MA/ACTUALITES/181-BUSINESS-INTELLIGENCE-COMMENT-MIEUX-
TIRER-PROFIT-DE-SA-SOLUTION-BI

8
HTTPS://WWW.PEGASE.MA/ACTUALITES/181-BUSINESS-INTELLIGENCE-COMMENT-MIEUX-
TIRER-PROFIT-DE-SA-SOLUTION-BI

9
HTTPS://WWW.PEGASE.MA/ACTUALITES/181-BUSINESS-INTELLIGENCE-COMMENT-MIEUX-
TIRER-PROFIT-DE-SA-SOLUTION-BI

4
Chapitre 1 : les étapes du processus De l’intelligence
d’affaires :

Avant d'explorer les bonnes pratiques pour des projets réussis, il est important de rappeler que
les projets de business intelligence doivent respecter les étapes qui permettent la construction
des chaînes de décision.
Pour maîtriser votre chaîne de décision, vous avez besoin d'une approche bien conçue et
méthodique. Vous devez d'abord fournir des informations fiables pour votre base de données,
modéliser ces informations pour faciliter l'analyse, puis restituer les données sous une forme
lisible et exploitable grâce à divers outils : outils de reporting, tableaux de bord, outils
statistiques.
La BI est assurée par quatre fonctions de base, à savoir la collecte ou la fourniture,
l'intégration, la diffusion ou la distribution et la valorisation.

1.1 : phase de collecte ou d’alimentation10

La première étape de collecte des données permettra à terme de générer les métriques

nécessaires autour du SID. Pour cette raison, il est nécessaire de trouver les données là où
elles

se trouvent. Les données d'application métier sont stockées dans une ou plusieurs bases de

données correspondant à chaque application utilisée.

Par conséquent, la collecte est un ensemble de tâches qui comprend la détection, la sélection,

l'extraction et le filtrage des données brutes des environnements connexes pour obtenir des

indicateurs utiles dans le contexte de l'aide à la décision. Les sources de données internes
et/ou

externes étant généralement hétérogènes en termes de technologie et de sémantique, cette

fonction est la plus difficile à mettre en place dans un système décisionnel complexe.

10
HTTPS://WWW-IGM.UNIV-MLV.FR/~DR/XPOSE2006/DELTIL_PEREIRA/PROCESSUS.HTML

5
Ainsi, les données applicatives sont extraites, transformées et chargées dans le datawarehouse

(ou datawarehouse) via des outils de type ETL (Extract-Transform-Load) Ou ETC français

(Extract-Convert-Load).

Par conséquent, les outils ETL permettent de synchroniser tous types de données dans notre

entrepôt de données et notre data mart.

ETL repose sur des connecteurs qui permettent l'extraction ou l'import de différents types de

données (tout type de base de données, fichier xml ou autre format, etc.) et des convertisseurs

qui traitent les données : agrégation, filtres, conversion et mapping. Ainsi, un tel outil va

prendre les données de l'entreprise, les convertir en mutualisation et les mettre à disposition

pour l'aide à la décision, et enfin les injecter dans l'entrepôt de données.

Ces opérations peuvent être effectuées périodiquement en utilisant le traitement par lots. Par

exemple, lorsqu'il n'y a plus d'applications en cours d'utilisation, les opérations d'extraction,
de

conversion et de chargement peuvent être lancées chaque nuit à minuit.

1.2 : phase d’intégration 11


La deuxième étape est l'intégration des données. Une fois les données centralisées par l'outil

ETL, elles doivent être structurées dans l'entrepôt de données. En raison des connecteurs qui

permettent d'écrire dans l'entrepôt de données, cette étape est toujours effectuée par ETL.

L'intégration est en fait un prétraitement, conçu pour faciliter l'accès aux données centralisées

des outils d'analyse.

Par conséquent, l'intégration comprend la collecte des données collectées dans un espace

unifié, et sa base informatique de base est un entrepôt de données. Ce dernier est l'élément

central du dispositif car il permet aux applications d'aide à la décision de bénéficier d'une

source d'information homogène, commune, standardisée et fiable. Plus important encore, ce

11
HTTPS://WWW-IGM.UNIV-MLV.FR/~DR/XPOSE2006/DELTIL_PEREIRA/PROCESSUS.HTML

6
type de centralisation peut éviter la diversité des sources de données.

Dans cette étape, les données sont transformées et filtrées pour conserver la cohérence globale

(le filtre de la fonction de collecte de l'outil ETL accepte mais peut apporter des valeurs

incohérentes aux données centralisées, ou les rejeter, ou intégrer la phase d'adaptation).

Enfin, tous les calculs et agrégations communs à l'ensemble du SID sont également effectués
dans cette étape.

1.3: phase distribution12


Cette étape de diffusion met les données à disposition des utilisateurs. Il permet la gestion des

droits d'accès et respecte donc le schéma correspondant au profil ou à la profession de


chacun.

Par conséquent, l'accès direct à l'entrepôt de données n'est pas autorisé. En fait, cette
approche

ne répond généralement pas aux besoins des décideurs ou des analystes. L'objectif principal
de

l'étape de diffusion est de subdiviser les données collectées dans des contextes cohérents,

faciles à utiliser et correspondant à des activités de prise de décision spécifiques (telles que
les

besoins de services spécifiques). Comparé à un entrepôt de données pouvant contenir de

nombreuses variables ou indicateurs, un contexte de propagation n'en possède que des


dizaines

pour en faciliter l'utilisation. Chaque contexte peut correspondre à un data mart, bien que le

stockage physique ne soit pas soumis à des règles spécifiques En général, le contexte de

livraison est multidimensionnel : il peut être modélisé sous la forme d'un hypercube, il peut

donc être fourni via des outils OLAP.

Enfin, selon l'objectif visé, différents contextes d'un même SID peuvent ne pas tous nécessiter
le même niveau de détail. En fait, de nombreuses agrégations n'intéressent que certaines

12
HTTPS://WWW-IGM.UNIV-MLV.FR/~DR/XPOSE2006/DELTIL_PEREIRA/PROCESSUS.HTML

7
applications et ne sont donc pas considérées comme des agrégations ordinaires. Par
conséquent, ces accumulations ne sont pas gérées par la fonction des points, mais par
diffusion. Ils peuvent être calculés dynamiquement ou stockés de manière persistante.

1.4 : phase de restitution13


La dernière étape, également appelée reporting, est chargée de présenter les informations à

valeur ajoutée de manière la plus lisible possible dans le cadre de l'aide à la décision. Les

données sont principalement modélisées via des représentations basées sur des requêtes pour

former des tableaux de bord ou des rapports via des outils d'analyse décisionnelle.

La quatrième fonction est la plus évidente pour l'utilisateur, assurant la fonctionnalité du poste

de travail, le contrôle d'accès aux rapports, le traitement des demandes et toute forme de

visualisation des résultats.

Le reporting est l'application la plus utilisée en business intelligence, qui permet aux
décideurs de :

• Sélectionner les données par période, production, service client, etc.

• Trier, regrouper ou répartir les données selon des critères de sélection

• Effectuer des calculs (totaux, moyennes, sommes, pourcentages, écarts,

comparaisons, etc.)

• Présenter les résultats de manière complète ou détaillée, généralement sous forme de

graphiques.

Les procédures de reporting permettent de modifier certains critères pour améliorer l'analyse.
Des instruments de type tableau de bord équipés de fonctions d'analyse multidimensionnelle
de type Olap sont également utilisés dans la dernière étape du SID.
L'analyse des données devrait être en mesure de suggérer la bonne direction pour guider
votre prise de décision dans le sens de la réalisation des objectifs organisationnels. Tout cela
est réalisé grâce à des outils de business intelligence qui soutiennent efficacement les

13
HTTPS://WWW-IGM.UNIV-MLV.FR/~DR/XPOSE2006/DELTIL_PEREIRA/PROCESSUS.HTML

8
décideurs tout au long du processus.14

Chapitre 2 : Architecture d’un système décisionnel 

Les recommandations de cet chapitre présentent les différents éléments nécessaires à la mise
en œuvre d'une solution d'aide à la décision, de l'extraction des données à la récupération des
données sous des formes agrégées, composites et standardisées.

1.1: les sources des données15


Afin d'approvisionner l'entrepôt, il est nécessaire d'identifier et d'extraire des informations de
son emplacement d'origine. Il s'agit principalement de données internes à l'entreprise, mais
elles sont dispersées car stockées dans la base de données de production de chaque service
(système hérité). Il peut également s'agir d'une source externe, telle que la récupération via
des services distants, des services Web. Ce sont des données complexes : plusieurs
technologies (types de fichiers, encodages, liens d'accès aux systèmes de gestion de bases de
données SGBD), des environnements (systèmes d'exploitation, matériel), et les principes de
sécurité qui les mettent en œuvre (mécanismes réseau, authentification) entrent en jeu pour
les obtenir.

1.2: outils d’extractions, transformations, et chargement ( ETL ) 16


Mieux connus dans la terminologie anglo-saxonne pour extraire la charge de transformation

(ETL), ces outils sont à la base de la construction d'un entrepôt de données. Ils extraient des

données de systèmes sources hétérogènes, les normalisent et les rendent cohérentes les unes

avec les autres afin qu'elles puissent être utilisées ensemble. Les données sont fournies dans

un format permettant un stockage immédiat dans l'entrepôt et peuvent être utilisées

HTTPS://WWW.PEGASE.MA/ACTUALITES/162-BUSINESS-INTELLIGENCE-QUEL-INTERET-POUR-
14

MON-ENTREPRISE-AU-MAROC

15
HTTPS://MTRANCHANT.DEVELOPPEZ.COM/TUTORIELS/BUSINESS-INTELLIGENCE/QU-EST-QUE-INFORMATIQUE-DECISIONNELLE/

16
HTTPS://MTRANCHANT.DEVELOPPEZ.COM/TUTORIELS/BUSINESS-INTELLIGENCE/QU-EST-QUE-INFORMATIQUE-DECISIONNELLE/

9
ultérieurement sans que les décideurs et les analystes n'aient à recalculer.

Selon les résultats à obtenir, une fois les données importantes localisées dans le système

source, l'outil doit les extraire selon une fréquence déterminée (plan).

Stockez-les ensuite temporairement (stockage temporaire). Cette étape et les types de fichiers

sélectionnés pour ce stockage (fichiers plats, XML, tables relationnelles, etc.) sont

déterminants, car ils permettent de filtrer et de combiner les données pour les rendre

homogènes :

 Le filtrage est utilisé pour identifier les données aberrantes ou problématiques, en


particulier les données manquantes ; Lorsque plusieurs sources de données partagent des
données communes, la déduplication est nécessaire.

 Le format est critique, notamment dans le cas de données encodées (par exemple, des
abréviations difficiles à convertir) ou de dates qui doivent être décomposées en un
ensemble de champs (année, mois, jour, heure, minute, etc.), dont chaque élément
d'information pertinent .

 Si la source est une base de données relationnelle, la dénormalisation est inévitable La


base de données utilise généralement la troisième forme normale (3FN), ce qui interdit
toute redondance. Veuillez noter que le formatage et la dénormalisation peuvent être
contradictoires, car pour les fichiers sources dont les informations ont été dénormalisées,
il est préférable de les normaliser à nouveau.

 Synchroniser pour assurer la cohérence de l'agrégation des entrepôts ;

 L'agrégation est un ensemble d'opérations possibles effectuées sur des données. Les plus
courants sont la somme, la moyenne, le nombre, la somme cumulée, le minimum et le
maximum. Compte tenu du niveau de granularité de l'entrepôt.

ces opérations seront envisagées. Ces tâches déterminent la qualité des données dans le
système de prise de décision. Par conséquent, cette étape semble être "l'étape la plus

10
importante et la plus complexe effectuée lors de la mise en place d'un entrepôt de données".

2.3 : entrepôt des donnés (datawarehouse)17


2.3.1 : Qu’est-ce qu’un data warehouse ?

Par définition, un entrepôt de données (DWH) est un système de base de données indépendant
du système informatique opérationnel, dans lequel des données de sources diverses, parfois
même très hétérogènes, sont combinées, compressées et archivées longuement. De
nombreuses organisations transfèrent souvent les données historiques des systèmes de
traitement des données opérationnelles vers ces entrepôts de données et les préparent pour un
accès ultérieur afin d'effectuer une analyse stratégique en intelligence d'affaires (ou BI).
Ainsi, les données opérationnelles deviennent des données de décision :
Données opérationnelles : Il s'agit des informations transactionnelles générées par l'entreprise
au travers des activités quotidiennes, notamment par le système de gestion et de facturation
Les sources de données traditionnelles sont les systèmes de traitement des données
opérationnelles, tels que les procédures comptables, les logiciels de gestion intégrée (ERP ou
ERP pour la planification des ressources d'entreprise), ou les systèmes d'information et de
contrôle.
Données décisionnelles : lorsque les données d'exploitation sont collectées en un seul
endroit, stockées pendant une longue période et préparées pour l'analyse, on parle de données
décisionnelles.
Un DWH apporte aux analystes un aperçu complet des ensembles de données hétérogènes et
permet l’agrégation des statistiques opérationnelles dans le cadre du traitement analytique en
ligne (en anglais Online Analytical Processing, OLAP). En tant que point central de collecte
de toutes les données d’entreprise pertinentes, l’entrepôt de données est utilisé pour la gestion
des connaissances en interne. Les utilisateurs n’ont généralement accès qu’en lecture seule.
Un DWH sert de base de données pour les méthodes d’exploration de données (data mining)
et reste le support à toutes les études relatives à la gestion de la performance et à l’orientation
stratégique de l’entreprise.

17
HTTPS://WWW.IONOS.FR/DIGITALGUIDE/WEB-MARKETING/ANALYSE-WEB/DWH-QUEST-CE-QUUN-DATA-WAREHOUSE/

11
2.3.2 : Structure d’un DWH : architecture d’un data warehouse

Le processus de gestion et d'analyse de DWH s'appelle un entrepôt de données et comprend


les étapes suivantes : Collecte de données stockage de données Évaluation et analyse des
données Les différentes étapes de l'entrepôt de données se reflètent dans une structure
typique, l'architecture de référence du système d'entrepôt de données. Bien que l'architecture
du système varie selon les produits et les éditeurs, sa structure technique repose sur un schéma
modulaire et peut être divisée en trois niveaux : collecte de données Stockage et archivage
des données Fourniture et transmission de données.

Il existe également un composant de contrôle centralisé : il s'agit du gestionnaire de l'entrepôt


de données. Ce dernier attribue des fonctions de gestion particulières à chaque niveau de
DWH. Les différents composants de l'entrepôt de données ne doivent pas nécessairement
provenir d'un seul fournisseur ; en effet, les services correspondants peuvent également
provenir de différents logiciels ou de solutions distinctes.

Couche de collecte de données : Avant que les données puissent être téléchargées sur DWH,
des informations généralement très hétérogènes doivent d'abord être unifiées pour une
présentation unifiée. L'entrepôt de données s'alimente automatiquement à partir des sources
de données internes de l'entreprise et des sources de données externes associées :
Données internes : système d'exploitation : logiciel de gestion intégré (ERP ou ERP),
système de gestion de la relation client (CRM) ; base de données opérationnelle ; système de
gestion de contenu (CMS) ; base de données orientée texte, fichiers plats (tels que Excel,
CSV, fichiers texte,) , Courriel, etc.
Données externes : applications et systèmes de fournisseurs de services externes, sites Web,
médias sociaux, services cloud, etc.

Le système au niveau de l'enregistrement de données fournit une interface pour le système


d'exploitation de l'entreprise et est utilisé dans la première étape de l'entrepôt de données.
L'acquisition et l'intégration de données sont les deux fonctions principales de ces
composants DWH.
Les techniques de collecte suivantes sont utilisées pour l'extraction et l'acquisition de

12
données :
Déclencheurs ou déclencheurs : si le système d'exploitation de l'entreprise prend en charge les
déclencheurs de base de données, ils peuvent être utilisés pour extraire automatiquement des
données. Les déclencheurs vous permettent de définir des actions à exécuter
automatiquement lorsque certains événements se produisent. Généralement, l'événement
déclencheur est lié à une modification de la base de données du système source, ce qui
entraîne l'extraction des données modifiées dans le DWH.
Fichiers journaux : si le système d'exploitation ne prend pas en charge les déclencheurs ou les
déclencheurs, le niveau de collecte de données de DWH peut inclure des programmes
pouvant évaluer les fichiers journaux (ou fichiers journaux) du système source et extraire les
transactions qui y sont enregistrées.
Programme de surveillance : si les déclencheurs ou les fichiers journaux ne peuvent pas être
utilisés pour l'extraction, un programme de surveillance est généralement utilisé. Ils utilisent
des algorithmes pour extraire les modifications apportées aux ensembles de données du
système d'exploitation. Ces algorithmes créent périodiquement des instantanés (snapshots)
des données à surveiller et les synchronisent avec les données précédentes.

Si aucune des technologies ci-dessus n'est prise en charge, car l'accès aux données dans le
système d'exploitation est impossible, ces modifications doivent être enregistrées
indépendamment et les modifications correspondantes doivent être communiquées à
l'entrepôt de données.
En termes d'intégration de données, la plupart des DWH fournissent des fonctions OLAP,
permettant de présenter les fichiers dans une structure multidimensionnelle. Le traitement
analytique en ligne (OLAP) est une méthode d'analyse utilisée pour compressier les données
de gestion et les documents commerciaux. Le fonctionnement est basé sur le processus ETL :

Extraction : L'extraction de données consiste à extraire des informations pertinentes à partir


de diverses sources de données. Cela peut être mis en œuvre comme une stratégie push-pull.
Si les données sont extraites dans le cadre d'une stratégie push, les sources de données sont
encouragées à générer périodiquement des extraits et à les soumettre à DWH. Dans le cas
d'une stratégie pull, c'est DWH qui initie activement l'extraction des données.

13
Transformation : Ajustez les données extraites pendant le processus de conversion et
convertissez-les uniformément au format de la base de données cible.
Load : La phase de chargement consiste à sauvegarder les données converties dans chaque
base de données cible de DWH.
La couche d'acquisition et de traitement des données de DWH peut contenir une zone dite de

stockage temporaire (également appelée zone de stockage temporaire). Il s’agit d’une zone

temporaire de la base de données dans laquelle les données à charger sont prétraitées. Un tel

processus de traitement peut être particulièrement nécessaire dans les processus ETL

complexes.

Comme un data warehouse rassemble des données provenant de sources très diverses,

l’intégration des données est basée sur différents outils qui permettent la transformation et

l’ajustement des données extraites. Ils peuvent être classés dans les catégories suivantes :

Outils de migration de données : les programmes de migration de données vous

permettent de définir des règles de transformation simples pour convertir des données

sources hétérogènes en un format cible uniforme.

Outils de nettoyage des données : pour le nettoyage des données, des programmes

basés sur la logique floue (fuzzy logic) ainsi que les réseaux neuronaux artificiels sont

utilisés. L’objectif est d’améliorer la qualité des données en éliminant les erreurs, les

lacunes et les répétitions dans les ensembles de données grâce à l’implémentation de

règles prédéfinies, d’algorithmes et de tables de correspondance (LUT). C’est ce que

l’on nomme aussi le management de la qualité (Quality Management).

Outils d’audit des données : les outils de vérification des données sont utilisés dans

l’intégration des données pour déterminer les règles et les relations entre les données.

En outre, les programmes de ce type vous permettent aussi d’identifier les données qui

enfreignent les règles définies ce qui signifie qu’il s’agit probablement d’erreurs.

L’intégration des données est suivie par le transfert des données extraites dans la base de

14
données centrale, le « core data warehouse ». Cette étape est supportée par des programmes

qui offrent les fonctions suivantes :

Vérification des conditions d‘intégrité 

Tri des données

Calcul des agrégations

Détermination des structures d’accès

Partitionnement des données pour un accès efficace

Niveau de dépôt et d’archivage des données (data repository)

Le niveau d’archivage des données est un élément central de l’entrepôt des données. Il s’agit

de ce que l’on nomme le « Core Data Warehouse ». Les données extraites sont généralement

stockées dans le DWH sous forme de matrices multidimensionnelles, ce que l’on appelle

des schémas en étoile ou en flocon, pour des analyses futures dans le cadre d’un archivage à

long terme. Toutefois, cela fait rarement référence à l’ensemble du stock de données d’un

DWH. Pour permettre une analyse efficace, il est donc d’usage de créer des segments de

données de l’ensemble du répertoire, connus sous le nom de datamart (aussi nommé

magasin de données).

Un datamart est une copie d’une partie d’une base de données, qui est généralement

implémentée de façon non persistante comme stockage temporaire, intermédiaire. Dans

certains cas toutefois, des datamarts dits indépendants sont aussi utilisés, ce qui permet de

disposer en permanence d’une section, d’un extrait de données séparé à long terme.

Un schéma en étoile est un type de diagramme entité-association ou Entity Relationship

Diagram (ERD), c’est à dire une représentation graphique de la structure de table d’une base

de données dans laquelle sont illustrées les différentes entités ainsi que leur relation entre

elles. Le schéma en étoile est donc utilisé pour visualiser des structures de données

15
multidimensionnelles.

Chaque schéma en étoile est constitué d’une table des faits et de plusieurs tables de dimension

qui sont regroupés en forme d’étoile autour de la table de faits.

La table de faits contient ce que l’on appelle les faits : chiffres clefs et résultats d’une

société qui sont enregistrés en permanence (par exemple le chiffre d’affaires).

La table de dimensions contient des attributs qui décrivent les données de la table de

faits. Une table de dimension est un ensemble d’informations de référence sur les

événements stockées dans la table de faits.

Niveau de livraison des données :

Ce niveau de données sert d’interface avec les applications finales et les outils de

présentation, ce qui facilite l’analyse des données et les méthodes d’évaluation qui

permettent d’extraire des informations des entrepôts de données et de les traiter sous

différentes formes de présentation pour les utilisateurs finaux. La gamme comprend

notamment les outils de rapports et d’interrogation, les outils de collaboration et

d’exploration de données, le traitement analytique en ligne (OLAP), les systèmes

d’information exécutive (EIS) et les outils de prévision et de simulation.

Outils de requêtes et de rapports

Les outils de reporting offrent à l’utilisateur final différentes fonctions pour créer

des rapports standards prédéfinis (Predefined Reportings). Les rapports peuvent être

automatiquement émis à intervalles réguliers ou sur demande. Pour que l’utilisateur final

puisse facilement demander des renseignements au DWH, ces requêtes peuvent être

prédéfinies à l’aide d’outils de recherche (query tools).

2.4 : traitement analytique en ligne ( OLAP)18


2.4.1 : là où OLAP est né : l’analyse

18
HTTPS://GRIM.DEVELOPPEZ.COM/ARTICLES/CONCEPTS/OLAP/

16
Pour mieux comprendre OLAP et les technologies gravitant autour, intéressons-nous à la

genèse de ce concept : l'analyse en entreprise.

L'analyse est un processus intellectuel qui, à partir d'hypothèses et de données, permet à

une personne de générer de la connaissance. Cette connaissance peut se formaliser par

l'explication d'un phénomène, la proposition d'une solution pour optimiser les ventes, des

recommandations quant à la politique d'approvisionnement, etc. Bref, tout ce qui peut

améliorer l'entreprise.

De par sa nature, l'analyse n'est pas un processus que l'on peut guider ou formater. La

recherche de la cause de la baisse des profits, par exemple, peut impliquer des recherches

du côté des succursales, des ventes, des prix des fournisseurs, des taxes locales, etc. Le

travail de l'analyste consiste, à travers une série de questions-réponses, à expliquer la

raison d'un phénomène par les données qu'il possède, et ce processus n'est presque jamais

linéaire.

Un exemple 

Un exemple illustrera mieux le fond de ma pensée.

Imaginez que l'on demande à un analyste d'expliquer le fait que les profits de l'entreprise

aient baissé durant les trois derniers mois. Voici un des cheminements que pourrait suivre

un analyste :

voir les profits sur l'année pour constater la baisse ;

voir le volume des ventes sur les trois derniers mois : les ventes n'ont pas baissé ;

voir les coûts de revient des produits sur les trois derniers mois : les coûts ont sensiblement

augmenté pour certains pays ;

voir les coûts de revient des produits par zone de production sur les trois derniers mois : les

produits ayant subi une augmentation sont tous produits en Asie ;

pour les produits en question, pour les trois derniers mois, voir le coût de production par

17
usine, ainsi que le coût moyen de la main-d'œuvre et la taxe et comparer ces valeurs avec

celles des trois mois avant l'augmentation : les coûts sont à peu près les mêmes, la raison

n'est pas là ;

pour les produits en question, comparer le coût de la matière première avec les chiffres des

trois mois avant la hausse des coûts : BINGO ! Le prix de la matière s'est envolé ces trois

derniers mois. Il faut maintenant voir les raisons de cette augmentation, revoir les contrats

avec les fournisseurs, réguler la production … Il faut agir !

Observez bien ce processus. Nous avons commencé par un simple tableau des profits sur

l'année et nous avons fini par une synthèse des prix des matières premières pour une liste

de produits fabriqués en Asie, et pour les trois derniers mois … Est-ce que des rapports

peuvent supporter un tel processus ? Difficilement, les rapports sont parfaits pour distiller

une information précise, structurée. Mais supporter un tel processus cognitif impliquerait

trop de travail (sollicitation perpétuelle du département informatique pour la génération de

rapports, perte de temps et d'efficacité d'aller d'un rapport à un autre).

Remarquez aussi les différents niveaux d'agrégation par lesquels notre analyste est passé.

L'analyse a commencé par un cumul annuel, et s'est vite transportée vers des cumuls par

usine sur une période donnée, sur une zone géographique donnée. Cette charge de travail

serait très difficilement supportable par une base de données de production OLTP

classique (surtout quand elle implique plusieurs Go de données). Donc la solution

impliquerait d'utiliser une structure orientée analyse à l'inverse des bases OLTP qui sont

orientées production.

La solution : de l’analyse on-line

Après ce petit exemple, posons-nous la question suivante : quelles sont les caractéristiques

de la technologie utilisée pour suivre le processus cognitif de l'analyste ? La réponse se

trouve dans un document qu'a écrit monsieur CODD à ce sujet et qui se nomme

18
« Providing On-Line Analytical Processing to Users Analysts ». Dans ce document,

monsieur CODD énumérait douze règles qui permettaient à une technologie de faire de

l'analyse sur les données. Six règles furent ajoutées deux ans après la publication de ce

document.

Ces règles, disponibles sur le Web, énoncent les caractéristiques qu'un outil doit avoir pour

pouvoir se qualifier d'outil OLAP. On peut facilement voir que la plupart des outils

proposés sur le marché se définissant comme tels ne respectent pas toutes les règles. Deux

ans après l'établissement de ces règles, le OLAP Council, un organisme de normalisation

qui a tenté d'unifier les définitions des concepts du OLAP, a publié un document avec une

définition officielle du terme OLAP, en voici un extrait traduit par moi-même :

« …Plus récemment, les fabricants de bases de données relationnelles se sont mis à vendre

leurs bases de données comme étant des outils pour construire des entrepôts de données.

Un entrepôt de données garde les informations tactiques (stratégiques) qui répondent aux

questions du type qui ? et quoi ? à propos d'événements passés. Une requête type utilisée

dans un entrepôt de données serait : « Quel a été le revenu total pour la région Est dans le

troisième trimestre ? 

« Il est important de distinguer les capacités d'un entrepôt de données de celles d'un

système OLAP (On-Line Analytical Processing). À l'inverse des entrepôts de données, qui

se basent sur une technologie relationnelle, OLAP utilise une vue multidimensionnelle de

données agrégées pour fournir un accès rapide à l'information stratégique pour des

analyses plus poussées.

« OLAP permet aux analystes, gestionnaires et au personnel exécutif de mieux comprendre

les données via un accès rapide, consistant et interactif à une large variété de vues

possibles de l'information. OLAP transforme les données du plus bas niveau afin de

19
montrer leur véritable dimension dans l'entreprise, selon la compréhension de l'utilisateur.

« Les systèmes OLAP permettent non seulement de répondre aux questions de type qui ?

et quoi ?, mais permettent aussi de répondre aux « que se passe-il si …? (what-if) » et aux

pourquoi ? Chose qui les distingue des entrepôts de données. OLAP permet la prise de

décision sur des actions futures. Un calcul OLAP typique est plus complexe qu'une simple

somme sur les données, par exemple : que serait l'effet sur les coûts des distributeurs de

soft Drink si le prix du sirop augmentait de 0.10 $ le gallon et que le coût de transport

baissait de 0.05 $/mile? 

« OLAP et les entrepôts de données sont complémentaires. Un entrepôt de données stocke

et gère les données. OLAP transforme les données de l'entrepôt en informations

stratégiques. OLAP peut passer d'une navigation basique (connue aussi comme « slice and

dice »), à des calculs ou des analyses plus sérieuses comme les séries temporelles ou la

modélisation complexe. Ainsi, les décideurs expérimenteront les capacités avancées de

OLAP, et pourront passer d'accès aux données à information, à connaissance. »

En résumé, cet organisme définit OLAP comme étant l'ensemble des technologies qui, se

basant sur une représentation multidimensionnelle des données, permet aux analystes et

décideurs de traiter leurs données de façon analytique, interactive (sessions), rapide et

permettant de voir les données de l'entreprise sous plusieurs angles (dimensions).

Plus récemment, The Olap Report, un autre organisme normalisateur sur les notions OLAP

a tenté de proposer une définition plus simple et digeste que celle du OLAP

Council (qu'ils jugent has-been et, je cite, défunte). Cette définition tourne autour d'un

acronyme :

Cet organisme définit les outils OLAP comme étant des outils basés sur une vue

multidimensionnelle des données (donc une conception à base de dimensions et de faits),

l'organisme précise que cette vue est totalement indépendante de la technologie utilisée

20
pour le stockage. Pour peu que l'outil réponde aux critères qui suivent.

Un outil OLAP, selon The Olap Report doit être rapide (Fast), doit permettre de faire des

analyses complexes (Analysis), répondre à une architecture Client/Serveur avec tout ce

que cela implique en terme de sécurité et de gestion d'accès concurrent (Server). Un outil

OLAP doit, comme dit plus haut, se baser sur une vue multidimensionnelle des données

(Multidimensional) et finalement le volume d'information que peuvent prendre en charge

ses outils (Information). Ces critères ont été simplifiés par l'acronyme FASMI.

Cette définition, plus simpliste que la première, n'entre pas en désaccord avec la

précédente ni avec la vision de CODD sur ce qu'est un outil OLAP. Je regrette cependant

cette tentative de création d'une autre définition censée être universelle, mais qui n'ajoute,

en fin de compte, qu'une autre définition aux innombrables tentatives existantes sur le

Web. Cette démarche a au moins le mérite d'être indépendante de tout producteur de

solution B.I, chose qui n'est pas, selon The Olap Report, le cas de la définition de CODD.

2.4.2 : Démystifions le OLAP

Nous allons essayer d'éliminer les légendes urbaines du B.I dans cette partie, en définissant

strictement le mot OLAP et en disant « ce que n'est pas OLAP ».

OLAP, Quézako ?

Si l'on se réfère au chapitre précédent, ainsi qu'aux différents documents (non

commerciaux) traitant de ce sujet. Nous nous apercevrons que le mot OLAP, acronyme de

On-Line Analytical Processing, désigne l'ensemble des technologies permettant la prise de

décision stratégique rapide et fiable sur des données modélisées en multi dimensionnel.

Ces technologies, pour mériter le label OLAP, doivent obéir aux règles de CODD :

conception et vue multidimensionnelles : un outil OLAP doit se baser sur un modèle

multidimensionnel pour faire de l'analyse ;

transparence : la technologie utilisée, la conception ainsi que toutes les spécifications

21
techniques doivent être invisibles à l'utilisateur final ;

accessibilité : les outils OLAP doivent permettre d'accéder les données de façon à produire

de la connaissance rapide. Une information pertinente et on-time doit être fournie en tout

temps ;

rapidité : les montées de charges ne doivent pas freiner l'analyste. L'outil doit pouvoir

supporter de grosses requêtes (c'est la caractéristique la plus difficile à satisfaire) ;

Architecture Client Serveur : pour un accès uniforme et des traitements plus rapides et plus

sophistiqués ;

dimensions génériques : essayer, autant que possible, d'avoir une unicité dans la définition

des dimensions. Ne pas avoir deux dimensions client ;

gestion des matrices creuses : en mathématiques, les matrices creuses sont des matrices qui

contiennent beaucoup de zéros. En informatique, il existe des algorithmes qui utilisent

cette spécificité pour optimiser le stockage de ce type de matrices. Les performances sont,

en général, au rendez-vous. Les outils OLAP doivent avoir cette capacité d'optimisation

d'espace de stockage par la gestion des matrices creuses ;

multiutilisateurs : les outils OLAP sont, par définition, destinés à un accès concurrent ;

croisement interdimension illimité : l'utilisateur ne doit avoir aucune restriction quand au

nombre de croisements qu'il fait entre les dimensions ;

intuitifs : les utilisateurs d'outils OLAP ne sont pas forcément informaticiens. Il est donc

nécessaire d'offrir des solutions adaptées à leur style cognitif ;

affichage flexible : l'utilisateur doit pouvoir aisément « arranger » son résultat au format

désiré ;

nombre illimité de dimensions et de niveaux d'agrégation.

En plus de ces règles, six autres conditions se sont ajoutées. Ces conditions traitent

essentiellement de la navigation dans les solutions OLAP (drill-down, drill-through, etc.),

22
de l'interopérabilité avec les solutions de l'entreprise et de la gestion des cas spéciaux

(valeur manquante, données anormales, etc.).

Comme vous pouvez le voir, ce n'est pas si compliqué que cela de parler BI

« proprement ». Les concepts présentés plus haut sont la base et la condition sine qua

non que toute personne doit posséder pour bien apprendre les concepts du BI et ne pas se

laisser bercer par les douces sérénades commerciales des vendeurs d'outils BI. N'oublions

pas que leur but est de créer des clients fidèles, même si cela doit passer par de la

désinformation ou même de la fausse information !

2.5 : outils De visualisation


L'outil de récupération est la partie visible fournie à l'utilisateur. Grâce à eux, les analystes

peuvent manipuler les données contenues dans les entrepôts de données et les marchés. Les

avantages de ces outils sont l'édition de rapports et la facilité de traitement. En effet, toute la

structure du système décisionnel est conçue pour demander des résultats aux utilisateurs dans

un délai acceptable (de l'ordre de quelques secondes), et ne nécessite aucune connaissance

particulière dans le domaine informatique. Généralement, ces outils fournissent des

fonctionnalités de traitement, telles que le "glisser-déposer", permettant un traitement rapide,

intuitif et convivial.19

Lorsque vous parlez de visualisation de données, la première chose qui vous vient à l'esprit

peut être des graphiques ou des camemberts. Bien que ces types de graphiques soient des

éléments répétitifs, chaque visualisation possède son propre ensemble d'informations. Les

graphiques les plus courants peuvent ne pas répondre le mieux à vos besoins. Il existe de

nombreuses méthodes de visualisation qui peuvent être utilisées pour présenter les données de

19
HTTPS://MTRANCHANT.DEVELOPPEZ.COM/TUTORIELS/BUSINESS-INTELLIGENCE/QU-EST-QUE-INFORMATIQUE-DECISIONNELLE/

23
manière efficace et attrayante.

Types de visualisations les plus courants :

Diagrammes, Tables, Graphiques, Cartes, Infographies, Tableaux de bord

Exemples de visualisations plus spécifiques :

Graphique par aires, Graphique à barres, Boîte à moustaches, Nuage de bulles, Graphique à

puces, Cartogramme, Vue circulaire, Carte de distribution de points, Diagramme de Gantt,

Carte de chaleur, Table surlignée, Histogramme, Matrice20

2.6 : métadonnées21
Les métadonnées sont des données décrivant d'autres métadonnées. Dans la plupart des

utilisations informatiques, le préfixe meta signifie "définition ou description de référence".

Les métadonnées intègrent des informations de base sur les données et facilitent la recherche

et la manipulation d'instances de données spécifiques. Par exemple, l'auteur, la date de

création, la date de modification et la taille du fichier. Les métadonnées et leur filtrage des

données d'inférence permettent de localiser des documents spécifiques. En plus des fichiers

de documents, les métadonnées sont également utilisées pour les images, les vidéos, les

feuilles de calcul et les pages Web.

sur le web

Dans les pages web, ils sont très utiles : ils décrivent le contenu de la page et contiennent des

mots-clés pertinents. Ils prennent généralement la forme de balises META. Les moteurs de

recherche affichent généralement des métadonnées décrivant et des pages Web agrégées dans

leurs résultats. Les moteurs de recherche les analysent souvent pour déterminer la pertinence

des pages, et jusqu'à la fin des années 1990, ils étaient cruciaux pour le classement des pages
20
HTTPS://WWW.TABLEAU.COM/FR-FR/LEARN/ARTICLES/DATA-VISUALIZATION
21
HTTPS://WHATIS.TECHTARGET.COM/FR/DEFINITION/METADONNEES

24
dans les résultats. Avec le développement de la technologie SEO (Search Engine

Optimization) à la fin des années 1990, de nombreux sites Web remplis de mots-clés ont

incité les moteurs de recherche à paraître plus pertinents que les autres sites Web. Depuis

lors, la dépendance des moteurs de recherche vis-à-vis des balises META a diminué. Pour

empêcher les sites Web de contourner leurs systèmes, de nombreux moteurs de recherche

modifient régulièrement leurs critères de classement. Google est notoirement connu pour

modifier fréquemment ses algorithmes ultrasecrets de classement.

Chapitre 3 : Business Intelligence vs Business Analytics – Le


meilleur choix pour votre entreprise
Avec l'avènement du Big Data, les entreprises réunissent la veille stratégique et la Business
Analytics pour la présentation et l'interprétation de données. Ceci permet un plan d'action
efficaceaxé sur les données et fournit une productivité maximale. Passons en revue pour voir
ce qu’ils proposent et les objectifs de chacun.

3.1 : Business analytics22


Business analytics peut également être utilisée pour accéder et examiner vos données
commerciales. Cependant, contrairement à la stratégie de business intelligence, elle se
concentre davantage sur le déverrouillage d'informations utiles et rentables pour améliorer
la planification et les performances de l'entreprise. L'analyse commerciale utilise des
stratégies d'analyse statistique et d'analyse prédictive.

22
HTTPS://WWW.GOOGLE.COM/AMP/S/BLOG.ARCOPTIMIZER.COM/BUSINESS-INTELLIGENCE-VS-BUSINESS-ANALYTICS-LE-MEILLEUR-
CHOIX-POUR-VOTRE-ENTREPRISE/AMP

25
3.2 : Intelligence d'affaires et analyse d'affaires-Rapport et
analyse 23
Pour surveiller les performances de chaque secteur d'activité, il est important de disposer
de capacités de reporting et Analyse. Le rapport agrège les données et les f isournit dans
un format simple et reconnaissance. Par conséquent, la présentation des do itnnées
pertinentes est soulignée. La fonction d'analyse est un processus d'exploration de données.
Cela fournit des informations significatives. Utilisez ensuite ces informations pour améliorer
les performances de l'entreprise.Ainsi, Analytics insiste sur l'interprétation dennes .

3.3 : Points communs entre les fonctions BI et BA : BI et BA24


- utilisent l’exploration de données, des tableaux de bord et d’autres outils analytiques pour
collecter, analyser et visualiser les données.
- Fournir aux organisations des techniques d’optimisation qui leur permettent de découvrir les
enjeux des données d’entreprise.
-Organisez les données dans des rapports.

3.4 : Business Intelligence et Business Analysis-les similitudes 25


Plus précisément, l’intelligence d’affaires implique le « quoi » et le « comment » de l’avenir.
Il combine une analyse statistique avancée et une analyse prédictive pour prédire ce qui se
passera dans un proche avenir. D’un autre côté, l’analyse commerciale implique
« pourquoi ».
facteur. Ceci est fait pour aider à identifier et à résoudre les faiblesses organisationnelles en
analysant les données historiques et actuelles.Pour ce faire, il utilise l’analyse statistique,
l’exploration de données et l’analyse quantitative pour identifier les tendances commerciales
passées. En résumé, leu26rs principales différences sont les suivantes :

23
HTTPS://WWW.GOOGLE.COM/AMP/S/BLOG.ARCOPTIMIZER.COM/BUSINESS-INTELLIGENCE-VS-BUSINESS-ANALYTICS-LE-MEILLEUR-
CHOIX-POUR-VOTRE-ENTREPRISE/AMP
24
HTTPS://WWW.GOOGLE.COM/AMP/S/BLOG.ARCOPTIMIZER.COM/BUSINESS-INTELLIGENCE-VS-BUSINESS-ANALYTICS-LE-MEILLEUR-
CHOIX-POUR-VOTRE-ENTREPRISE/AMP
25
HTTPS://WWW.GOOGLE.COM/AMP/S/BLOG.ARCOPTIMIZER.COM/BUSINESS-INTELLIGENCE-VS-BUSINESS-ANALYTICS-LE-MEILLEUR-
CHOIX-POUR-VOTRE-ENTREPRISE/AMP
26
HTTPS://WWW.GOOGLE.COM/AMP/S/BLOG.ARCOPTIMIZER.COM/BUSINESS-INTELLIGENCE-VS-BUSINESS-ANALYTICS-LE-MEILLEUR-
CHOIX-POUR-VOTRE-ENTREPRISE/AMP

26
3.4.1 Les fonctionnalités de BI incluent :
-Créez un résumé des données historiques que vous souhaitez afficher. C’est ce qu’on appelle
l’analyse descriptive.
-Identifier les nombreuses questions soulevées lors de l’analyse descriptive. C’est ce qu’on
appelle l’analyse diagnostique.

3.4.1 Les fonctions de BA comprennent :


Faites des prédictions sur la base des données collectées. C’est ce qu’on appelle l’analyse
prédictive.
Apporter des solutions aux problèmes soulevés dans le processus d’analyse descriptive et de
découverte de données.

3.5 : Choix entre BI et BA27


S’il est nécessaire d’extraire des informations du passé au présent pour les utiliser comme
une stratégie efficace pour gérer une entreprise, vous devez choisir l’intelligence d’affaires. Si
vous avez besoin d’extraire des données passées pour mieux comprendre vos opérations
commerciales, vous devez choisir l’analyse commerciale.
La Business Intelligence consiste à configurer les données de la même manière. Le format
pour obtenir des informations, tandis que l’analyse commerciale divise les données en
différentes formes et implique leur recherche.
Les données sont générées sous forme de tableaux de bord ou de rapports et sous forme de
tableaux croisés dynamiques, selon le type d’utilisateur. Par exemple, les analystes utilisent
des tableaux croisés dynamiques, les managers les utilisent sous forme de rapports et de
tableaux de bord leaders, etc. Dans le cas de l’intelligence d’affaires et de l’analyse
d’affaires,alors que dans Business Analytics, les informations de Business Intelligence
antérieures sont utilisées à des fins d’analyse.
Le Big Data est principalement axé sur le Big Data, alors que Business Analytics utilise
Les dernières technologies permettant de gérer le BigData.
La Business Intelligence fournit un moyen de gérer efficacement une entreprise, tandis que
l’analyse commerciale permet de modifier les stratégies commerciales pour augmenter sa
productivité.
27
HTTPS://WWW.GOOGLE.COM/AMP/S/BLOG.ARCOPTIMIZER.COM/BUSINESS-INTELLIGENCE-VS-BUSINESS-ANALYTICS-LE-MEILLEUR-
CHOIX-POUR-VOTRE-ENTREPRISE/AMP

27
La Business Intelligence fait partie de l’analyse commerciale, les utilisateurs professionnels
ont donc tendance à en tirer plus d’avantages.
La Business Intelligence est bien appliquée aux données structurées dans les applications
ERP, telles que les systèmes logiciels financiers. Cela donne un aperçu des transactions
financières précédentes. Ceci est également utilisé dans la chaîne d’approvisionnement et
dans d’autres domaines opérationnels. D’autre part, l’analyse commerciale ne s’applique pas
seulement à la structure, mais aussi en partie aux données semi-structurées, qui sont
transformées en informations significatives pour l’entreprise.

3.6 :Qu’est-ce qui fonctionne le mieux pour votre entreprise – BI ou


BA?28
La BI peut être décrite comme la partie «descriptive» de l’analysis. Considérant que, BA peut
être considéré comme un élément BI plus des éléments «prédictifs» ainsi que toutes les autres
technologies utilisées pour interpréter les données.
BI uses les données passées et actuelles, and tandis que BA uses le passé et analysis le présent
pour préparer les entreprises à l’avenir. [19659005] Même si BI et BA sont bien connus pour
protéger votre entreprise de la quasi-totalité des problèmes, compte tenu des données brutes
relatives à votre entreprise, félicitations de la Business quêtez la pluttà -dire s voulues
Intelligence
voulu s voulues comment de votre entreprise end peut être utilisé et si vous voulez extraire
vos propres interprétations et recachera des décisions!
Donc, en un mot, BI est lié à «quoi» et «comment» et BA à plus de «pourquoi».
Avez-vous du mal à définir votre décision d’achat en matière de Business Intelligence ou de
Business Analytiques? Posez-vous les problèmes suivantes:
Dans quelle mesure avez-vous besoin de la connaissance de votre entreprise?
De quelles fonctionnalités votre système a-t-il besoin?
Qui les use tous?
Quel est le degré de technologie du logiciel?
Quelle visibilité faut-il avoir sur le système ainsi que sur les données elles-mêmes?

28
HTTPS://WWW.GOOGLE.COM/AMP/S/BLOG.ARCOPTIMIZER.COM/BUSINESS-INTELLIGENCE-VS-BUSINESS-ANALYTICS-LE-MEILLEUR-
CHOIX-POUR-VOTRE-ENTREPRISE/AMP

28
Vos décisions d’achat sont-elles sur les exigences en matière de données de votre entreprise
La BI est spécifiquement destinée aux utilisateurs non Technical et Professionnels. Avec la
Business Intelligence, les non-techniciens pensent qu’il est utile de pouvoir utiliser des outils
frontaux pour créer leurs propres tableaux de bord et manipuler les données à l’aide de
l’analysis.
La Business Intelligence se concentrant sur les conditions au moment de la marée et l’analysis
d’entreprise spécifie à l’avenir. En combinant les deux, vous pouvez améliorer la manière
une entreprise atteint les solutions Commerciales actuelles et futures. Méfiez-vous des autres
articles dévote to Professional connaissance l’intelligence d’affaires et l’analysis
d’affaires peuvent influer sur vos décisions d’achat! Pour savoir ce qui convient le mieux à
votre.
entreprise, contactez aujourd’hui nos Professionnels de l’informatique.

Chapitre 4 : exemple d’une entreprise utilisant l’intelligence


d’affaire (Cas « Macnific SA » et « Pizzaline SARL »)
4.1 Cas de Macnific SA29

4.1.1 : Description de l’entreprise et contexte du cas d’étude

L’entreprise Macnific SA est une PME dans le domaine de la recherche de nouvelles

technologies présente sur le marché suisse, à Genève, depuis environ deux ans. C’est

également une entreprise de services dans la catégorie « Value Added Reseller »

VAR. Le métier de l’entreprise est la revente de solutions informatiques, leur

intégration à la structure physique du client, ainsi que la formation des utilisateurs

aux produits proposés.

4.1.2: analyse

4.1.2.1 : situation

29
LA BUSINESS INTELLIGENCE, EST-ELLE ADAPTÉE AU MONDE DES PME ? FREITAS PAIXÃO RODRIGO

29
La structure physique de l’entreprise Macnific SA est composée d’un réseau simple

avec une dizaine de postes. Le système d’exploitation installé par l’organisme est

MacOs. Le système d’information n’est pas informatisé. Les processus métier ne sont

pas définis ou normalisés. Des bases de données existent isolément sur différents

postes de travail. Ces bases de données concernent le responsable des produits, le

responsable des fournisseurs et le responsable des clients.

Figure 1 : la situation actuelle de l’entreprise Macnific SA

4.1.2.2 : Application de la méthode

• Définir les objectifs à atteindre

L’entreprise Macnific SA a comme objectif d’obtenir une étude d’opportunité. Elle

souhaite connaître les avantages de la Business Intelligence, et évaluer l’apport de

30
l’intégration d’une nouvelle technologie dans l’organisme.

• Investissement disponible

L’entreprise Macnific SA souhaite faire de la Business Intelligence en utilisant les

ressources locales, c'est-à-dire, en utilisant les applications qu’elle possède. Le cas

échéant, elle ferait éventuellement appel à une application de Business Intelligence

open source.

• Vérifier la source de données

L’entreprise Macnific SA ne possède pas de source de données centralisée globale à

l’entreprise. Dans l’ensemble la quantité d’informations pour les traitements est infime.

La mise en place d’une base de données respectant les contraintes pour faire de la

Business Intelligence doit être réalisée avant de passer à la vérification des

technologies utilisées.

4.1.2.3 Diagnostic

Dans le cas de l’entreprise Macnific SA, il n’est pour l’instant pas possible d’intégrer

des solutions de Business Intelligence dans le but de fournir une aide à la décision

aux managers, ou dans le but de l’utiliser comme un outil de reporting. Les

principales causes trouvées lors de l’investigation se présentent comme ci-dessous.

• Plateforme Macintosh non compatible avec les solutions de BI proposées

• Absence d‘une source de données centralisée globale à l’entreprise

• Quantité d’informations à traiter trop petite

4.1.3 Conclusion

Pour satisfaire l’envie des managers de Macnific SA de faire de la Business

Intelligence, un projet de restructuration informatique de l’organisme a été proposé

(cf. annexe 1). Le but est de la préparer l’avenir pour l’informatique décisionnelle.

Conscient de la situation financière de l’entité, il a été recommandé : d’informatiser

31
le système d’information en utilisant les outils à disposition de l’organisme, de

mandater informaticien de gestion pour modéliser et mettre en place la base de

données, et d’intégrer les applications pour la saisie des enregistrements des inputs et

des outputs de l’entreprise. La définition et la normalisation des processus de

l’entreprise est également un point très important lorsque nous implémentons des

solutions de Business Intelligence. Néanmoins, cela reste une responsabilité

organisationnelle de la direction de l’entreprise. Un schéma dans le but de mieux

présenter le projet a été élaboré comme ci-dessous.

Figure 2 : Le projet de restructuration informatique pour l’entreprise Macnific SA.

4.2 Cas Pizzaline SARL 30


4.2.1 Description de l’entreprise et contexte du cas étude

L’entreprise Pizzaline SARL est une PME dans le domaine de la restauration présente sur le

marché suisse, à Genève et à Lausanne, depuis quelques années. Le métier de l’entreprise est

la préparation et la livraison de produits alimentaires sur commande.

4.2.2 Analyse

30
LA BUSINESS INTELLIGENCE, EST-ELLE ADAPTÉE AU MONDE DES PME ? FREITAS PAIXÃO RODRIGO

32
4.2.2.1 Situation

La structure physique de l’entreprise Pizzaline SARL consiste en un réseau simple avec une

dizaine de postes. Le système d’exploitation installé par l’organisme est Windows. Le

système d’information est informatisé. Les processus métier sont définis. Actuellement, cette

entreprise travaille avec un progiciel de gestion adapté aux besoins de l’entreprise. Le

progiciel en question est une application VBA personnalisée pour l’administration de

l’organisme. Le progiciel utilise une base de données Access, et est capable de contrôler les

processus de l’entreprise ci-dessous :

• Gestion des horaires (time tracking)

• Gestion des consommations internes

• Gestion des flots financiers

• Gestion des clients

• Gestion des commandes

• Gestion de la comptabilité

• Gestion des ressources humaines

L’application VBA sert également comme outil de reporting. Nous avons la possibilité de

générer des statistiques d’après les données existantes dans la base de données Access, et

faire figurer ces statistiques dans des tableaux Excel. Ces statistiques sont générées

essentiellement dans le but d’ :

• Analyser le nombre de client par région (Stratégie de marketing)

• Analyser le bénéfice actuel de l’entreprise

• Analyser les performances des livreurs

33
Figure 3 : la situation actuelle de l’entreprise Pizzaline SARL

4.2.2.2 Application de la méthode

• Définir les objectifs à atteindre o L’entreprise Pizzaline SARL a comme objectif de trouver

une application de Business Intelligence open source capable de remplacer le système

existant.

• Investissement disponible o Dans le cas où l’étude d’opportunité présente une solution de

Business Intelligence open source adaptée, l’entreprise est prête à négocier un prix pour

l’intégration physique de cette solution.

• Vérifier la source de données o L’entreprise Pizzaline SARL possède une base de donnée

centralisée globale à l’entreprise. Cette base de données contient toutes les informations

concernant les clients, les commandes, les ressources humaines, les flots financiers, etc. Les

données concernant l’année précédente sont sauvegardées dans une autre base de données

34
dans le but de ne pas saturer le système. Néanmoins, ces données restent accessibles pour une

éventuelle consultation.

• Vérifier les technologies utilisées o L’application de Business Intelligence open source

Pentaho a été choisie pour remplacer le système existant. L’objectif est de migrer les données

de la base de données actuelle vers la base de données fournie par le package de solution

open source, préparer les données pour l’exploitation, pour des questions de performance.

Puis définir et normaliser les mises à jour de la base de données de l’application.

• Aligner BI à la stratégie de l’entreprise o L’application de Business Intelligence open source

a comme objectif de remplacer les fonctions de reporting et analyse du système actuel. Elle

reproduit toutes les statistiques générées par le système actuel dans des lay-out plus

sophistiqués.

• Mise en production de la solution o Avant la mise en production de la solution de Business

Intelligence une phase de tests pour vérifier la compatibilité du produit et la maîtrise des

technologies employées est prévue. Néanmoins, le « Go, No go » est une décision que

regarde les managers de l’entreprise.

4.2.2.3 Diagnostic

Dans le cas de l’entreprise Pizzaline SARL le progiciel de gestion utilisé est bien intégré au

système d’information de l’organisme. Il sert comme outil d’aide à la décision aux managers

et comme outil de reporting. Même limité, il répond aux besoins de base de l’organisme. Par

contre, il manque de flexibilité. Par exemple, lorsque nous souhaitons ajouter des

fonctionnalités ou des reports, nous ne pouvons pas éviter l’intervention d’un programmeur

pour exécuter cette tache. De plus, cela peut prendre du temps suivant le type de

fonctionnalité ou reporting demandé. L’étude d’opportunité présente une solution de

Business Intelligence open source adaptée capable de remplacer le système actuel.

Cependant, il y a des contraintes à respecter lors de l’intégration de cette solution. Le temps

35
pour effectuer les tests de compatibilité entre la base de données actuelle et l’application de

Business Intelligence rencontrée peut être long. Autre défaut de cette solution, la mise à jour

de la base de données de l’application de Business Intelligence. Il faut définir et normaliser

des migrations journalières de données de la base de données actuelle, qui se trouve au niveau

opérationnel vers la base de données fournie par le package de solution open source.

4.2.3 Conclusion

L’informatique décisionnelle pratiquée dans cette entreprise satisfait les besoins de base de

l’organisme. Malgré le manque de flexibilité de ce système, il n’est pas nécessaire de le

changer dans l’immédiat. Cela parce que le marché suisse, en ce qui concerne la restauration,

ne change guère. Les variations dans ce secteur sont prévisibles d’après l’expérience de

l’entreprise. Par contre, à long terme, si l’entreprise souhaite accompagner les évolutions

technologiques du marché et gagner ainsi une position forte dans un futur proche, l’adoption

d’une application de Business Intelligence reste envisageable. L’étude d’opportunité réalisée

montre que l’adoption d’une solution de Business Intelligence open source est une solution à

moyen long terme. L’implémentation de cette solution est une décision que regarde les

managers de l’entreprise.

36
Conclusion générale

La gestion de la performance, au sens que nous lui donnons, nécessite de modéliser la relation
causale entre les déterminants et les indicateurs de performance. Cette idée de considérer les
déterminants de la performance n'est pas nouvelle (Haouet, 1993).
Mais les difficultés du passé ne le sont plus aujourd'hui. Le développement de l'informatique
permet de se concentrer sur de nouveaux indicateurs selon le processus (comme des
exemples de production). La mise en œuvre de méthodes de gestion de la performance
nécessite des données provenant de diverses sources internes et externes à l'entreprise.
Par conséquent, l'architecture informatique doit être considérée. En effet, mettre en place un
modèle d'analyse de la performance (comme un tableau de bord équilibré) dans une
entreprise avec une architecture informatique basée sur un entrepôt de données, c'est se
rendre compte que la création de la performance dépend de la gestion des processus et des
37
activités.

Sans dire que l'utilisation de l'entrepôt de données permet d'optimisation du traitement de


l'information. Le management de la performance nécessite des informations en quantité, de
qualité et dans délais courts. L'entrepôt de données autorise cette possibilité et aide à
naviguer dans des données disponibles31

web graphie :
https://www.salesforce.com/fr/blog/2016/06/une-breve-histoire-de-la-business-
intelligence.html

https://www.cogitis.fr/blog/business-intelligence-origines-a-nos-jours/

https://www.pegase.ma/actualites/181-business-intelligence-comment-mieux-tirer-profit-de-
sa-solution-bi

https://www-igm.univ-mlv.fr/~dr/XPOSE2006/DELTIL_PEREIRA/processus.html

https://mtranchant.developpez.com/tutoriels/Business-Intelligence/qu-est-que-informatique-decisionnelle/

https://www.ionos.fr/digitalguide/web-marketing/analyse-web/dwh-quest-ce-quun-data-warehouse/

https://grim.developpez.com/articles/concepts/olap/

https://mtranchant.developpez.com/tutoriels/Business-Intelligence/qu-est-que-informatique-decisionnelle/

https://www.tableau.com/fr-fr/learn/articles/data-visualization

https://whatis.techtarget.com/fr/definition/Metadonnees
31
PAGE 27)\LIRE PLUS : HTTPS://FR.SCRIBD.COM/DOCUMENT/399900566/INFORMATIQUE-DECISIONNEL-ET-MANAGEMENT

38
https://www.google.com/amp/s/blog.arcoptimizer.com/business-intelligence-vs-business-analytics-le-meilleur-
choix-pour-votre-entreprise/amp

39
40

Vous aimerez peut-être aussi