Intelligence D'affaire
Intelligence D'affaire
Intelligence D'affaire
L’intelligence d’affaire
Elaboré par :
El khamlichi Hamza {Apogée :16 04 12 43 }
El khamlichi Najim {Apogée : 17 01 20 95 }
Encadré par :
M. El kettani Moumou
Année universitaire : 2020/2021
Remerciement
On remercie dieu le tout puissant de nous
donné la santé et la volonté d'entamer et de
terminer ce mémoire.
Remerciement
Sommaire
Glossaire
Liste des abréviations
Objectif De l’étude (motivation)
Introduction générale………………………………………………………….....8
4.1.2: analyse………………………………………………………………...
4.1.2.1 : situation…………………………………………………………...
4.1.2.3 Diagnostic…………………………………….................................
4.2.2.3 Diagnostic………………………………………………………………………………………
4.2.3 Conclusion………………………………................................................
Conclusion générale……………………………………………………………
Web graphie
Glossaire
Démarrage et premier outil Lorsque la plupart des données sont stockées dans des documents
papier, l'élaboration d'un plan de business intelligence est utopique. Ainsi, au cours des deux
dernières décennies, l'intelligence d'affaires n'est restée qu'à l'état de concepts et de
prédictions futures, mais avec les progrès technologiques et le stockage de données
informatiques, son potentiel est devenu de plus en plus évident. À la fin des années 1970 et
dans les années 1980, l'informatisation des entreprises s'est focalisée sur la perspective de la
production : écritures et calculs pour la comptabilité, la paie, l'inventaire, les factures, etc. Le
système n'est pas conçu pour lancer des requêtes analytiques. Ces derniers, de par leur poids,
provoquent des erreurs et des ralentissements dans la base de données... et irritent les
opérateurs de saisie ! Le premier centre d'information est apparu au début des années 1980 :
Un serveur séparé qui stocke des copies des données de production pour analyse. Il s'agit
généralement d'une copie partielle et mise à jour mensuellement, mais il fournit un aperçu
des activités passées et des informations utiles pour les décisions de la haute direction. La
séparation entre la production et l'informatique décisionnelle fait entrer la business
1
HTTPS://WWW.SALESFORCE.COM/FR/BLOG/2016/06/UNE-BREVE-HISTOIRE-DE-LA-BUSINESS-
INTELLIGENCE.HTML
1
intelligence dans l'ère moderne.2
La standardisation de la business intelligence sera développée avec Howard Dresner dans les
années 1990, qui a réutilisé le terme business intelligence et proposé des concepts et
méthodes pour améliorer les processus d'aide à la décision. Les améliorations se traduisent
par deux aspects : l'extraction et le stockage des données et les nouvelles fonctions d'analyse.
Les outils ETL (extraire, transformer, charger) permettent la création d'entrepôts de données
(entrepôts de données ou data marts). L'entrepôt crée et agrège les données de différentes
applications de gestion des opérations et facilite un accès approprié et rapide aux requêtes BI.
Le logiciel d'analyse de données possède une interface conviviale et aide à récupérer les
données via la couche sémantique métier, surmontant ainsi certains langages de requête
difficiles.
Différents types de retours peuvent être développés : des listes de contrôle de saisie ou de
comptage pour les gestionnaires d'applications aux rapports de synthèse et tableaux de bord
pour les décideurs. 3
2
HTTPS://WWW.SALESFORCE.COM/FR/BLOG/2016/06/UNE-BREVE-HISTOIRE-DE-LA-BISINESS-
INTELLIGENCE.HTML
3
HTTPS://WWW.COGITIS.FR/BLOG/BUSINESS-INTELLIGENCE-ORIGINES-A-NOS-JOURS/
2
formelles et factuelles (statistiques) et données informelles (vues et comportements sur les
réseaux sociaux). Un défi qui transcende les compétences humaines, pas un défi de traitement
du big data via le machine learning (machine learning). Grâce aux super algorithmes,
l'analyse actuelle des données non structurées a produit des modèles prédictifs (data mining)
couvrant l'ensemble des activités de l'entreprise : comptabilité, budgétisation, et même
relation client, organisation interne, ressources humaines... la direction générale bénéficie
d'une vue à 360° l'état de son activité mondiale en temps réel. Il bénéficie également de
prévisions plus granulaires, qui facilitent la prise de décision. 4
Aujourd'hui, la business intelligence est devenue un outil indispensable pour les entreprises
marocaines face à un environnement de plus en plus complexe et concurrentiel, avec le
développement du big data, l'information devient une force de guerre. La BI vous permet de
mieux utiliser les données en les analysant et en les modélisant sous une forme qui aide à la
prise de décision. C'est l'allié des managers qui souhaitent rester réactifs et tournés vers
l'avenir dans la prise de décision. Elle les aide à assurer la performance de l'entreprise face
aux évolutions rapides de l'environnement.5
Une solution BI bien intégrée peut apporter de nombreux avantages. Mais cela ne s'applique
pas forcément à toutes les entreprises, et des erreurs surviennent souvent lors de la mise en
œuvre des solutions de BI. En d'autres termes, avec le bon support et les meilleures pratiques,
nous pouvons vraiment bénéficier de l'intelligence d'affaires.6
Parmi les avantages de l'intelligence d'affaires, nous trouvons :
Améliorer la performance des employés grâce à la BI : L'intelligence d'affaires peut vous
aider à tous les niveaux de gestion, y compris les ressources humaines. Les managers sont
très intéressés à intégrer l'utilisation de cette intelligence d'affaires pour mieux fédérer et
animer leurs équipes.7
4
HTTPS://WWW.SALESFORCE.COM/FR/BLOG/2016/06/UNE-BREVE-HISTOIRE-DE-LA-BUSINESS-
INTELLIGENCE.HTML
5
HTTPS://WWW.PEGASE.MA/ACTUALITES/181-BUSINESS-INTELLIGENCE-COMMENT-MIEUX-
TIRER-PROFIT-DE-SA-SOLUTION-BI
6
HTTPS://WWW.PEGASE.MA/ACTUALITES/181-BUSINESS-INTELLIGENCE-COMMENT-MIEUX-
TIRER-PROFIT-DE-SA-SOLUTION-BI
3
Améliorer la relation client :
Avec l'aide de la business intelligence, nous pouvons mieux surveiller les données et trouver
plus tôt les clients insatisfaits en amont. De cette façon, les actions nécessaires peuvent être
prises avant que le problème ne se propage et n'affecte l'image de marque de l'entreprise.8
La Business Intelligence ne se limite pas à l'analyse descriptive, elle intègre de plus en plus
des outils d'analyse prédictive. Une telle analyse peut faire des prédictions précises afin de
prendre les décisions les plus pertinentes pour la croissance de votre entreprise. Cela inclut
également la prévision des flux de revenus futurs. De tels outils permettent à la direction de
prendre les bonnes décisions pour assurer l'efficacité de l'entreprise, mais pas seulement. Les
vendeurs peuvent l'utiliser pour rendre leurs actions plus pertinentes, par exemple en
sélectionnant les clients potentiels avec le taux de conversion le plus élevé.9
Sur la base de cette introduction générale sur l'intelligence d'affaires, il y a deux questions de
base qui s'imposent et nous essaierons d'y répondre dans nos recherches, et elles sont les
suivantes:
Et Dans le dernier chapitre, nous aborderons une étude de cas d'une entreprise utilisant
l'intelligence d'affaires.
7
HTTPS://WWW.PEGASE.MA/ACTUALITES/181-BUSINESS-INTELLIGENCE-COMMENT-MIEUX-
TIRER-PROFIT-DE-SA-SOLUTION-BI
8
HTTPS://WWW.PEGASE.MA/ACTUALITES/181-BUSINESS-INTELLIGENCE-COMMENT-MIEUX-
TIRER-PROFIT-DE-SA-SOLUTION-BI
9
HTTPS://WWW.PEGASE.MA/ACTUALITES/181-BUSINESS-INTELLIGENCE-COMMENT-MIEUX-
TIRER-PROFIT-DE-SA-SOLUTION-BI
4
Chapitre 1 : les étapes du processus De l’intelligence
d’affaires :
Avant d'explorer les bonnes pratiques pour des projets réussis, il est important de rappeler que
les projets de business intelligence doivent respecter les étapes qui permettent la construction
des chaînes de décision.
Pour maîtriser votre chaîne de décision, vous avez besoin d'une approche bien conçue et
méthodique. Vous devez d'abord fournir des informations fiables pour votre base de données,
modéliser ces informations pour faciliter l'analyse, puis restituer les données sous une forme
lisible et exploitable grâce à divers outils : outils de reporting, tableaux de bord, outils
statistiques.
La BI est assurée par quatre fonctions de base, à savoir la collecte ou la fourniture,
l'intégration, la diffusion ou la distribution et la valorisation.
La première étape de collecte des données permettra à terme de générer les métriques
nécessaires autour du SID. Pour cette raison, il est nécessaire de trouver les données là où
elles
se trouvent. Les données d'application métier sont stockées dans une ou plusieurs bases de
Par conséquent, la collecte est un ensemble de tâches qui comprend la détection, la sélection,
l'extraction et le filtrage des données brutes des environnements connexes pour obtenir des
indicateurs utiles dans le contexte de l'aide à la décision. Les sources de données internes
et/ou
fonction est la plus difficile à mettre en place dans un système décisionnel complexe.
10
HTTPS://WWW-IGM.UNIV-MLV.FR/~DR/XPOSE2006/DELTIL_PEREIRA/PROCESSUS.HTML
5
Ainsi, les données applicatives sont extraites, transformées et chargées dans le datawarehouse
(ou datawarehouse) via des outils de type ETL (Extract-Transform-Load) Ou ETC français
(Extract-Convert-Load).
Par conséquent, les outils ETL permettent de synchroniser tous types de données dans notre
ETL repose sur des connecteurs qui permettent l'extraction ou l'import de différents types de
données (tout type de base de données, fichier xml ou autre format, etc.) et des convertisseurs
qui traitent les données : agrégation, filtres, conversion et mapping. Ainsi, un tel outil va
prendre les données de l'entreprise, les convertir en mutualisation et les mettre à disposition
Ces opérations peuvent être effectuées périodiquement en utilisant le traitement par lots. Par
exemple, lorsqu'il n'y a plus d'applications en cours d'utilisation, les opérations d'extraction,
de
ETL, elles doivent être structurées dans l'entrepôt de données. En raison des connecteurs qui
permettent d'écrire dans l'entrepôt de données, cette étape est toujours effectuée par ETL.
L'intégration est en fait un prétraitement, conçu pour faciliter l'accès aux données centralisées
Par conséquent, l'intégration comprend la collecte des données collectées dans un espace
unifié, et sa base informatique de base est un entrepôt de données. Ce dernier est l'élément
central du dispositif car il permet aux applications d'aide à la décision de bénéficier d'une
11
HTTPS://WWW-IGM.UNIV-MLV.FR/~DR/XPOSE2006/DELTIL_PEREIRA/PROCESSUS.HTML
6
type de centralisation peut éviter la diversité des sources de données.
Dans cette étape, les données sont transformées et filtrées pour conserver la cohérence globale
(le filtre de la fonction de collecte de l'outil ETL accepte mais peut apporter des valeurs
Enfin, tous les calculs et agrégations communs à l'ensemble du SID sont également effectués
dans cette étape.
Par conséquent, l'accès direct à l'entrepôt de données n'est pas autorisé. En fait, cette
approche
ne répond généralement pas aux besoins des décideurs ou des analystes. L'objectif principal
de
l'étape de diffusion est de subdiviser les données collectées dans des contextes cohérents,
faciles à utiliser et correspondant à des activités de prise de décision spécifiques (telles que
les
pour en faciliter l'utilisation. Chaque contexte peut correspondre à un data mart, bien que le
stockage physique ne soit pas soumis à des règles spécifiques En général, le contexte de
livraison est multidimensionnel : il peut être modélisé sous la forme d'un hypercube, il peut
Enfin, selon l'objectif visé, différents contextes d'un même SID peuvent ne pas tous nécessiter
le même niveau de détail. En fait, de nombreuses agrégations n'intéressent que certaines
12
HTTPS://WWW-IGM.UNIV-MLV.FR/~DR/XPOSE2006/DELTIL_PEREIRA/PROCESSUS.HTML
7
applications et ne sont donc pas considérées comme des agrégations ordinaires. Par
conséquent, ces accumulations ne sont pas gérées par la fonction des points, mais par
diffusion. Ils peuvent être calculés dynamiquement ou stockés de manière persistante.
valeur ajoutée de manière la plus lisible possible dans le cadre de l'aide à la décision. Les
données sont principalement modélisées via des représentations basées sur des requêtes pour
former des tableaux de bord ou des rapports via des outils d'analyse décisionnelle.
La quatrième fonction est la plus évidente pour l'utilisateur, assurant la fonctionnalité du poste
de travail, le contrôle d'accès aux rapports, le traitement des demandes et toute forme de
Le reporting est l'application la plus utilisée en business intelligence, qui permet aux
décideurs de :
comparaisons, etc.)
graphiques.
Les procédures de reporting permettent de modifier certains critères pour améliorer l'analyse.
Des instruments de type tableau de bord équipés de fonctions d'analyse multidimensionnelle
de type Olap sont également utilisés dans la dernière étape du SID.
L'analyse des données devrait être en mesure de suggérer la bonne direction pour guider
votre prise de décision dans le sens de la réalisation des objectifs organisationnels. Tout cela
est réalisé grâce à des outils de business intelligence qui soutiennent efficacement les
13
HTTPS://WWW-IGM.UNIV-MLV.FR/~DR/XPOSE2006/DELTIL_PEREIRA/PROCESSUS.HTML
8
décideurs tout au long du processus.14
Les recommandations de cet chapitre présentent les différents éléments nécessaires à la mise
en œuvre d'une solution d'aide à la décision, de l'extraction des données à la récupération des
données sous des formes agrégées, composites et standardisées.
(ETL), ces outils sont à la base de la construction d'un entrepôt de données. Ils extraient des
données de systèmes sources hétérogènes, les normalisent et les rendent cohérentes les unes
avec les autres afin qu'elles puissent être utilisées ensemble. Les données sont fournies dans
HTTPS://WWW.PEGASE.MA/ACTUALITES/162-BUSINESS-INTELLIGENCE-QUEL-INTERET-POUR-
14
MON-ENTREPRISE-AU-MAROC
15
HTTPS://MTRANCHANT.DEVELOPPEZ.COM/TUTORIELS/BUSINESS-INTELLIGENCE/QU-EST-QUE-INFORMATIQUE-DECISIONNELLE/
16
HTTPS://MTRANCHANT.DEVELOPPEZ.COM/TUTORIELS/BUSINESS-INTELLIGENCE/QU-EST-QUE-INFORMATIQUE-DECISIONNELLE/
9
ultérieurement sans que les décideurs et les analystes n'aient à recalculer.
Selon les résultats à obtenir, une fois les données importantes localisées dans le système
source, l'outil doit les extraire selon une fréquence déterminée (plan).
Stockez-les ensuite temporairement (stockage temporaire). Cette étape et les types de fichiers
sélectionnés pour ce stockage (fichiers plats, XML, tables relationnelles, etc.) sont
déterminants, car ils permettent de filtrer et de combiner les données pour les rendre
homogènes :
Le format est critique, notamment dans le cas de données encodées (par exemple, des
abréviations difficiles à convertir) ou de dates qui doivent être décomposées en un
ensemble de champs (année, mois, jour, heure, minute, etc.), dont chaque élément
d'information pertinent .
L'agrégation est un ensemble d'opérations possibles effectuées sur des données. Les plus
courants sont la somme, la moyenne, le nombre, la somme cumulée, le minimum et le
maximum. Compte tenu du niveau de granularité de l'entrepôt.
ces opérations seront envisagées. Ces tâches déterminent la qualité des données dans le
système de prise de décision. Par conséquent, cette étape semble être "l'étape la plus
10
importante et la plus complexe effectuée lors de la mise en place d'un entrepôt de données".
Par définition, un entrepôt de données (DWH) est un système de base de données indépendant
du système informatique opérationnel, dans lequel des données de sources diverses, parfois
même très hétérogènes, sont combinées, compressées et archivées longuement. De
nombreuses organisations transfèrent souvent les données historiques des systèmes de
traitement des données opérationnelles vers ces entrepôts de données et les préparent pour un
accès ultérieur afin d'effectuer une analyse stratégique en intelligence d'affaires (ou BI).
Ainsi, les données opérationnelles deviennent des données de décision :
Données opérationnelles : Il s'agit des informations transactionnelles générées par l'entreprise
au travers des activités quotidiennes, notamment par le système de gestion et de facturation
Les sources de données traditionnelles sont les systèmes de traitement des données
opérationnelles, tels que les procédures comptables, les logiciels de gestion intégrée (ERP ou
ERP pour la planification des ressources d'entreprise), ou les systèmes d'information et de
contrôle.
Données décisionnelles : lorsque les données d'exploitation sont collectées en un seul
endroit, stockées pendant une longue période et préparées pour l'analyse, on parle de données
décisionnelles.
Un DWH apporte aux analystes un aperçu complet des ensembles de données hétérogènes et
permet l’agrégation des statistiques opérationnelles dans le cadre du traitement analytique en
ligne (en anglais Online Analytical Processing, OLAP). En tant que point central de collecte
de toutes les données d’entreprise pertinentes, l’entrepôt de données est utilisé pour la gestion
des connaissances en interne. Les utilisateurs n’ont généralement accès qu’en lecture seule.
Un DWH sert de base de données pour les méthodes d’exploration de données (data mining)
et reste le support à toutes les études relatives à la gestion de la performance et à l’orientation
stratégique de l’entreprise.
17
HTTPS://WWW.IONOS.FR/DIGITALGUIDE/WEB-MARKETING/ANALYSE-WEB/DWH-QUEST-CE-QUUN-DATA-WAREHOUSE/
11
2.3.2 : Structure d’un DWH : architecture d’un data warehouse
Couche de collecte de données : Avant que les données puissent être téléchargées sur DWH,
des informations généralement très hétérogènes doivent d'abord être unifiées pour une
présentation unifiée. L'entrepôt de données s'alimente automatiquement à partir des sources
de données internes de l'entreprise et des sources de données externes associées :
Données internes : système d'exploitation : logiciel de gestion intégré (ERP ou ERP),
système de gestion de la relation client (CRM) ; base de données opérationnelle ; système de
gestion de contenu (CMS) ; base de données orientée texte, fichiers plats (tels que Excel,
CSV, fichiers texte,) , Courriel, etc.
Données externes : applications et systèmes de fournisseurs de services externes, sites Web,
médias sociaux, services cloud, etc.
12
données :
Déclencheurs ou déclencheurs : si le système d'exploitation de l'entreprise prend en charge les
déclencheurs de base de données, ils peuvent être utilisés pour extraire automatiquement des
données. Les déclencheurs vous permettent de définir des actions à exécuter
automatiquement lorsque certains événements se produisent. Généralement, l'événement
déclencheur est lié à une modification de la base de données du système source, ce qui
entraîne l'extraction des données modifiées dans le DWH.
Fichiers journaux : si le système d'exploitation ne prend pas en charge les déclencheurs ou les
déclencheurs, le niveau de collecte de données de DWH peut inclure des programmes
pouvant évaluer les fichiers journaux (ou fichiers journaux) du système source et extraire les
transactions qui y sont enregistrées.
Programme de surveillance : si les déclencheurs ou les fichiers journaux ne peuvent pas être
utilisés pour l'extraction, un programme de surveillance est généralement utilisé. Ils utilisent
des algorithmes pour extraire les modifications apportées aux ensembles de données du
système d'exploitation. Ces algorithmes créent périodiquement des instantanés (snapshots)
des données à surveiller et les synchronisent avec les données précédentes.
Si aucune des technologies ci-dessus n'est prise en charge, car l'accès aux données dans le
système d'exploitation est impossible, ces modifications doivent être enregistrées
indépendamment et les modifications correspondantes doivent être communiquées à
l'entrepôt de données.
En termes d'intégration de données, la plupart des DWH fournissent des fonctions OLAP,
permettant de présenter les fichiers dans une structure multidimensionnelle. Le traitement
analytique en ligne (OLAP) est une méthode d'analyse utilisée pour compressier les données
de gestion et les documents commerciaux. Le fonctionnement est basé sur le processus ETL :
13
Transformation : Ajustez les données extraites pendant le processus de conversion et
convertissez-les uniformément au format de la base de données cible.
Load : La phase de chargement consiste à sauvegarder les données converties dans chaque
base de données cible de DWH.
La couche d'acquisition et de traitement des données de DWH peut contenir une zone dite de
stockage temporaire (également appelée zone de stockage temporaire). Il s’agit d’une zone
temporaire de la base de données dans laquelle les données à charger sont prétraitées. Un tel
processus de traitement peut être particulièrement nécessaire dans les processus ETL
complexes.
Comme un data warehouse rassemble des données provenant de sources très diverses,
l’intégration des données est basée sur différents outils qui permettent la transformation et
l’ajustement des données extraites. Ils peuvent être classés dans les catégories suivantes :
permettent de définir des règles de transformation simples pour convertir des données
Outils de nettoyage des données : pour le nettoyage des données, des programmes
basés sur la logique floue (fuzzy logic) ainsi que les réseaux neuronaux artificiels sont
utilisés. L’objectif est d’améliorer la qualité des données en éliminant les erreurs, les
Outils d’audit des données : les outils de vérification des données sont utilisés dans
l’intégration des données pour déterminer les règles et les relations entre les données.
En outre, les programmes de ce type vous permettent aussi d’identifier les données qui
enfreignent les règles définies ce qui signifie qu’il s’agit probablement d’erreurs.
L’intégration des données est suivie par le transfert des données extraites dans la base de
14
données centrale, le « core data warehouse ». Cette étape est supportée par des programmes
Le niveau d’archivage des données est un élément central de l’entrepôt des données. Il s’agit
de ce que l’on nomme le « Core Data Warehouse ». Les données extraites sont généralement
stockées dans le DWH sous forme de matrices multidimensionnelles, ce que l’on appelle
des schémas en étoile ou en flocon, pour des analyses futures dans le cadre d’un archivage à
long terme. Toutefois, cela fait rarement référence à l’ensemble du stock de données d’un
DWH. Pour permettre une analyse efficace, il est donc d’usage de créer des segments de
magasin de données).
Un datamart est une copie d’une partie d’une base de données, qui est généralement
certains cas toutefois, des datamarts dits indépendants sont aussi utilisés, ce qui permet de
disposer en permanence d’une section, d’un extrait de données séparé à long terme.
Diagram (ERD), c’est à dire une représentation graphique de la structure de table d’une base
de données dans laquelle sont illustrées les différentes entités ainsi que leur relation entre
elles. Le schéma en étoile est donc utilisé pour visualiser des structures de données
15
multidimensionnelles.
Chaque schéma en étoile est constitué d’une table des faits et de plusieurs tables de dimension
La table de faits contient ce que l’on appelle les faits : chiffres clefs et résultats d’une
faits. Une table de dimension est un ensemble d’informations de référence sur les
Ce niveau de données sert d’interface avec les applications finales et les outils de
permettent d’extraire des informations des entrepôts de données et de les traiter sous
Les outils de reporting offrent à l’utilisateur final différentes fonctions pour créer
automatiquement émis à intervalles réguliers ou sur demande. Pour que l’utilisateur final
puisse facilement demander des renseignements au DWH, ces requêtes peuvent être
18
HTTPS://GRIM.DEVELOPPEZ.COM/ARTICLES/CONCEPTS/OLAP/
16
Pour mieux comprendre OLAP et les technologies gravitant autour, intéressons-nous à la
l'explication d'un phénomène, la proposition d'une solution pour optimiser les ventes, des
améliorer l'entreprise.
De par sa nature, l'analyse n'est pas un processus que l'on peut guider ou formater. La
recherche de la cause de la baisse des profits, par exemple, peut impliquer des recherches
du côté des succursales, des ventes, des prix des fournisseurs, des taxes locales, etc. Le
raison d'un phénomène par les données qu'il possède, et ce processus n'est presque jamais
linéaire.
Un exemple
Imaginez que l'on demande à un analyste d'expliquer le fait que les profits de l'entreprise
aient baissé durant les trois derniers mois. Voici un des cheminements que pourrait suivre
un analyste :
voir le volume des ventes sur les trois derniers mois : les ventes n'ont pas baissé ;
voir les coûts de revient des produits sur les trois derniers mois : les coûts ont sensiblement
voir les coûts de revient des produits par zone de production sur les trois derniers mois : les
pour les produits en question, pour les trois derniers mois, voir le coût de production par
17
usine, ainsi que le coût moyen de la main-d'œuvre et la taxe et comparer ces valeurs avec
celles des trois mois avant l'augmentation : les coûts sont à peu près les mêmes, la raison
pour les produits en question, comparer le coût de la matière première avec les chiffres des
trois mois avant la hausse des coûts : BINGO ! Le prix de la matière s'est envolé ces trois
derniers mois. Il faut maintenant voir les raisons de cette augmentation, revoir les contrats
Observez bien ce processus. Nous avons commencé par un simple tableau des profits sur
l'année et nous avons fini par une synthèse des prix des matières premières pour une liste
de produits fabriqués en Asie, et pour les trois derniers mois … Est-ce que des rapports
peuvent supporter un tel processus ? Difficilement, les rapports sont parfaits pour distiller
une information précise, structurée. Mais supporter un tel processus cognitif impliquerait
Remarquez aussi les différents niveaux d'agrégation par lesquels notre analyste est passé.
L'analyse a commencé par un cumul annuel, et s'est vite transportée vers des cumuls par
usine sur une période donnée, sur une zone géographique donnée. Cette charge de travail
serait très difficilement supportable par une base de données de production OLTP
impliquerait d'utiliser une structure orientée analyse à l'inverse des bases OLTP qui sont
orientées production.
Après ce petit exemple, posons-nous la question suivante : quelles sont les caractéristiques
trouve dans un document qu'a écrit monsieur CODD à ce sujet et qui se nomme
18
« Providing On-Line Analytical Processing to Users Analysts ». Dans ce document,
monsieur CODD énumérait douze règles qui permettaient à une technologie de faire de
l'analyse sur les données. Six règles furent ajoutées deux ans après la publication de ce
document.
Ces règles, disponibles sur le Web, énoncent les caractéristiques qu'un outil doit avoir pour
pouvoir se qualifier d'outil OLAP. On peut facilement voir que la plupart des outils
proposés sur le marché se définissant comme tels ne respectent pas toutes les règles. Deux
qui a tenté d'unifier les définitions des concepts du OLAP, a publié un document avec une
« …Plus récemment, les fabricants de bases de données relationnelles se sont mis à vendre
leurs bases de données comme étant des outils pour construire des entrepôts de données.
Un entrepôt de données garde les informations tactiques (stratégiques) qui répondent aux
dans un entrepôt de données serait : « Quel a été le revenu total pour la région Est dans le
troisième trimestre ?
« Il est important de distinguer les capacités d'un entrepôt de données de celles d'un
système OLAP (On-Line Analytical Processing). À l'inverse des entrepôts de données, qui
se basent sur une technologie relationnelle, OLAP utilise une vue multidimensionnelle de
données agrégées pour fournir un accès rapide à l'information stratégique pour des
les données via un accès rapide, consistant et interactif à une large variété de vues
possibles de l'information. OLAP transforme les données du plus bas niveau afin de
19
montrer leur véritable dimension dans l'entreprise, selon la compréhension de l'utilisateur.
« Les systèmes OLAP permettent non seulement de répondre aux questions de type qui ?
et quoi ?, mais permettent aussi de répondre aux « que se passe-il si …? (what-if) » et aux
pourquoi ? Chose qui les distingue des entrepôts de données. OLAP permet la prise de
décision sur des actions futures. Un calcul OLAP typique est plus complexe qu'une simple
somme sur les données, par exemple : que serait l'effet sur les coûts des distributeurs de
soft Drink si le prix du sirop augmentait de 0.10 $ le gallon et que le coût de transport
baissait de 0.05 $/mile?
stratégiques. OLAP peut passer d'une navigation basique (connue aussi comme « slice and
dice »), à des calculs ou des analyses plus sérieuses comme les séries temporelles ou la
En résumé, cet organisme définit OLAP comme étant l'ensemble des technologies qui, se
basant sur une représentation multidimensionnelle des données, permet aux analystes et
Plus récemment, The Olap Report, un autre organisme normalisateur sur les notions OLAP
a tenté de proposer une définition plus simple et digeste que celle du OLAP
Council (qu'ils jugent has-been et, je cite, défunte). Cette définition tourne autour d'un
acronyme :
Cet organisme définit les outils OLAP comme étant des outils basés sur une vue
l'organisme précise que cette vue est totalement indépendante de la technologie utilisée
20
pour le stockage. Pour peu que l'outil réponde aux critères qui suivent.
Un outil OLAP, selon The Olap Report doit être rapide (Fast), doit permettre de faire des
que cela implique en terme de sécurité et de gestion d'accès concurrent (Server). Un outil
OLAP doit, comme dit plus haut, se baser sur une vue multidimensionnelle des données
ses outils (Information). Ces critères ont été simplifiés par l'acronyme FASMI.
Cette définition, plus simpliste que la première, n'entre pas en désaccord avec la
précédente ni avec la vision de CODD sur ce qu'est un outil OLAP. Je regrette cependant
cette tentative de création d'une autre définition censée être universelle, mais qui n'ajoute,
en fin de compte, qu'une autre définition aux innombrables tentatives existantes sur le
solution B.I, chose qui n'est pas, selon The Olap Report, le cas de la définition de CODD.
Nous allons essayer d'éliminer les légendes urbaines du B.I dans cette partie, en définissant
OLAP, Quézako ?
commerciaux) traitant de ce sujet. Nous nous apercevrons que le mot OLAP, acronyme de
décision stratégique rapide et fiable sur des données modélisées en multi dimensionnel.
Ces technologies, pour mériter le label OLAP, doivent obéir aux règles de CODD :
21
techniques doivent être invisibles à l'utilisateur final ;
accessibilité : les outils OLAP doivent permettre d'accéder les données de façon à produire
de la connaissance rapide. Une information pertinente et on-time doit être fournie en tout
temps ;
rapidité : les montées de charges ne doivent pas freiner l'analyste. L'outil doit pouvoir
Architecture Client Serveur : pour un accès uniforme et des traitements plus rapides et plus
sophistiqués ;
dimensions génériques : essayer, autant que possible, d'avoir une unicité dans la définition
gestion des matrices creuses : en mathématiques, les matrices creuses sont des matrices qui
cette spécificité pour optimiser le stockage de ce type de matrices. Les performances sont,
en général, au rendez-vous. Les outils OLAP doivent avoir cette capacité d'optimisation
multiutilisateurs : les outils OLAP sont, par définition, destinés à un accès concurrent ;
intuitifs : les utilisateurs d'outils OLAP ne sont pas forcément informaticiens. Il est donc
affichage flexible : l'utilisateur doit pouvoir aisément « arranger » son résultat au format
désiré ;
En plus de ces règles, six autres conditions se sont ajoutées. Ces conditions traitent
22
de l'interopérabilité avec les solutions de l'entreprise et de la gestion des cas spéciaux
Comme vous pouvez le voir, ce n'est pas si compliqué que cela de parler BI
« proprement ». Les concepts présentés plus haut sont la base et la condition sine qua
non que toute personne doit posséder pour bien apprendre les concepts du BI et ne pas se
laisser bercer par les douces sérénades commerciales des vendeurs d'outils BI. N'oublions
pas que leur but est de créer des clients fidèles, même si cela doit passer par de la
peuvent manipuler les données contenues dans les entrepôts de données et les marchés. Les
avantages de ces outils sont l'édition de rapports et la facilité de traitement. En effet, toute la
structure du système décisionnel est conçue pour demander des résultats aux utilisateurs dans
intuitif et convivial.19
Lorsque vous parlez de visualisation de données, la première chose qui vous vient à l'esprit
peut être des graphiques ou des camemberts. Bien que ces types de graphiques soient des
éléments répétitifs, chaque visualisation possède son propre ensemble d'informations. Les
graphiques les plus courants peuvent ne pas répondre le mieux à vos besoins. Il existe de
nombreuses méthodes de visualisation qui peuvent être utilisées pour présenter les données de
19
HTTPS://MTRANCHANT.DEVELOPPEZ.COM/TUTORIELS/BUSINESS-INTELLIGENCE/QU-EST-QUE-INFORMATIQUE-DECISIONNELLE/
23
manière efficace et attrayante.
Graphique par aires, Graphique à barres, Boîte à moustaches, Nuage de bulles, Graphique à
2.6 : métadonnées21
Les métadonnées sont des données décrivant d'autres métadonnées. Dans la plupart des
Les métadonnées intègrent des informations de base sur les données et facilitent la recherche
création, la date de modification et la taille du fichier. Les métadonnées et leur filtrage des
données d'inférence permettent de localiser des documents spécifiques. En plus des fichiers
de documents, les métadonnées sont également utilisées pour les images, les vidéos, les
sur le web
Dans les pages web, ils sont très utiles : ils décrivent le contenu de la page et contiennent des
mots-clés pertinents. Ils prennent généralement la forme de balises META. Les moteurs de
recherche affichent généralement des métadonnées décrivant et des pages Web agrégées dans
leurs résultats. Les moteurs de recherche les analysent souvent pour déterminer la pertinence
des pages, et jusqu'à la fin des années 1990, ils étaient cruciaux pour le classement des pages
20
HTTPS://WWW.TABLEAU.COM/FR-FR/LEARN/ARTICLES/DATA-VISUALIZATION
21
HTTPS://WHATIS.TECHTARGET.COM/FR/DEFINITION/METADONNEES
24
dans les résultats. Avec le développement de la technologie SEO (Search Engine
Optimization) à la fin des années 1990, de nombreux sites Web remplis de mots-clés ont
incité les moteurs de recherche à paraître plus pertinents que les autres sites Web. Depuis
lors, la dépendance des moteurs de recherche vis-à-vis des balises META a diminué. Pour
empêcher les sites Web de contourner leurs systèmes, de nombreux moteurs de recherche
modifient régulièrement leurs critères de classement. Google est notoirement connu pour
22
HTTPS://WWW.GOOGLE.COM/AMP/S/BLOG.ARCOPTIMIZER.COM/BUSINESS-INTELLIGENCE-VS-BUSINESS-ANALYTICS-LE-MEILLEUR-
CHOIX-POUR-VOTRE-ENTREPRISE/AMP
25
3.2 : Intelligence d'affaires et analyse d'affaires-Rapport et
analyse 23
Pour surveiller les performances de chaque secteur d'activité, il est important de disposer
de capacités de reporting et Analyse. Le rapport agrège les données et les f isournit dans
un format simple et reconnaissance. Par conséquent, la présentation des do itnnées
pertinentes est soulignée. La fonction d'analyse est un processus d'exploration de données.
Cela fournit des informations significatives. Utilisez ensuite ces informations pour améliorer
les performances de l'entreprise.Ainsi, Analytics insiste sur l'interprétation dennes .
23
HTTPS://WWW.GOOGLE.COM/AMP/S/BLOG.ARCOPTIMIZER.COM/BUSINESS-INTELLIGENCE-VS-BUSINESS-ANALYTICS-LE-MEILLEUR-
CHOIX-POUR-VOTRE-ENTREPRISE/AMP
24
HTTPS://WWW.GOOGLE.COM/AMP/S/BLOG.ARCOPTIMIZER.COM/BUSINESS-INTELLIGENCE-VS-BUSINESS-ANALYTICS-LE-MEILLEUR-
CHOIX-POUR-VOTRE-ENTREPRISE/AMP
25
HTTPS://WWW.GOOGLE.COM/AMP/S/BLOG.ARCOPTIMIZER.COM/BUSINESS-INTELLIGENCE-VS-BUSINESS-ANALYTICS-LE-MEILLEUR-
CHOIX-POUR-VOTRE-ENTREPRISE/AMP
26
HTTPS://WWW.GOOGLE.COM/AMP/S/BLOG.ARCOPTIMIZER.COM/BUSINESS-INTELLIGENCE-VS-BUSINESS-ANALYTICS-LE-MEILLEUR-
CHOIX-POUR-VOTRE-ENTREPRISE/AMP
26
3.4.1 Les fonctionnalités de BI incluent :
-Créez un résumé des données historiques que vous souhaitez afficher. C’est ce qu’on appelle
l’analyse descriptive.
-Identifier les nombreuses questions soulevées lors de l’analyse descriptive. C’est ce qu’on
appelle l’analyse diagnostique.
27
La Business Intelligence fait partie de l’analyse commerciale, les utilisateurs professionnels
ont donc tendance à en tirer plus d’avantages.
La Business Intelligence est bien appliquée aux données structurées dans les applications
ERP, telles que les systèmes logiciels financiers. Cela donne un aperçu des transactions
financières précédentes. Ceci est également utilisé dans la chaîne d’approvisionnement et
dans d’autres domaines opérationnels. D’autre part, l’analyse commerciale ne s’applique pas
seulement à la structure, mais aussi en partie aux données semi-structurées, qui sont
transformées en informations significatives pour l’entreprise.
28
HTTPS://WWW.GOOGLE.COM/AMP/S/BLOG.ARCOPTIMIZER.COM/BUSINESS-INTELLIGENCE-VS-BUSINESS-ANALYTICS-LE-MEILLEUR-
CHOIX-POUR-VOTRE-ENTREPRISE/AMP
28
Vos décisions d’achat sont-elles sur les exigences en matière de données de votre entreprise
La BI est spécifiquement destinée aux utilisateurs non Technical et Professionnels. Avec la
Business Intelligence, les non-techniciens pensent qu’il est utile de pouvoir utiliser des outils
frontaux pour créer leurs propres tableaux de bord et manipuler les données à l’aide de
l’analysis.
La Business Intelligence se concentrant sur les conditions au moment de la marée et l’analysis
d’entreprise spécifie à l’avenir. En combinant les deux, vous pouvez améliorer la manière
une entreprise atteint les solutions Commerciales actuelles et futures. Méfiez-vous des autres
articles dévote to Professional connaissance l’intelligence d’affaires et l’analysis
d’affaires peuvent influer sur vos décisions d’achat! Pour savoir ce qui convient le mieux à
votre.
entreprise, contactez aujourd’hui nos Professionnels de l’informatique.
technologies présente sur le marché suisse, à Genève, depuis environ deux ans. C’est
4.1.2: analyse
4.1.2.1 : situation
29
LA BUSINESS INTELLIGENCE, EST-ELLE ADAPTÉE AU MONDE DES PME ? FREITAS PAIXÃO RODRIGO
29
La structure physique de l’entreprise Macnific SA est composée d’un réseau simple
avec une dizaine de postes. Le système d’exploitation installé par l’organisme est
MacOs. Le système d’information n’est pas informatisé. Les processus métier ne sont
pas définis ou normalisés. Des bases de données existent isolément sur différents
30
l’intégration d’une nouvelle technologie dans l’organisme.
• Investissement disponible
open source.
l’entreprise. Dans l’ensemble la quantité d’informations pour les traitements est infime.
La mise en place d’une base de données respectant les contraintes pour faire de la
technologies utilisées.
4.1.2.3 Diagnostic
Dans le cas de l’entreprise Macnific SA, il n’est pour l’instant pas possible d’intégrer
des solutions de Business Intelligence dans le but de fournir une aide à la décision
4.1.3 Conclusion
(cf. annexe 1). Le but est de la préparer l’avenir pour l’informatique décisionnelle.
31
le système d’information en utilisant les outils à disposition de l’organisme, de
données, et d’intégrer les applications pour la saisie des enregistrements des inputs et
l’entreprise est également un point très important lorsque nous implémentons des
L’entreprise Pizzaline SARL est une PME dans le domaine de la restauration présente sur le
marché suisse, à Genève et à Lausanne, depuis quelques années. Le métier de l’entreprise est
4.2.2 Analyse
30
LA BUSINESS INTELLIGENCE, EST-ELLE ADAPTÉE AU MONDE DES PME ? FREITAS PAIXÃO RODRIGO
32
4.2.2.1 Situation
La structure physique de l’entreprise Pizzaline SARL consiste en un réseau simple avec une
système d’information est informatisé. Les processus métier sont définis. Actuellement, cette
l’organisme. Le progiciel utilise une base de données Access, et est capable de contrôler les
• Gestion de la comptabilité
L’application VBA sert également comme outil de reporting. Nous avons la possibilité de
générer des statistiques d’après les données existantes dans la base de données Access, et
faire figurer ces statistiques dans des tableaux Excel. Ces statistiques sont générées
33
Figure 3 : la situation actuelle de l’entreprise Pizzaline SARL
• Définir les objectifs à atteindre o L’entreprise Pizzaline SARL a comme objectif de trouver
existant.
Business Intelligence open source adaptée, l’entreprise est prête à négocier un prix pour
• Vérifier la source de données o L’entreprise Pizzaline SARL possède une base de donnée
centralisée globale à l’entreprise. Cette base de données contient toutes les informations
concernant les clients, les commandes, les ressources humaines, les flots financiers, etc. Les
données concernant l’année précédente sont sauvegardées dans une autre base de données
34
dans le but de ne pas saturer le système. Néanmoins, ces données restent accessibles pour une
éventuelle consultation.
Pentaho a été choisie pour remplacer le système existant. L’objectif est de migrer les données
de la base de données actuelle vers la base de données fournie par le package de solution
open source, préparer les données pour l’exploitation, pour des questions de performance.
a comme objectif de remplacer les fonctions de reporting et analyse du système actuel. Elle
reproduit toutes les statistiques générées par le système actuel dans des lay-out plus
sophistiqués.
Intelligence une phase de tests pour vérifier la compatibilité du produit et la maîtrise des
technologies employées est prévue. Néanmoins, le « Go, No go » est une décision que
4.2.2.3 Diagnostic
Dans le cas de l’entreprise Pizzaline SARL le progiciel de gestion utilisé est bien intégré au
système d’information de l’organisme. Il sert comme outil d’aide à la décision aux managers
et comme outil de reporting. Même limité, il répond aux besoins de base de l’organisme. Par
contre, il manque de flexibilité. Par exemple, lorsque nous souhaitons ajouter des
fonctionnalités ou des reports, nous ne pouvons pas éviter l’intervention d’un programmeur
pour exécuter cette tache. De plus, cela peut prendre du temps suivant le type de
35
pour effectuer les tests de compatibilité entre la base de données actuelle et l’application de
Business Intelligence rencontrée peut être long. Autre défaut de cette solution, la mise à jour
des migrations journalières de données de la base de données actuelle, qui se trouve au niveau
opérationnel vers la base de données fournie par le package de solution open source.
4.2.3 Conclusion
L’informatique décisionnelle pratiquée dans cette entreprise satisfait les besoins de base de
changer dans l’immédiat. Cela parce que le marché suisse, en ce qui concerne la restauration,
ne change guère. Les variations dans ce secteur sont prévisibles d’après l’expérience de
l’entreprise. Par contre, à long terme, si l’entreprise souhaite accompagner les évolutions
technologiques du marché et gagner ainsi une position forte dans un futur proche, l’adoption
montre que l’adoption d’une solution de Business Intelligence open source est une solution à
moyen long terme. L’implémentation de cette solution est une décision que regarde les
managers de l’entreprise.
36
Conclusion générale
La gestion de la performance, au sens que nous lui donnons, nécessite de modéliser la relation
causale entre les déterminants et les indicateurs de performance. Cette idée de considérer les
déterminants de la performance n'est pas nouvelle (Haouet, 1993).
Mais les difficultés du passé ne le sont plus aujourd'hui. Le développement de l'informatique
permet de se concentrer sur de nouveaux indicateurs selon le processus (comme des
exemples de production). La mise en œuvre de méthodes de gestion de la performance
nécessite des données provenant de diverses sources internes et externes à l'entreprise.
Par conséquent, l'architecture informatique doit être considérée. En effet, mettre en place un
modèle d'analyse de la performance (comme un tableau de bord équilibré) dans une
entreprise avec une architecture informatique basée sur un entrepôt de données, c'est se
rendre compte que la création de la performance dépend de la gestion des processus et des
37
activités.
web graphie :
https://www.salesforce.com/fr/blog/2016/06/une-breve-histoire-de-la-business-
intelligence.html
https://www.cogitis.fr/blog/business-intelligence-origines-a-nos-jours/
https://www.pegase.ma/actualites/181-business-intelligence-comment-mieux-tirer-profit-de-
sa-solution-bi
https://www-igm.univ-mlv.fr/~dr/XPOSE2006/DELTIL_PEREIRA/processus.html
https://mtranchant.developpez.com/tutoriels/Business-Intelligence/qu-est-que-informatique-decisionnelle/
https://www.ionos.fr/digitalguide/web-marketing/analyse-web/dwh-quest-ce-quun-data-warehouse/
https://grim.developpez.com/articles/concepts/olap/
https://mtranchant.developpez.com/tutoriels/Business-Intelligence/qu-est-que-informatique-decisionnelle/
https://www.tableau.com/fr-fr/learn/articles/data-visualization
https://whatis.techtarget.com/fr/definition/Metadonnees
31
PAGE 27)\LIRE PLUS : HTTPS://FR.SCRIBD.COM/DOCUMENT/399900566/INFORMATIQUE-DECISIONNEL-ET-MANAGEMENT
38
https://www.google.com/amp/s/blog.arcoptimizer.com/business-intelligence-vs-business-analytics-le-meilleur-
choix-pour-votre-entreprise/amp
39
40