Memoire Blanchard 02
Memoire Blanchard 02
Memoire Blanchard 02
0. INTRODUCTION
0.2. PROBLEMATIQUE
b) Technique Documentaire
4
INFORMATIQUES
2
LUKELE KALUNGA, cours inédit: réseau local et internet, G1 RTM/J,
Esmicom, année académique 2016-2017
7
Contrairement aux réseaux construits sur une topologie en bus, les réseaux suivant
une topologie en étoile sont beaucoup moins vulnérables car une des connexions
peut être débranchée sans paralyser le reste du réseau. Le point névralgique de ce
réseau est le concentrateur, car sans lui plus aucune communication entre les
ordinateurs du réseau n'est possible.
L'armée utilise également cette topologie, ainsi, en cas de rupture d'un lien,
l'information peut quand même être acheminée.
câble à fibre optique mono mode : un seul rayon lumineux est admis dans la
fibre ; plus couteuses, de diamètre plus réduit, elles sont utilisées sur des réseaux
cœurs, anneau optique, câbles sous-marins….. ou les distances et les débits sont
élevés.
1.8. Architecture Des Réseaux
1.8.1. L'architecture Poste A Poste
Dans une architecture d'égal à égal (où dans sa dénomination anglaise
Peer to Peer), contrairement à une architecture de réseau de type client/serveur, il n'y
a pas de serveur dédié. Ainsi chaque ordinateur dans un tel réseau est un peu serveur
et un peu client. Cela signifie que chacun des ordinateurs du réseau est libre de
partager ses ressources. Un ordinateur relié à une imprimante pourra donc
éventuellement la partager afin que tous les autres ordinateurs puissent y accéder via
le réseau.
La politique de sécurité minimale consiste à mettre un mot de passe à
une ressource. Les utilisateurs d’un réseau poste à poste définissent leur propre
sécurité et comme tous les partages peuvent exister sur tous les ordinateurs, il est
difficile de mettre en œuvre un contrôle centralisé. Ceci pose également un problème
de sécurité globale du réseau car certains utilisateurs ne sécurisent pas du tout leurs
ressources.
Avantages
L'architecture d'égal à égal a tout de même quelques avantages parmi
lesquels:
un coût réduit (les coûts engendrés par un tel réseau sont le matériel, les câbles
et la maintenance)
une mise en place simple
Inconvénients
L’architecture d'égal à égal ont énormément d'inconvénients:
ce système n'est pas centralisé, ce qui le rend très difficile à administrer
la sécurité est très peu présente
aucun maillon du système n'est fiable
Ainsi, les réseaux d'égal à égal ne sont valables que pour un petit nombre
d'ordinateurs (généralement une dizaine).
1.8.2. L'architecture Client/serveur
L'architecture client/serveur désigne un mode de communication entre
plusieurs ordinateurs d'un réseau qui distingue un ou plusieurs postes clients du
serveur : chaque logiciel client peut envoyer des requêtes à un serveur. Un serveur
peut être spécialisé en serveur d'applications, de fichiers, de terminaux, ou encore de
messagerie électronique.
De nombreuses applications fonctionnent selon un environnement
client/serveur, cela signifie que des machines clientes (des machines faisant partie du
réseau) contactent un serveur, une machine généralement très puissante en termes de
capacités d'entrée- sortie, qui leur fournit des services. Ces services sont des
programmes fournissant des données telles que l'heure, des fichiers, une connexion,
etc.
Avantages de l'architecture client/serveur
Le modèle client/serveur est particulièrement recommandé pour des
réseaux nécessitant un grand niveau de fiabilité, ses principaux atouts sont :
des ressources centralisées : étant donné que le serveur est au centre du réseau,
il peut gérer des ressources communes à tous les utilisateurs, comme par
exemple une base de données centralisée, afin d'éviter les problèmes de
redondance et de contradiction
une meilleure sécurité : car le nombre de points d'entrée permettant l'accès aux
données est moins important
une administration au niveau serveur : les clients ayant peu d'importance dans
ce modèle, ils ont moins besoin d'être administrés
14
Le modèle OSI
Les couches Les fonctions
7 Application Point de contact avec le service réseau
6 Présentation Ajoute des informations de formatage, d’affichage, de cryptage
5 Session Responsable d’initialisation de la session, sa gestion et sa fermeture
4 Transport Spécifie le numéro de port utilise par l’application émettrice ainsi que
le numéro de port de l’application réceptrice, elle fragmente le
données en plusieurs séquence ou segment
3 Réseau Connexion logique des hôtes, l’identification et le routage dans le
réseau
2 Liaison Etabli une liaison physique entre les hôtes et la division de donnée
en plusieurs trame
18
3) La couche de transport
La couche transport gère les communications de bout en bout entre
processus. Cette couche est souvent la plus haute couche où on se préoccupe de la
correction des erreurs.
4) La couche application
La couche Application est une couche qui offre aux applications des
sous-programmes et protocoles standards. Les utiliser, plutôt que d’intégrer les
fonctions dans un développement spécifique, offre des avantages en termes de
portabilité des processus, d’homogénéité d’architecture, de gains en développement.
II.1. Définition
La télémaintenance est une Technologie de prise de contrôle à distance d'un
ordinateur via un réseau de communication (téléphone , intranet ou Internet) à l'aide l'un
logiciel afin de diagnostiquer, gérer et résoudre les problèmes liés à la machine, certains
de ces périphérique ainsi que certains problème lies a son système d’exploitation.
Figure 1 : télémaintenance
II.2. But
Télémaintenance ont pour but de faciliter l’intervention rapide du technicien
opérant en télémaintenance sur l'ordinateur distant sans être physiquement présent.
II.3. Objectif de la télémaintenance
La télémaintenance permet de dépanner le laboratoire le plus rapidement
possible, avec un minimum d’indisponibilité. C’est donc un gain de temps et d’efficacité
pour le laboratoire. Elle permet aussi d’explorer toutes les parties d’un automate, à partir
d’un PC au local de ROCHE DIAGNOSTIC FRANCE.
II.4. Caractéristiques de la télémaintenance:
La télémaintenance offre au technicien biomédical les avantages de pouvoir
accéder à une documentation technique mise à jour et de pouvoir profiter d’une aide au
diagnostic dans les cas de maintenance d’un équipement sur lequel il n’a pas reçu de
formation.
II.7. Avantages
La télémaintenance présente de nombreux avantages dont :
1) Une rapidité d’intervention : la télémaintenance permet aux techniciens de
maintenance d’intervenir rapidement en cas de problème. Ils pourront mener des
actions à distance sans se rendre auprès de vos locaux ce qui offre un gain de temps
considérable ;
2) Un coût d’intervention optimisé: sans déplacement, les coûts d’intervention sont
optimisés puisqu’on évite les interventions longues et coûteuses.
24
3) La sécurité informatique: contrairement à ce que l’on pourrait penser, les
interventions réalisées en télémaintenance sont extrêmement sûres. Et pour cause, les
techniciens effectuent leurs actions via des canaux hautement sécurisés et les données
transférées sont systématiquement chiffrées. Le but de toutes ces mesures est d’éviter
que des personnes mal intentionnées n’interceptent vos données.
4) Une efficacité et une fiabilité accrues: la télémaintenance est différente de la
téléassistance. Dans la téléassistance, un technicien vous guide à travers un échange
par téléphone ou par vidéoconférence pour résoudre un problème informatique
quelconque. Dans la télémaintenance, un technicien prend directement le contrôle de
votre ordinateur. En d’autres mots, l’intervention est réalisée par un expert, ce qui
implique plus de fiabilité, plus d’efficacité et surtout moins d’erreurs.
II.8. Inconvénients
La mise en place d’une procédure de la télémaintenance demande un minimum
de préparation avant l’intervention, il est important de bien fermer et d’enregistrer tous
les travaux en cour sur l’ordinateur.
Durant l’intervention du technicien, l’ordinateur ne doit pas se redémarrer (le technicien
s’en chargeras si besoin) pour que la procédure de la télémaintenance se déroule sans
problème, la connexion Internet ainsi que le courant ne doivent pas être coupe.
Risques pour la sécurité : L’accès à distance pose un certain nombre de risques pour la
sécurité. Par exemple, vous pouvez infecter le réseau de votre entreprise avec un virus si
votre ordinateur en a un.
II.9. Différents logiciels de télémaintenance
II.9.1 Logmeln
LogMeIn est un module d'accès à vos ordinateurs distants. Il peut ainsi
contrôler les ordinateurs distants sans utiliser de navigateur, transférer des fichiers ou
synchroniser deux dossiers. L'application dispose d'un paramètre de connexion
automatique, avec enregistrement des mots de passe cryptés en local et offre également
un moteur de recherche d'ordinateurs par nom.
Ce logiciel a été pensé pour gérer et contrôler un parc informatique. Cette
solution est assez performante, mais présente toutefois des défauts relativement majeurs,
dont la prise de contrôle de l’ordinateur sans accord de l’utilisateur distant ou encore les
ralentissements d’affichage qui surviennent lorsque les commandes transférées sont trop
importantes.
25
Figure 2 : logmeln
II.9.2 splashtop
Est un logiciel de bureau à distance et de télémaintenance, développé par
Splashtop il permet aux utilisateurs d'accéder ou de maintenir des ordinateurs à distance.
Avec son application d’accès à distance, splashtop intègre les ordinateur
Mac,windows ou linux
II.9.3 Anny desk
Est une application de bureau à distance distribuée par AnyDesk Software. Le
programme logiciel propriétaire fournit un accès à distance indépendant de la plate-forme
aux ordinateurs personnels et autres dispositifs exécutant.
AnyDesk est le logiciel de bureau à distance de premier choix pour les zones
avec une connectivité Internet médiocre
Figure 3: anydesk
II.9.4 Vnc
Virtual Network Computing (VNC) est un système de visualisation et de
contrôle de l'environnement de bureau d'un ordinateur distant dans le but de faire la
télémaintenance. Du fait de sa simplicité, il est principalement utilise également dans
les entreprises et peut être aussi utilisé par des particulier dans le cadre d’un réseau
personnel
26
II.9.5 Team viewer
a) Présentation
TeamViewer est un logiciel propriétaire de télémaintenance le plus performent
disposant de fonctions de bureau à distance, de télé administration, de conférence en ligne
et de transfert de fichiers.
Grâce à ses multiples options, TeamViewer est le plus complet des logiciels de
contrôle à distance. Il fonctionne sur tous les PC, les Mac et même sur les Smartphones.
Facile à prendre en main, ce logiciel permet de se connecter à un PC à dépanner en deux
clics. Avec ses diverses fonctionnalités, il est possible de paramétrer totalement
l'assistance à distance, de transférer des fichiers, d'établir des communications audio et
vidéo et de créer des téléconférences.
Face aux avantages cités, le seul inconvénient de l’outil TeamViewer est la
connexion internet. Pour assurer un fonctionnement optimal, ce logiciel de prise de la
main d’un ordinateur à distance à besoin d’une connexion rapide et puissante.
b) Installation
Apres avoir téléchargé le logiciel, C’est l'option cochée par défaut) et cliquez
sur Suivant. Cochez les deux cases J'accepte les termes de la licence et Je confirme utiliser
TeamViewer exclusivement à des fins personnelles pour finaliser l'installation.
c) Prendre le contrôle d'un ordinateur à distance
Est maintenant installé sur les deux ordinateurs. Peu importe que l'on souhaite
prendre le contrôle d'un PC depuis un autre PC, d'un Mac depuis un PC ou inversement
ou d'un Mac depuis un Mac, les manipulations demeurent identiques.
Sur l'ordinateur devant être contrôlé, observez au centre de la fenêtre la section
Autoriser le contrôle à distance. Elle présente à la ligne Votre ID un numéro. Celui-ci
est votre identifiant. Il est associé à un mot de passe à la ligne du dessous. Transmettez
ces informations à la personne devant vous dépanner grâce à TeamViewer. Attention, ces
données sont sensibles : elles ouvrent un accès total à votre ordinateur ! Aussi, mieux
vaut les communiquer en passant un coup de téléphone ou en envoyant un SMS. Vous
éviterez qu'elles se promènent sur le Web en cas de piratage.
27
2
Source : Rectorat de l’université de Mazenod
37
Pouvoir d’administration
Comité de gestion
Conseil académique
Recteur
Professeurs Bibliothécaire
Gardiens
Recteur
Secrétariat Général
Cependant cette formule nécessite d'évaluer les menaces qui pèsent sur
chacun des critères précédents, chose qui n'est simple, et d'utiliser la composante la plus
menacée.
Maintenant que la gestion des risques est redéfinie, attardons nous sur
l'élaboration d'une stratégie de sécurité réseau.
47
b) Méthodologie pour élaborer une stratégie de sécurité
La première étape de l'élaboration de la stratégie consiste à faire de la gestion
des risques pour dégager les ressources critiques de l'entreprise et les menaces qui
planent sur elles. Pour protéger les biens critiques des menaces identifiées, il faut
analyser les techniques d'attaques utilisées pour tirer parti des vulnérabilités. Ce niveau
d'analyse plus poussé permet de définir des stratégies de sécurité proactives, visant à
diminuer les probabilités d'occurrences des menaces. Les différentes catégories de
menaces qui pèsent sur le système d'information ou sur le réseau sont représentées sur
la figure 10. Les menaces non intentionnelles ou imprévisibles, comme les catastrophes
naturelles, ne mettent pas en œuvre de stratagèmes particuliers et n'ont pas d'objectifs
déterminés. A contrario, les attaques intentionnées utilisent pléthores d'outils et de
techniques d'attaques. Beaucoup d'études montrent que les trois quarts, voire les 80%
des attaques, proviennent de l'intérieur de l'entreprise. Faces aux menaces identifiées
lors de l'analyse de risque, il faut adopter des stratégies pro-actives et réactives dans tous
les cas, chose que nous allons maintenant aborder.
a. Règles élémentaires
Lors de l'établissement d'une stratégie de sécurité il faut garder à l'esprit
quelques règles élémentaires. Tout d'abord, plus une stratégie de sécurité est complexe,
plus son implémentation, amélioration et évolution seront difficiles. Simplicité et
pragmatisme sont des critères de réussite. La règle du maillon le plus faible est
également à garder à l'esprit. Par exemple, intéressons-nous au périmètre d'une
l'entreprise qui aurais trois moyens d'accéder à son réseau interne. Deux moyens sont
des équipements implémentant de la sécurité comme un pare-feu et une passerelle VPN
et le troisième moyen est un routeur sans aucune couche de sécurité. Le troisième moyen
48
d'accès constitue une faiblesse qui sera privilégié par le pirate pour effectuer son attaque.
La variété des protections mise en place est également importante. Dans l'exemple
précédent on s'intéressera à un seul moyen d'accès composé de deux pare-feu identiques
(même équipementier et même technologie). Si le pirate réussit à utiliser une
vulnérabilité sur l'un des pare-feu pour pouvoir le contourner, il y a de grande chance
pour qu'il puisse l'utiliser également sur l'autre. Si les pare-feu sont de marques
différentes, les vulnérabilités sont différentes, et il aura alors plus de mal à pénétrer dans
l'intranet de l'entreprise.
La sécurité ne doit jamais reposer sur un seul mécanisme de sécurité et une
imbrication de mécanisme offre un degré de protection supérieur face à la défaillance
de ceux-ci. Par exemple, pour accéder à un serveur sur un réseau distant, il est possible
de fournir un premier mécanisme de sécurité d'authentification comme une passerelle
VPN (avec IPsec ou SSL). Une fois l'individu authentifié sur le réseau, il faut encore
qu'il se connecte au serveur, et pour cela on peut utiliser un mécanisme de chiffrement
de session comme SSH. Cette imbrication, impose au pirate de contourner deux
barrières au lieu d'une et de natures différentes (authentification et connexion). La
séparation logique et physique des protections de sécurité permet de ne pas concentrer
la sécurité en un seul point qui devient alors un point de faiblesse. Cette séparation
engendre des compartiments étanches de sécurité ainsi qu'une meilleure implémentation
des fonctions de sécurité sur des matériels dédiés. En effet, sur des équipements UTM
(« Unified Threat Managment »), qui remplissent plusieurs fonctions de sécurité
comme celle de passerelle VPN, routeur, pare-feu ou encore anti-virus, comment savoir
dans quel ordre ces fonctions seront exécutées.
De plus, plus l'équipement assure de fonctions et plus sa configuration est
complexe et difficile à maintenir. Cependant, la solution de séparation est très souvent
beaucoup plus onéreuse que l'achat d'un UTM. Les différentes simulations sont
l'occasion d'améliorer les contre-mesures de sécurité, voire de les remettre en question.
Effectivement, si on constate que certains types d'attaques ne sont pas détectés par un
pare-feu, soit les règles de filtrages soit le pare-feu ne sont pas adaptés. Il est également
important de valider l'efficacité des stratégies de sécurité mise en place face aux
simulations utilisées. Si la stratégie existante n'a pas apporté de bons résultats, il faut soit
la modifier soit en implémenter une nouvelle.
b. Stratégie pro-active (dite de prévention)
Une stratégie pro-active comporte plusieurs étapes prédéfinies qui doivent
être exécutées afin de se prémunir d'attaques identifiées. Elle doit évaluer les dommages
causés par une attaque et mesurer les impacts qui peuvent aller de la perte mineur,
comme le redémarrage de la machine, jusqu'à la perte totale du bien attaqué
49
(réinstallation de la machine). Elle évalue ensuite le degré de vulnérabilité et les
faiblesses exploitées par une attaque pour en définir les contre-mesures à mettre en
place. L'objectif est de réduire les risques liés à cette attaque. La dernière étape de cette
stratégie consiste à la mise en place d'un plan de contingence ou « Business Continuity
Plan », visant à définir les actions à mettre en place. Ce plan définit pour chaque tâche
à exécuter, la personne et le moment de l'exécution. Pour finir, il doit adresser le
problème de restauration des données. Le plan doit faire l'objet d'exercices réguliers
pour que, le jour de son application réelle, le personnel soit prêt.
c. Stratégie réactive
La stratégie réactive définit les étapes à mettre en œuvre après ou pendant un
incident et suppose que la stratégie pro-active a échouée. Elle analyse l'incident de
sécurité afin de déterminer le périmètre des dommages causés ainsi que les stratagèmes
utilisés pour mener l'attaque, pour décider des actions à prendre. Le plus important est
de déterminer la cause de l'incident par tous les moyens possibles comme les
événements de journalisation (« logs ») des équipements réseaux ou encore par la
détection de signature de programme comme les virus, vers ou chevaux de Troie sur les
systèmes attaqués. Un test de pénétration doit être réalisé pour confirmer la vulnérabilité
exploitée par l'intrus. L'étape suivante consiste à réparer les dommages causés par
l'attaque et vient naturellement à la fin de l'analyse post-mortem de façon à ne pas écraser
les traces de l'incident de sécurité.
Les leçons tirées de cet incident doivent faire l'objet d'un rapport qui détaille
les aspects techniques, comme les dommages causés ou les moyens mis en œuvre, et
analyse l'impact de l'incident sur l'entreprise comme la baisse de productivité, la fuite
d'information ou encore les données perdues. Ce rapport permet d’évaluer l'aspect
financier de l'incident de sécurité et d'améliorer les stratégies de réduction des risques.
La mise en œuvre d'un plan de contingence peut être envisagé selon la criticité du bien
impacté ou si l'analyse post-mortem prend trop de temps. Il permettra de résoudre la
crise plus rapidement, même en mode dégradé.
Maintenant que nous avons fait le tour des règles élémentaires ainsi que de la
méthodologie pour aborder les stratégies de sécurité, intéressons-nous aux différentes
stratégies de sécurité qui existent.
50
f. Les logiciels de sécurité installés sur le poste doivent être mis à jour
régulièrement ;
g. Interdiction d'utiliser un outil qui permettrait d'obtenir des informations sur le
réseau de l'entreprise (scanner de vulnérabilité, outil de découverte de réseau,
etc...).
Les communications entre le réseau intranet et d'autres réseaux doivent
être contrôlées et les services réseau accessibles sur Internet définis. Ces flux
doivent être également contrôlés pour vérifier qu’ils ne véhiculent pas de virus. Une
solution de filtrage de contenu pourra être mise en place pour s'assurer que les
employés ne naviguent pas sur des sites interdits par la loi (pédophiles,
pornographiques, pirates, etc.…). Des mécanismes de surveillance doivent être
appliqués aux périmètres de sécurité et toucher les domaines suivants : collecte et
stockage des logs, analyse des attaques (comme les sondes d'intrusion) ou encore
l'analyse de trafic.
Maintenant que les périmètres sont définis ainsi que les goulets d'étranglement,
attelons-nous à authentifier les utilisateurs du réseau.
h) Stratégie d'authentification en profondeur
L'objectif est de mettre en place des contrôles d'authentification pour
authentifier les accès aux périmètres de sécurité. Pour faire cela, il est recommandé
d'installer des systèmes de contrôle d'authentification au sein d'un périmètre qui leur
est réservé. Ces contrôles peuvent avoir lieu au moment de la sortie sur Internet
mais également au niveau de chaque serveur pour accéder au réseau interne. Chaque
fois qu'un utilisateur s'authentifie, un ticket est créé sur un système chargé de
stocker les logs afin que le parcours de l'utilisateur soit connu à tout moment. Cette
logique peut être étendue à chaque action de l'utilisateur comme la création,
suppression ou impression d'un document ou encore les adresses Web visitées.
Lorsqu'un tel système est mis en place on parle de modèle AAA (« Authentication,
Authorization, Accounting») ou authentification, autorisation et comptabilité
d'événements. Cependant la mise en place de ce type de système est lourde et
souvent très coûteuse.
52
Voici un aperçu de notre réseau après la mise en place de ces trois stratégies de
sécurité.
On peut voir les zones qui ont été définies par la stratégie des périmètres
de sécurité, les pare-feu qui constituent l'unique point d'entrée pour chaque zone,
comme spécifié dans la stratégie par goulets d'étranglement. Enfin, on voit
également les serveurs d'authentifications qui servent à authentifier les accès aux
périmètres de sécurité, comme spécifié dans la stratégie d'authentification en
profondeur.
a. Stratégie du moindre privilège
Cette stratégie a pour objectif d'assurer que chacun dispose uniquement
des privilèges dont il a besoin. La portée de tout acte de malveillance s'en retrouve
réduite aux privilèges dont dispose la personne qui le commet et il faudra une
complicité de plusieurs personnes pour pouvoir mettre en péril le réseau intranet.
Un moyen facile de renforcer cette stratégie est d'augmenter les autorisations
nécessaires pour accéder à une ressource. Par exemple, pour accéder aux données
comptable, la comptable a besoin de son code et de celui de sa responsable.
Cependant, ce mécanisme implique des contraintes supplémentaires de
disponibilité, qui font qu'une comptable ne pourra accéder aux données comptables
si sa responsable est en vacances. L'application stricte de cette stratégie est difficile
53
à réaliser et souvent possible qu'avec la mise en place d'un système SSO (« Single
Sign On »), qui permet d'authentifier un utilisateur quelle que soit son adresse réseau
et de lui appliquer un profil à droit d'accès spécifique.
b. Stratégie de confidentialité des flux réseau
L'objectif de cette stratégie est de protéger tout message qui doit être émis
vers un autre réseau ou Internet. Cette stratégie est généralement utilisée lorsqu'une
entreprise a plusieurs sites qui sont reliés par le biais de réseau public comme
Internet, X25 ou encore de Ligne Spécialisées (LS). Lorsqu'une entreprise créé un
réseau de type WAN, elle construit un réseau centrale (« backbone ») et relie ces
sites à ce réseau. Des boîtiers de chiffrement, telles que des passerelles IPsec,
peuvent être installés entre les routeurs et les pare-feu pour garantir la
confidentialité des communication inter-sites. Ainsi, tous les flux qui sortent de
chaque site sont chiffrés à la volée par le boîtier de chiffrement placé en goulet
d'étranglement sur les connexions inter-sites. Il existe d'autres moyens de chiffrer
les communications comme SSL, qui est très utilisé pour chiffrer les flux des
serveur Web.
c. Stratégie de séparation de pouvoir
L'objectif est de créer des entités séparées chacune responsable de zones
de sécurité distinctes du réseau intranet. Cette stratégie s'adresse particulièrement
aux entreprises de grande taille. En effet, les petites entreprises, qui n'ont pas
beaucoup de ressources à protéger, se contentent souvent d'un seul département
chargé de leurs maintenances. En revanche, dans des entreprises plus grandes il est
nécessaire de séparer ou limiter les pouvoirs de chaque entité afin de limiter les
conséquences d'un acte de malveillance. On peut prendre comme exemple une entité
qui serait en charge d'assurer une fonction opérationnelle et d'en assurer le contrôle.
S'il n'y a pas de séparation, il est pratiquement certain que les procédures de contrôle
les plus contraignantes seront ignorées, créant ainsi une faiblesse de sécurité.
Maintenant que des responsables sont définis pour chaque périmètre, il s'agit de
contrôler tous les accès à ces périmètres.
Accès direct
L’accès direct permet à l’utilisateur distant d’établir une connexion
sécurisée « directement » avec l'IACS. Après avoir créé un tunnel VPN sécurisé, le
logiciel sur l’ordinateur de l’utilisateur distant initie une communication
directement avec l'IACS.
Caractéristiques de conception – comment les mettre en œuvre ?
ACCÈS DIRECT
Site distant
industriels
Accès indirect
56
ACCÈS INDIRECT
Site distant
industriels