Devops Pipeline Accelerator

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 69

Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS DevOps

pipeline

AWS Recommandations prescriptifs

Copyright © 2024 Amazon Web Services, Inc. and/or its affiliates. All rights reserved.
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

AWS Recommandations prescriptifs: Standardisation des pipelines iAC à


l'aide de l'accélérateur de AWS DevOps pipeline
Copyright © 2024 Amazon Web Services, Inc. and/or its affiliates. All rights reserved.

Les marques et la présentation commerciale d’Amazon ne peuvent être utilisées en relation avec
un produit ou un service qui n’est pas d’Amazon, d’une manière susceptible de créer une confusion
parmi les clients, ou d’une manière qui dénigre ou discrédite Amazon. Toutes les autres marques
commerciales qui ne sont pas la propriété d’Amazon appartiennent à leurs propriétaires respectifs,
qui peuvent ou non être affiliés ou connectés à Amazon, ou sponsorisés par Amazon.
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

Table of Contents
Introduction ........................................................................................................................................... 1
Qu'est-ce que le DPA ? ................................................................................................................... 1
Avantages de l'utilisation du DPA ................................................................................................... 2
Architecture ........................................................................................................................................... 3
DPA pour les applications ............................................................................................................... 5
DPA pour le provisionnement de l'infrastructure ............................................................................. 6
Utilisation du DPA ................................................................................................................................ 9
En utilisant CodePipeline ................................................................................................................ 9
Prérequis ..................................................................................................................................... 9
Outils ......................................................................................................................................... 10
Instructions ................................................................................................................................ 10
Comprendre le fichier JSON du point d'entrée ........................................................................ 12
Utilisation de GitLab CI/CD ........................................................................................................... 13
Prérequis ................................................................................................................................... 14
Outils ......................................................................................................................................... 14
Instructions ................................................................................................................................ 15
Collaborateurs ..................................................................................................................................... 17
Conception ..................................................................................................................................... 17
Révision ......................................................................................................................................... 17
Rédaction technique ...................................................................................................................... 17
Historique du document ..................................................................................................................... 18
Glossaire ............................................................................................................................................. 19
# ..................................................................................................................................................... 19
A ..................................................................................................................................................... 20
B ..................................................................................................................................................... 23
C ..................................................................................................................................................... 25
D ..................................................................................................................................................... 28
E ..................................................................................................................................................... 33
F ..................................................................................................................................................... 35
G ..................................................................................................................................................... 36
H ..................................................................................................................................................... 37
I ...................................................................................................................................................... 39
L .................................................................................................................................................... 41
M .................................................................................................................................................... 42

iii
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

O ..................................................................................................................................................... 47
P ..................................................................................................................................................... 49
Q ................................................................................................................................................... 52
R ..................................................................................................................................................... 53
S ................................................................................................................................................... 56
T ..................................................................................................................................................... 59
U ..................................................................................................................................................... 61
V ..................................................................................................................................................... 62
W .................................................................................................................................................... 62
Z ..................................................................................................................................................... 63
............................................................................................................................................................ lxv

iv
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

Normalisation des pipelines iAC à l'aide de l'accélérateur de


AWS DevOps pipeline
Amazon Web Services (contributeurs)

Janvier 2024 (historique du document)

Il est courant que les entreprises utilisent diverses technologies, telles que :

• Infrastructure en tant que code (IaC) — HashiCorp Terraform, et AWS CloudFormation AWS Cloud
Development Kit (AWS CDK)
• Développement d'applications : npm, Gradle, Apache Maven et TypeScript
• Déploiement d'applications : Amazon Simple Storage Service (Amazon S3), Amazon Elastic
Container Service (Amazon ECS), Amazon Elastic Kubernetes Service (Amazon EKS), et AWS
Lambda

Grâce à ces différentes technologies, chaque équipe crée son propre pipeline pour créer et déployer
des applications ou des infrastructures. Cette approche manque de standardisation, augmente le
délai de production et introduit la redondance du code. Chaque produit suit ses propres processus de
mise à disposition d'applications ou d'infrastructures dans différents environnements. Cela complique
également la tâche des équipes chargées de la conformité, les rendant plus difficiles à appliquer les
contrôles et les contrôles de qualité.

Qu'est-ce que le DPA ?


DevOpsPipeline Accelerator (DPA) est une solution composée de modèles qui vous aident
à créer un pipeline complet d'intégration continue et de livraison continue (CI/CD) pour le
déploiement d'applications ou d'infrastructures. Cette solution crée des modèles centralisés en
tant qu'accélérateurs. Les équipes produit peuvent utiliser ces accélérateurs pour intégrer leurs
applications dans CI/CD, ce qui permet aux équipes de se concentrer sur le développement de leurs
fonctionnalités commerciales.

Les accélérateurs sont configurables. Vous configurez les outils de création, la plate-forme de
déploiement, les règles de contrôle de qualité, etc. À l'aide d'un outil IaC, vous construisez l'ensemble
du pipeline en fonction de ces configurations. Ces accélérateurs de pipeline prennent actuellement
en charge les services et outils courants d'intégration et de livraison continues (CI/CD) suivants :

Qu'est-ce que le DPA ? 1


AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

• AWS CodePipeline
• GitLabCI/CD
• GitHub Actions
• Jenkins

Cette solution s'appuie sur les meilleures pratiques définies dans l'architecture de référence du
pipeline de AWS déploiement (DPRA).

Avantages de l'utilisation du DPA


Les principaux avantages du DPA sont les suivants :

• Standardisation et cohérence — Les pipelines d'applications standardisés améliorent la cohérence


du CI/CD et du déploiement des applications.
• Réutilisabilité — Le DPA est réutilisable et évolutif. Les applications utilisent des accélérateurs pour
orchestrer les pipelines.
• Vélocité — Les équipes d'application se concentrent davantage sur le développement que sur la
construction de pipelines, ce qui améliore la vitesse globale du développement.
• Sécurité — Les barrières de qualité intégrées aident à sécuriser l'application pendant le
déploiement en suivant les DevSecOps meilleures pratiques.
• Évolutivité — Les modèles DPA sont configurables et hautement évolutifs. Ils s'intègrent facilement
à tout type d'application déployée via un service ou un outil CI/CD pris en charge.

Avantages de l'utilisation du DPA 2


AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

Architecture de l'accélérateur de DevOps pipeline


Dans le DevOps Pipeline Accelerator, les accélérateurs sont un ensemble de tâches gérées par
étapes. Une étape contient les éléments constitutifs d'une tâche. Il existe plusieurs wrappers
qui constituent un point d'entrée pour un pipeline IaC spécifique. L'application consomme le
point d'entrée, qui est le début du pipeline. Le point d'entrée est constitué d'agrégateurs et de
différentes étapes. L'image suivante montre comment les stages interagissent avec les wrappers, les
agrégateurs et le point d'entrée.

Cette section décrit les éléments constitutifs de l'architecture de la solution DPA, comme illustré dans
l'image suivante.

3
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

4
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

Le diagramme montre le flux de travail et les fonctionnalités suivants :

1. Le composant principal du DPA est un pipeline centralisé qui contient différentes étapes et tâches
basées sur la configuration de l'application.
2. DPA prend en charge quatre services et outils CI/CD couramment utilisés. C'est là que le pipeline
centralisé est construit.
3. Les tâches du pipeline utilisent des scripts réutilisables, indépendants des services et outils CI/CD.
4. Chaque tâche de pipeline s'exécute dans une image Docker pertinente, pour des raisons de
portabilité. Un référentiel Amazon Elastic Container Registry (Amazon ECR) héberge ces images
Docker.
5. DPA contient des contrôles de sécurité intégrés, que vous pouvez personnaliser.
6. Le pipeline déploie les applications dans leAWS Cloud.
7. Le point d'entrée est une entité unique qui représente l'ensemble du pipeline centralisé. Les
configurations varient en fonction du type de pile technologique.
8. L'application importe ou inclut les points d'entrée. Chaque pile technologique représente un point
d'entrée distinct.
9. L'application configure les paramètres en fonction du type de point d'entrée. Ces paramètres de
configuration définissent le comportement et le fonctionnement des tâches de pipeline.

DPA pour les applications


L'image suivante montre un pipeline de référence pour un pipeline d'applications basé sur Java. À
la fin de la phase post-déploiement, le code entre dans un pipeline de publication pour être déployé
dans des environnements de préparation et de production.

DPA pour les applications 5


AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

Les informations supplémentaires sur l'utilisation du DPA pour les applications dépassent le cadre de
ce guide. Pour plus d'informations, consultez la section Pipeline d'applications dans l'architecture de
référence du pipeline de déploiement.

DPA pour le provisionnement de l'infrastructure


Dans la version 1.0.0 de DPA, des plug-and-play modèles pour les pipelines de provisionnement
d'infrastructure sont disponibles. Ces modèles suivent les DevOps meilleures pratiques, telles que
les contrôles de sécurité intégrés, les déploiements automatisés, le versionnement et la gestion des
artefacts.

Cette section décrit comment utiliser DPA pour implémenter des modèles de pipeline centralisés
pour les outils d'infrastructure en tant que code (IaC). DPA prend en charge les outils IaC largement
utilisés, tels que Terraform etAWS CDK. CloudFormation Ces modèles sont facilement utilisables
avec les services et outils CI/CD, tels que AWS CodePipeline CI/CD. GitLab

L'image suivante montre l'architecture DPA pour le provisionnement de l'infrastructure. Vous


utilisez les modèles de pipeline CI/CD pour provisionner l'infrastructure à l'aide de Terraform, et.
CodePipeline AWS CDK

DPA pour le provisionnement de l'infrastructure 6


AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

DPA pour le provisionnement de l'infrastructure 7


AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

L'image suivante montre un pipeline de référence pour une application basée sur Terraform, qui
consomme le point d'entrée Terraform. À la fin de la phase post-déploiement, le code entre dans un
pipeline de publication pour être déployé dans des environnements de préparation et de production.

Tenez compte des points suivants lorsque vous utilisez DPA pour le provisionnement de
l'infrastructure :

• Le type d'événements qui se produisent dans un référentiel a une incidence sur la construction
du pipeline. Par exemple, pull les demandes ne fournissent pas de ressources auAWS Cloud.
Toutefois, lorsqu'une pull demande fusionne avec la branche principale, le pipeline fournit les
ressources auAWS Cloud.
• Le pipeline utilise des outils d'analyse de sécurité tels que tfsec, Checkov et Terrascan
pour appliquer des contrôles de sécurité avant le déploiement du pipeline Terraform. Car
CloudFormation le pipeline utilise également cfn_nag et cfn-lint. Car AWS CDK le pipeline utilise
également cdk-nag.
• DPA crée une image Docker dédiée et l'héberge sur un référentiel Amazon ECR. Ces images
Docker contiennent des outils, tels que la CLI Terraform et le AWS CLI Toolkit. AWS CDK Le
pipeline utilise ces outils pendant l'exécution, quelle que soit la solution CI/CD que vous choisissez.

DPA pour le provisionnement de l'infrastructure 8


AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

Utilisation de l'accélérateur de DevOps pipeline


Le DevOps Pipeline Accelerator (DPA) prend en charge les services et outils CI/CD courants. Cette
section fournit des instructions et des informations sur l'utilisation des services ou outils CI/CD
suivants pour standardiser les pipelines pour le provisionnement de l'infrastructure :

• Utilisation CodePipeline pour déployer Terraform et les modèles CloudFormation


• Utilisation de GitLab CI/CD pour déployer Terraform, AWS CDK et des modèles CloudFormation

Utilisation CodePipeline pour déployer Terraform et les modèles


CloudFormation
Dans le DPA, vous utilisez des blocs de construction pour créer des accélérateurs AWS
CodePipeline pour Terraform et IaC. CloudFormation Cette section décrit les éléments suivants pour
ce cas d'utilisation :

• Structure de pipeline normalisée


• Stages et travaux réutilisables
• Outils intégrés pour les scans de sécurité

Le référentiel DPA contient des dossiers pour Terraform et. CloudFormation Chacun de ces dossiers
contient les deux sous-dossiers suivants :

• pipeline-modules — Ce dossier contient le code permettant de déployer la structure de pipeline


normalisée.
• shared — Ce dossier contient les fichiers ready-to-use buildspec pour les étapes et les tâches
DPA.

Prérequis
• Un actif Compte AWS
• Autorisations pour approvisionner des ressources à l'aide de modèles IaC
• Autorisations pour créer des AWS CodeCommit référentiels et des composants CodePipeline

En utilisant CodePipeline 9
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

Outils
• cfn-lint est un linter qui vérifie les modèles CloudFormation YAML ou JSON par rapport à la
spécification des ressources. AWS CloudFormation Il effectue également d'autres contrôles,
tels que la vérification de la validité des valeurs des propriétés des ressources et le respect des
meilleures pratiques.
• cfn_nag est un outil open source qui identifie les problèmes de sécurité potentiels dans les
CloudFormation modèles en recherchant des modèles.
• Checkov est un outil d'analyse de code statique qui vérifie les erreurs de configuration liées à la
sécurité et à la conformité dans iAc.
• TFlint est un linter qui vérifie le code Terraform pour détecter d'éventuelles erreurs et le respect des
meilleures pratiques.
• tfsec est un outil d'analyse de code statique qui vérifie le code Terraform pour détecter
d'éventuelles erreurs de configuration.

Instructions

Création de CodeCommit référentiels

1. Créez deux CodeCommit référentiels distincts comme suit :


• common-repo— Ce référentiel contient les bibliothèques partagées, les fichiers buildspec et les
dépendances.
• app-repo— Ce référentiel contient le Terraform ou les CloudFormation modèles pour déployer
votre infrastructure.

Pour obtenir des instructions, voir Création d'un AWS CodeCommit référentiel.
2. Dans le common-repo dépôt, créez un dossier nomméshared. Copiez les fichiers buildspec du
dossier Terraform ou CloudFormationpartagé du référentiel GitHub DPA vers le nouveau dossier.
Pour obtenir des instructions, voir Création ou ajout d'un fichier dans un AWS CodeCommit
référentiel.
3. Dans le app-repo référentiel, créez un dossier nomméentrypoint. Copiez le fichier depuis le
dossier Terraform ou CloudFormationentrypoint du dépôt GitHub DPA vers le nouveau dossier.
Pour plus d'informations sur ces fichiers, consultezComprendre le fichier JSON du point d'entrée.
4. Passez en revue le répertoire Terraform ou CloudFormationexamples, puis structurez votre
app-repo dossier en fonction de ces exemples. Ces annuaires contiennent des exemples

Outils 10
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

de déploiement d'une instance Amazon Elastic Compute Cloud (Amazon EC2) ou d'un bucket
Amazon Simple Storage Service (Amazon S3).
5. Passez à l'une des deux sections suivantes :
• Création du pipeline et définition des étapes (Terraform)

• Créez le pipeline et définissez les étapes (CloudFormation)

Création du pipeline et définition des étapes (Terraform)

1. Clonez le référentiel DevOps Pipeline Accelerator (DPA) depuis GitHub votre station de travail
locale.

2. Dans le référentiel cloné, accédez au aws-codepipeline/terraform/pipeline-modules


dossier.

3. Dans le fichier terraform.tfvars, mettez à jour et validez l'état de Terraform et les variables
spécifiques au rôle (IAM). AWS Identity and Access Management

4. Créez une image Docker. Pour obtenir des instructions, consultez la section Création d'images
Docker pour l'utilisation de in CodeBuild (GitHub).

5. Mettez à jour la builder_image variable définie dans le fichier terraform.tfvars.

6. Entrez les commandes suivantes : Cela initialise, prévisualise et déploie l'infrastructure via
Terraform.

terraform init
terraform plan
terraform apply

7. Connectez-vous à la Compte AWS. Dans la CodePipeline console, vérifiez que le nouveau


pipeline a été créé.

Remarque : Si la première exécution est dans un failed état, répétez l'étape précédente.

8. Lorsque le nouveau CodePipeline pipeline est créé, un nouveau rôle IAM pour AWS CodeBuild
est créé automatiquement. Le nom de ce rôle créé automatiquement se termine par-codebuild-
role. Mettez à jour ce rôle avec les autorisations requises pour déployer votre infrastructure.

Instructions 11
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

Créez le pipeline et définissez les étapes (CloudFormation)

1. Clonez le référentiel DevOps Pipeline Accelerator (DPA) depuis GitHub votre station de travail
locale.
2. Dans le référentiel cloné, accédez au aws-codepipeline/cloudformation/pipeline-
modules dossier.
3. Déployez le modèle CloudFormation pipeline-cft.yaml. Les paramètres obligatoires que vous
devez transmettre à la pile sont les suivants.
• ArtifactsBucket— Nom du dépôt contenant les artefacts du pipeline à mettre à jour
• EcrDockerRepository— Identifiant de ressource uniforme (URI) du référentiel Amazon ECR
avec le tag image
• CodeCommitAppRepo— Nom du CodeCommit référentiel contenant les modèles
• CodeCommitBaseRepo— Nom du CodeCommit référentiel contenant les fichiers partagés
• CodeCommitRepoBranch— Nom de la branche CodeCommit du dépôt
• SNSMailAddress— Adresse e-mail qui recevra les notifications Amazon Simple Notification
Service (Amazon SNS) concernant l'état du pipeline

Pour obtenir des instructions, consultez la section Utilisation des piles dans la CloudFormation
documentation.
4. Connectez-vous au compte AWS. Dans la CodePipeline console, vérifiez que le nouveau pipeline
a été créé.
5. Lorsque le nouveau CodePipeline pipeline est créé, un nouveau rôle IAM pour AWS CodeBuild
est créé automatiquement. Le nom de ce rôle créé automatiquement se termine par-codebuild-
role. Mettez à jour ce rôle avec les autorisations requises pour déployer votre infrastructure.

Comprendre le fichier JSON du point d'entrée

Fichier de point d'entrée Terraform

Il s'agit du fichier de configuration principal. Dans ce fichier, vous pouvez personnaliser et activer ou
désactiver une étape. Si vous désactivez une étape, elle ne la supprime ni ne la retire du pipeline. Au
lieu de cela, l'étape est ignorée pendant l'exécution.

{
"build_stage_required" : "true",

Comprendre le fichier JSON du point d'entrée 12


AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

"test_stage_required" : "true",
"predeploy_stage_required": "true",
"deploy_stage_required": "true",
"postdeploy_stage_required": "true",
"destroy_stage_required": "true",
"bucket":"tf-state-dpa", # S3 bucket used for Terraform backend
"key":"terraform_test.tfstate", # S3 key to be used
"region":"us-east-1",
"dynamodb_table":"tf-state-dpa" # DynamoDB Table for Terraform backend
}

CloudFormation fichier de point d'entrée

Il s'agit du fichier de configuration principal. Dans ce fichier, vous personnalisez les étapes et vous les
activez ou les désactivez. Si vous désactivez une étape, elle ne la supprime ni ne la retire du pipeline.
Au lieu de cela, le pipeline ignore l'étape pendant l'exécution.

{
"init_stage_required" : "true",
"test_stage_required" : "true",
"createinfra_stage_required": "true",
"envType" : "cloudformation",
"stage_required" : "true",
"cft_s3_bucket" : "pipeline-bucket", #S3 bucket from the destination
account to keep CFT templates
"stack_name" : "aws-cft-poc", #CloudFormation stack name
"account" : "************", #Destination AWS account to
deploy stack
"roleName" : "codestack-poc-cross-account-role", #Cross-account IAM role name
"region" : "us-east-1",
"destroy_stack" : "false" #To destroy the provisioned
stack, set this value to "true"
}

Utilisation de GitLab CI/CD pour déployer Terraform, AWS CDK et


des modèles CloudFormation
DPA contient des modèles GitLab CI/CD que vous utilisez comme éléments de base pour déployer
Terraform et le code IaC. AWS Cloud Development Kit (AWS CDK) CloudFormation Cette section
décrit les éléments suivants pour ce cas d'utilisation :

Utilisation de GitLab CI/CD 13


AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

• Structure de pipeline normalisée


• Stages et travaux réutilisables

• Règles relatives à la structure du pipeline


• Outils intégrés pour les scans de sécurité

Prérequis
• Un actif Compte AWS

• Autorisations pour provisionner des ressources à l'aide de modèles IaC

• GitLab compte avec tout type de version sans licence, premium ou d'entreprise prenant en charge
GitLab les fonctionnalités CI/CD

• GitLab exécuteurs requis configurés pour exécuter des tâches avec des images Docker spécifiques

Outils
• cdk_nag est un outil open source qui utilise une combinaison de packs de règles pour vérifier que
les AWS CDK applications respectent les meilleures pratiques.

• AWS CloudFormationLinter (cfn-lint) est un linter qui vérifie les modèles CloudFormation YAML ou
JSON par rapport à la spécification des ressources. AWS CloudFormation Il effectue également
d'autres contrôles, tels que la vérification de la validité des valeurs des propriétés des ressources
et le respect des meilleures pratiques.

• cfn_nag est un outil open source qui identifie les problèmes de sécurité potentiels dans les
CloudFormation modèles en recherchant des modèles.

• Checkov est un outil d'analyse de code statique qui vérifie les erreurs de configuration liées à la
sécurité et à la conformité dans iAc.

• Keeping Infrastructure as Code Secure (KICS) est un outil open source qui identifie les
vulnérabilités de sécurité, les problèmes de conformité et les erreurs de configuration de
l'infrastructure au début du cycle de développement.

• tfsec est un outil d'analyse de code statique qui vérifie le code Terraform pour détecter
d'éventuelles erreurs de configuration.

Prérequis 14
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

Instructions
1. Copiez le gitlab-ci répertoire et hébergez-le dans votre groupe GitLab organisationnel.

2. Assurez-vous que les applications peuvent accéder au groupe GitLab organisationnel qui contient
les modèles DPA.

3. Pour l'application, incluez le point d'entrée spécifique au DPA pour le pipeline comme suit :
• Terraform

include:
- project: <GITLAB_GROUP_PATH/<REPOSITORY_NAME>
ref: main # best practise to create release tag and use the same
file: gitlab-ci/entrypoints/gitlab/terraform-infrastructure.yml

• AWS CDK

include:
- project: <GITLAB_GROUP_PATH/<REPOSITORY_NAME>
ref: main # best practise to create release tag and use the same
file: gitlab-ci/entrypoints/gitlab/cdk-infrastructure.yml

• CloudFormation

include:
- project: <GITLAB_GROUP_PATH/<REPOSITORY_NAME>
ref: main # best practise to create release tag and use the same
file: gitlab-ci/entrypoints/gitlab/cf-infrastructure.yml

4. Pour l'application, définissez les variables suivantes afin de permettre le déploiement sur DEV et
INTEGRATION les environnements.

AWS_REGION: us-east-2 # region where deployment should happen


DEV_AWS_ACCOUNT: 123456789012 # Dev environment AWS account number
DEV_ARN_ROLE: arn:aws:iam::123456789012:role/dpa-gitlab-access-role # IAM role ARN
that will be used to provision resources in Dev
DEV_DEPLOY: "true" # true / false to enable deployment to DEV environment
DEV_ENV: "dev" # Dev environment name
INT_AWS_ACCOUNT: 123456789012 # Integration environment AWS account number
INT_ARN_ROLE: arn:aws:iam::123456789012:role/dpa-gitlab-access-role # IAM role ARN
that will be used to provision resources in Integration
INT_DEPLOY: "true" # true / false to enable deployment to Integration environment
Instructions 15
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

INT_ENV: "int" # Integration environment name

Instructions 16
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

Collaborateurs
Les personnes suivantes ont contribué à ce guide.

Conception
• Ruchika Modi, consultante principale, AWS
• Ashish Bhatt, consultant principal, AWS
• Eknaprasath P, consultant principal, AWS
• Mayuri Patil, consultante, AWS

Révision
• Aarti Rajput, consultante principale, AWS

Rédaction technique
• Lilly AbouHarb, rédactrice technique senior, AWS

Conception 17
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

Historique du document
Le tableau suivant décrit les modifications importantes apportées à ce guide. Pour être averti des
mises à jour à venir, abonnez-vous à un fil RSS.

Modification Description Date

Publication initiale — 19 janvier 2024

18
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

AWS Glossaire des recommandations


Les termes suivants sont couramment utilisés dans les politiques, les guides et les modèles
fournis par AWS les recommandations. Pour suggérer des entrées, veuillez utiliser le lien Faire un
commentaire à la fin du glossaire.

Nombres
7R

Sept politiques de migration courantes pour transférer des applications vers le cloud. Ces
politiques s'appuient sur les 5 R identifiés par Gartner en 2011 et sont les suivantes :
• Refactorisation/réarchitecture : transférez une application et modifiez son architecture en tirant
pleinement parti des fonctionnalités natives cloud pour améliorer l'agilité, les performances et la
capacité de mise à l'échelle. Cela implique généralement le transfert du système d'exploitation
et de la base de données. Exemple : migrez votre base de données Oracle sur site vers
Amazon Aurora Édition compatible avec PostgreSQL.
• Replateformer (déplacer et remodeler) : transférez une application vers le cloud et introduisez
un certain niveau d'optimisation pour tirer parti des fonctionnalités du cloud. Exemple :
migrez votre base de données Oracle sur site vers Amazon Relational Database Service
(RDSAmazon) for Oracle dans le. AWS Cloud
• Racheter (rachat) : optez pour un autre produit, généralement en passant d'une licence
traditionnelle à un modèle SaaS. Exemple : migrez votre système de gestion de la relation client
(CRM) vers Salesforce.com.
• Réhéberger (lift and shift) : transférez une application vers le cloud sans apporter de
modifications pour tirer parti des fonctionnalités du cloud. Exemple : migrez votre base de
données Oracle sur site vers Oracle sur une EC2 instance dans le AWS Cloud.
• Relocaliser (lift and shift au niveau de l'hyperviseur) : transférez l'infrastructure vers le cloud
sans acheter de nouveau matériel, réécrire des applications ou modifier vos opérations
existantes. Vous migrez des serveurs d'une plateforme sur site vers un service cloud pour la
même plateforme. Exemple : Migrer un Microsoft Hyper-V application à AWS.
• Retenir : conservez les applications dans votre environnement source. Il peut s'agir
d'applications nécessitant une refactorisation majeure, que vous souhaitez retarder, et
d'applications existantes que vous souhaitez retenir, car rien ne justifie leur migration sur le plan
commercial.

# 19
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

• Retirer : mettez hors service ou supprimez les applications dont vous n'avez plus besoin dans
votre environnement source.

A
ABAC

Voir Utilisation du contrôle d'accès basé sur les attributs.


services abstraits

Consultez la section Services gérés.


ACID

Voir atomicité, cohérence, isolement, durabilité.


migration active-active

Méthode de migration de base de données dans laquelle la synchronisation des bases de


données source et cible est maintenue (à l'aide d'un outil de réplication bidirectionnelle ou
d'opérations d'écriture double), tandis que les deux bases de données gèrent les transactions
provenant de la connexion d'applications pendant la migration. Cette méthode prend en charge la
migration par petits lots contrôlés au lieu d'exiger un basculement ponctuel. Elle est plus flexible,
mais demande plus de travail que la migration active-passif.
migration active-passive

Méthode de migration de base de données dans laquelle la synchronisation des bases de


données source et cible est maintenue, mais seule la base de données source gère les
transactions provenant de la connexion d'applications pendant que les données sont répliquées
vers la base de données cible. La base de données cible n'accepte aucune transaction pendant la
migration.
fonction d'agrégation

SQLFonction qui agit sur un groupe de lignes et calcule une valeur de retour unique pour le
groupe. Des exemples de fonctions d'agrégation incluent SUM etMAX.
AI

Voir intelligence artificielle.

A 20
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

AIOps

Voir les opérations d'intelligence artificielle.

anonymisation

Processus de suppression définitive d'informations personnelles dans un ensemble de données.


L'anonymisation peut contribuer à protéger la vie privée. Les données anonymisées ne sont plus
considérées comme des données personnelles.

anti-modèle

Solution fréquemment utilisée pour un problème récurrent lorsque la solution est contre-
productive, inefficace ou moins efficace qu'une solution alternative.

contrôle des applications

Une approche de sécurité qui permet d'utiliser uniquement des applications approuvées afin de
protéger un système contre les logiciels malveillants.

portefeuille d'applications

Ensemble d'informations détaillées sur chaque application utilisée par une organisation, y
compris le coût de génération et de maintenance de l'application, ainsi que sa valeur métier. Ces
informations sont essentielles pour le processus de découverte et d'analyse du portefeuille et
permettent d'identifier et de prioriser les applications à migrer, à moderniser et à optimiser.

intelligence artificielle (IA)

Domaine de l'informatique consacré à l'utilisation des technologies de calcul pour exécuter


des fonctions cognitives généralement associées aux humains, telles que l'apprentissage, la
résolution de problèmes et la reconnaissance de modèles. Pour plus d'informations, veuillez
consulter Qu'est-ce que l'intelligence artificielle ?
opérations d'intelligence artificielle (AIOps)

Processus consistant à utiliser des techniques de machine learning pour résoudre les problèmes
opérationnels, réduire les incidents opérationnels et les interventions humaines, mais aussi
améliorer la qualité du service. Pour plus d'informations sur la façon dont AIOps elle est utilisée
dans la stratégie de AWS migration, veuillez consulter le guide d'intégration des opérations.

A 21
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

chiffrement asymétrique

Algorithme de chiffrement qui utilise une paire de clés, une clé publique pour le chiffrement et une
clé privée pour le déchiffrement. Vous pouvez partager la clé publique, car elle n'est pas utilisée
pour le déchiffrement, mais l'accès à la clé privée doit être très restreint.
atomicité, cohérence, isolement, durabilité () ACID

Ensemble de propriétés logicielles garantissant la validité des données et la fiabilité opérationnelle


d'une base de données, même en cas d'erreur, de panne de courant ou d'autres problèmes.
contrôle d'accès basé sur les attributs () ABAC

Pratique qui consiste à créer des autorisations détaillées en fonction des attributs de l'utilisateur,
tels que le service, le poste et le nom de l'équipe. Pour plus d'informations, consultez ABAC AWS
la documentation AWS Identity and Access Management (IAM).
source de données faisant autorité

Emplacement où vous stockez la version principale des données, considérée comme la source
d'information la plus fiable. Vous pouvez copier les données de la source de données officielle
vers d'autres emplacements à des fins de traitement ou de modification des données, par
exemple en les anonymisant, en les expurgant ou en les pseudonymisant.
Zone de disponibilité

Emplacement distinct au sein d'une Région AWS qui est à l'abri des dysfonctionnements d'autres
zones de disponibilité et offre une connectivité réseau peu coûteuse et de faible latence par
rapport aux autres zones de disponibilité de la même région.
AWS Cadre d'adoption du cloud (AWS CAF)

Un cadre de directives et de bonnes pratiques d' AWS pour aider les entreprises à élaborer un
plan efficient et efficace pour réussir leur migration vers le Cloud. AWS CAForganise les conseils
en six domaines prioritaires appelés perspectives : l'entreprise, les personnes, la gouvernance,
la plateforme, la sécurité et les opérations. Les perspectives d'entreprise, de personnes et de
gouvernance mettent l'accent sur les compétences et les processus métier, tandis que les
perspectives relatives à la plateforme, à la sécurité et aux opérations se concentrent sur les
compétences et les processus techniques. Par exemple, la perspective liée aux personnes cible
les parties prenantes qui s'occupent des ressources humaines (RH), des fonctions de dotation
en personnel et de la gestion des personnes. Dans cette perspective, AWS CAF fournit des
conseils pour le développement du personnel, la formation et les communications afin de préparer

A 22
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

l'organisation à une adoption réussie du cloud. Pour plus d'informations, consultez le AWS
CAFsite Web et le AWS CAFlivre blanc.
AWS Workload Qualification Framework (AWS WQF)

Outil qui évalue les charges de travail de migration de base de données, recommande des
politiques de migration et fournit des estimations de travail. AWS WQFest inclus avec AWS
Schema Conversion Tool (AWS SCT). Il analyse les schémas de base de données et les objets
de code, le code d'application, les dépendances et les caractéristiques de performance, et fournit
des rapports d'évaluation.

B
robot malveillant

Un bot destiné à perturber ou à nuire à des individus ou à des organisations.


BCP

Consultez la section Planification de la continuité des activités.


graphique de comportement

Vue unifiée et interactive des comportements des ressources et des interactions au fil du temps.
Vous pouvez utiliser un graphique de comportement avec Amazon Detective pour examiner les
tentatives de connexion infructueuses, les API appels suspects et les actions similaires. Pour plus
d'informations, veuillez consulter Data in a behavior graph dans la documentation Detective.
système de poids fort

Système qui stocke d'abord l'octet le plus significatif. Voir aussi endianité.
classification binaire

Processus qui prédit un résultat binaire (l'une des deux classes possibles). Par exemple, votre
modèle de machine learning peut avoir besoin de prévoir des problèmes tels que « Cet e-mail est-
il du spam ou non ? » ou « Ce produit est-il un livre ou une voiture ? ».
filtre de Bloom

Structure de données probabiliste et efficace en termes de mémoire qui est utilisée pour tester si
un élément fait partie d'un ensemble.

B 23
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

déploiement bleu/vert

Stratégie de déploiement dans laquelle vous créez deux environnements distincts mais
identiques. Vous exécutez la version actuelle de l'application dans un environnement (bleu) et la
nouvelle version de l'application dans l'autre environnement (vert). Cette stratégie vous permet de
revenir rapidement en arrière avec un impact minimal.
bot

Application logicielle qui exécute des tâches automatisées sur Internet et simule l'activité ou
l'interaction humaine. Certains robots sont utiles ou bénéfiques, comme les robots d'indexation
qui indexent des informations sur Internet. D'autres robots, appelés « bots malveillants », sont
destinés à perturber ou à nuire à des individus ou à des organisations.
réseau d'ordinateurs zombies

Réseaux de robots infectés par des logiciels malveillants et contrôlés par une seule entité, connue
sous le nom d'herder ou d'opérateur de bots. Les botnets sont le mécanisme le plus connu pour
faire évoluer les bots et leur impact.
branche

Zone contenue d'un référentiel de code. La première branche créée dans un référentiel est
la branche principale. Vous pouvez créer une branche à partir d'une branche existante, puis
développer des fonctionnalités ou corriger des bogues dans la nouvelle branche. Une branche
que vous créez pour générer une fonctionnalité est communément appelée branche de
fonctionnalités. Lorsque la fonctionnalité est prête à être publiée, vous fusionnez à nouveau la
branche de fonctionnalités dans la branche principale. Pour plus d'informations, consultez À
propos des branches (GitHub documentation).
accès par brise-vitre

Dans des circonstances exceptionnelles et par le biais d'un processus approuvé, c'est un moyen
rapide pour un utilisateur d'accéder à un accès auquel Compte AWS il n'est généralement pas
autorisé. Pour plus d'informations, consultez l'indicateur Implementation break-glass procedures
dans le guide Well-Architected AWS .
stratégie existante (brownfield)

L'infrastructure existante de votre environnement. Lorsque vous adoptez une stratégie existante
pour une architecture système, vous concevez l'architecture en fonction des contraintes des
systèmes et de l'infrastructure actuels. Si vous étendez l'infrastructure existante, vous pouvez
combiner des politiques brownfield (existantes) et greenfield (inédites).

B 24
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

cache de tampon

Zone de mémoire dans laquelle sont stockées les données les plus fréquemment consultées.
capacité métier

Ce que fait une entreprise pour générer de la valeur (par exemple, les ventes, le service
client ou le marketing). Les architectures de microservices et les décisions de développement
peuvent être dictées par les capacités métier. Pour plus d'informations, veuillez consulter la
section Organisation en fonction des capacités métier du livre blanc Exécution de microservices
conteneurisés sur AWS.
planification de la continuité des activités (BCP)

Plan qui tient compte de l'impact potentiel d'un événement perturbateur, tel qu'une migration
à grande échelle, sur les opérations, et qui permet à une entreprise de reprendre ses activités
rapidement.

C
CAF

Voir le cadre d'adoption du AWS cloud.


déploiement de Canary

Diffusion lente et progressive d'une version pour les utilisateurs finaux. Lorsque vous êtes sûr,
vous déployez la nouvelle version et remplacez la version actuelle dans son intégralité.
CCoE

Voir Centre d'excellence cloud.


CDC

Consultez la section Capture des données de modification.


capture de données modifiées (CDC)

Processus de suivi des modifications apportées à une source de données, telle qu'une table
de base de données, et d'enregistrement des métadonnées relatives à ces modifications. Vous
pouvez utiliser à diverses CDC fins, telles que l'audit ou la réplication des modifications dans un
système cible afin de maintenir la synchronisation.

C 25
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

ingénierie du chaos

Introduire intentionnellement des défaillances ou des événements perturbateurs pour tester


la résilience d'un système. Vous pouvez utiliser AWS Fault Injection Service (AWS FIS) pour
effectuer des expériences qui stressent vos AWS charges de travail et évaluer leur réponse.
CI/CD

Voir Intégration continue et livraison continue.


classification

Processus de catégorisation qui permet de générer des prédictions. Les modèles de ML pour les
problèmes de classification prédisent une valeur discrète. Les valeurs discrètes se distinguent
toujours les unes des autres. Par exemple, un modèle peut avoir besoin d'évaluer la présence ou
non d'une voiture sur une image.
chiffrement côté client

Chiffrement des données en local, avant que le cible ne les Service AWS reçoive.
Centre d'excellence cloud (CCoE)

Une équipe multidisciplinaire qui dirige les efforts d'adoption du cloud au sein d'une organisation,
notamment en développant les bonnes pratiques en matière de cloud, en mobilisant des
ressources, en établissant des délais de migration et en guidant l'organisation dans le cadre de
transformations à grande échelle. Pour plus d'informations, consultez les CCoEpublications sur le
blog AWS Cloud Enterprise Strategy.
cloud computing

Technologie cloud généralement utilisée pour le stockage de données à distance et la gestion des
appareils IoT. Le cloud computing est généralement lié à la technologie informatique de pointe.
modèle d'exploitation cloud

Dans une organisation informatique, modèle d'exploitation utilisé pour créer, faire évoluer et
optimiser un ou plusieurs environnements cloud. Pour plus d'informations, consultez la section
Création de votre modèle d'exploitation cloud.
étapes d'adoption du cloud

Les quatre phases que les organisations traversent généralement lorsqu'elles migrent vers AWS
Cloud :

C 26
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

• Projet : exécution de quelques projets liés au cloud à des fins de preuve de concept et
d'apprentissage
• Base : réaliser des investissements fondamentaux pour mettre à l'échelle l'adoption du cloud
(par exemple, en créant une zone de destination, en définissant unCCoE, en établissant un
modèle opérationnel)
• Migration : migration d'applications individuelles
• Réinvention : optimisation des produits et services et innovation dans le cloud

Ces étapes ont été définies par Stephen Orban dans le billet de blog The Journey Toward Cloud-
First & the Stages of Adoption sur le blog AWS Cloud Enterprise Strategy. Pour en savoir plus
sur la façon dont elles sont liées à stratégie de AWS migration, veuillez consulter le guide de
préparation à la migration.
CMDB

Consultez la base de données de gestion des configurations.


référentiel de code

Emplacement où le code source et d'autres ressources, comme la documentation, les exemples


et les scripts, sont stockés et mis à jour par le biais de processus de contrôle de version. Les
référentiels cloud courants incluent GitHub ou AWS CodeCommit. Chaque version du code est
appelée branche. Dans une structure de microservice, chaque référentiel est consacré à une
seule fonctionnalité. Un seul pipeline CI/CD peut utiliser plusieurs référentiels.
cache passif

Cache tampon vide, mal rempli ou contenant des données obsolètes ou non pertinentes. Cela
affecte les performances, car l'instance de base de données doit lire à partir de la mémoire
principale ou du disque, ce qui est plus lent que la lecture à partir du cache tampon.
données gelées

Données rarement consultées et généralement historiques. Lorsque vous interrogez ce type de


données, les requêtes lentes sont généralement acceptables. Le transfert de ces données vers
des niveaux ou des classes de stockage moins performants et moins coûteux peut réduire les
coûts.
vision par ordinateur (CV)

Domaine de l'IA qui utilise l'apprentissage automatique pour analyser et extraire des informations
à partir de formats visuels tels que des images numériques et des vidéos. Par exemple, AWS

C 27
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

Panorama propose des appareils qui ajoutent des CV aux réseaux de caméras locaux, et Amazon
SageMaker fournit des algorithmes de traitement d'image pour les CV.
dérive de configuration

Pour une charge de travail, une modification de configuration par rapport à l'état attendu. Cela
peut entraîner une non-conformité de la charge de travail, et cela est généralement progressif et
involontaire.
base de données de gestion des configurations (CMDB)

Référentiel qui stocke et gère les informations relatives à une base de données et à son
environnement informatique, y compris les composants matériels et logiciels ainsi que leurs
configurations. Vous utilisez généralement les données CMDB lors de la phase de découverte et
d'analyse du portefeuille de la migration.
pack de conformité

Une collection de AWS Config règles et d'actions correctives que vous pouvez mettre en place
pour personnaliser vos contrôles de conformité et de sécurité. Vous pouvez déployer un pack
de conformité en tant qu'entité unique dans un Compte AWS et une région, ou au sein d'une
organisation, à l'aide d'un YAML modèle. Pour de plus amples informations, veuillez consulter
Conformance packs dans la AWS Config documentation.
intégration continue et livraison continue (CI/CD)

Processus d'automatisation des étapes source, de génération, de test, intermédiaire et de


production du processus de publication du logiciel. CI/CD est communément décrit comme
un pipeline. CI/CD peut vous aider à automatiser les processus, à améliorer la productivité,
à améliorer la qualité du code et à accélérer les livraisons. Pour plus d'informations, veuillez
consulter Avantages de la livraison continue. CD peut également signifier déploiement continu.
Pour plus d'informations, veuillez consulter Livraison continue et déploiement continu.
CV

Voir vision par ordinateur.

D
données au repos

Données stationnaires dans votre réseau, telles que les données stockées.

D 28
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

classification des données

Processus permettant d'identifier et de catégoriser les données de votre réseau en fonction de


leur sévérité et de leur sensibilité. Il s'agit d'un élément essentiel de toute stratégie de gestion
des risques de cybersécurité, car il vous aide à déterminer les contrôles de protection et de
conservation appropriés pour les données. La classification des données est une composante
du pilier de sécurité du cadre AWS Well-Architected. Pour plus d'informations, veuillez consulter
Classification des données.
dérive de données

Une variation significative entre les données de production et les données utilisées pour entraîner
un modèle ML, ou une modification significative des données d'entrée au fil du temps. La dérive
des données peut réduire la qualité, la précision et l'équité globales des prédictions des modèles
ML.
données en transit

Données qui circulent activement sur votre réseau, par exemple entre les ressources du réseau.
maillage de données

Un cadre architectural qui fournit une propriété des données distribuée et décentralisée avec une
gestion et une gouvernance centralisées.
minimisation des données

Le principe de collecte et de traitement des seules données strictement nécessaires. La pratique


de la minimisation des données AWS Cloud peut réduire les risques liés à la confidentialité, les
coûts et l'empreinte carbone de vos analyses.
périmètre de données

Ensemble de garde-fous préventifs dans votre AWS environnement qui permettent de garantir
que seules les identités fiables accèdent aux ressources fiables des réseaux attendus. Pour plus
d'informations, voir Création d'un périmètre de données sur AWS.
prétraitement des données

Pour transformer les données brutes en un format facile à analyser par votre modèle de ML. Le
prétraitement des données peut impliquer la suppression de certaines colonnes ou lignes et le
traitement des valeurs manquantes, incohérentes ou en double.

D 29
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

provenance des données

Le processus de suivi de l'origine et de l'historique des données tout au long de leur cycle de vie,
par exemple la manière dont les données ont été générées, transmises et stockées.
sujet de données

Personne dont les données sont collectées et traitées.


entrepôt des données

Un système de gestion des données qui prend en charge les informations commerciales, telles
que les analyses. Les entrepôts de données contiennent généralement de grandes quantités de
données historiques et sont généralement utilisés pour les requêtes et les analyses.
langage de définition de base de données (DDL)

Instructions ou commandes permettant de créer ou de modifier la structure des tables et des


objets dans une base de données.
langage de manipulation de base de données (DML)

Instructions ou commandes permettant de modifier (insérer, mettre à jour et supprimer) des


informations dans une base de données.
DDL

Voir langage de définition de base de données.


ensemble profond

Sert à combiner plusieurs modèles de deep learning à des fins de prédiction. Vous pouvez utiliser
des ensembles profonds pour obtenir une prévision plus précise ou pour estimer l'incertitude des
prédictions.
deep learning

Un sous-champ de ML qui utilise plusieurs couches de réseaux neuronaux artificiels pour identifier
le mappage entre les données d'entrée et les variables cibles d'intérêt.
defense-in-depth

Approche de la sécurité de l'information dans laquelle une série de mécanismes et de contrôles


de sécurité sont judicieusement répartis sur l'ensemble d'un réseau informatique afin de protéger
la confidentialité, l'intégrité et la disponibilité du réseau et des données qu'il contient. Lorsque
vous adoptez cette stratégie sur AWS, vous ajoutez plusieurs contrôles à différentes couches de

D 30
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

la AWS Organizations structure afin de protéger les ressources. Par exemple, une defense-in-
depth approche peut combiner l'authentification multifactorielle, la segmentation du réseau et le
chiffrement.
administrateur délégué

Dans AWS Organizations, un service compatible peut enregistrer un compte AWS membre pour
administrer les comptes de l'organisation et gérer les autorisations pour ce service. Ce compte est
appelé administrateur délégué pour ce service. Pour plus d'informations et une liste des services
compatibles, veuillez consulter la rubrique Services qui fonctionnent avec AWS Organizations
dans la documentation AWS Organizations .
déploiement

Processus de mise à disposition d'une application, de nouvelles fonctionnalités ou de corrections


de code dans l'environnement cible. Le déploiement implique la mise en œuvre de modifications
dans une base de code, puis la génération et l'exécution de cette base de code dans les
environnements de l'application.
environnement de développement

Voir environnement.
contrôle de détection

Contrôle de sécurité conçu pour détecter, journaliser et alerter après la survenue d'un événement.
Ces contrôles constituent une deuxième ligne de défense et vous alertent en cas d'événements
de sécurité qui ont contourné les contrôles préventifs en place. Pour plus d'informations, veuillez
consulter la rubrique Contrôles de détection dans Implementing security controls on AWS.
cartographie de la chaîne de valeur du développement (DVSM)

Processus utilisé pour identifier et hiérarchiser les contraintes qui nuisent à la rapidité et à la
qualité du cycle de vie du développement logiciel. DVSMétend le processus de cartographie de
la chaîne de valeur initialement conçu pour les pratiques de production allégée. Il met l'accent
sur les étapes et les équipes nécessaires pour créer et transférer de la valeur tout au long du
processus de développement logiciel.
jumeau numérique

Représentation virtuelle d'un système réel, tel qu'un bâtiment, une usine, un équipement industriel
ou une ligne de production. Les jumeaux numériques prennent en charge la maintenance
prédictive, la surveillance à distance et l'optimisation de la production.

D 31
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

tableau des dimensions

Dans un schéma en étoile, table plus petite contenant les attributs de données relatifs aux
données quantitatives d'une table de faits. Les attributs des tables de dimensions sont
généralement des champs de texte ou des nombres discrets qui se comportent comme du texte.
Ces attributs sont couramment utilisés pour la contrainte des requêtes, le filtrage et l'étiquetage
des ensembles de résultats.
catastrophe

Un événement qui empêche une charge de travail ou un système d'atteindre ses objectifs
commerciaux sur son site de déploiement principal. Ces événements peuvent être des
catastrophes naturelles, des défaillances techniques ou le résultat d'actions humaines, telles
qu'une mauvaise configuration involontaire ou une attaque de logiciel malveillant.
reprise après sinistre (DR)

La stratégie et le processus que vous utilisez pour minimiser les temps d'arrêt et les pertes de
données causés par un sinistre. Pour plus d'informations, veuillez consulter Reprise après sinistre
des charges de travail sur AWS : restauration dans le cloud dans le cadre AWS Well-Architected
Framework.
DML

Voir langage de manipulation de base de données.


conception axée sur le domaine

Approche visant à développer un système logiciel complexe en connectant ses composants à


des domaines évolutifs, ou objectifs métier essentiels, que sert chaque composant. Ce concept
a été introduit par Eric Evans dans son ouvrage Domain-Driven Design: Tackling Complexity in
the Heart of Software (Boston : Addison-Wesley Professional, 2003). Pour plus d'informations sur
l'utilisation du design piloté par domaine avec le modèle de figuier étrangleur, veuillez consulter
Modernizing legacy Microsoft legacy Microsoft. ASP NET(ASMX) des services Web de manière
incrémentielle à l'aide de conteneurs et d'Amazon API Gateway.
DR

Consultez la section Reprise après sinistre.


détection des écarts

Suivi des écarts par rapport à une configuration de référence. Par exemple, vous pouvez l'utiliser
AWS CloudFormation pour détecter la dérive des ressources du système ou AWS Control Tower

D 32
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

pour détecter les modifications de votre zone d'atterrissage susceptibles d'affecter le respect des
exigences de gouvernance.
DVSM

Voir la cartographie de la chaîne de valeur du développement.

E
EDA

Voir analyse exploratoire des données.


informatique de périphérie

Technologie qui augmente la puissance de calcul des appareils intelligents en périphérie d'un
réseau IoT. Par rapport au cloud computing, l'informatique de périphérie peut réduire la latence
des communications et améliorer le temps de réponse.
chiffrement

Processus informatique qui transforme des données en texte clair, lisibles par l'homme, en texte
chiffré.
clé de chiffrement

Chaîne cryptographique de bits aléatoires générée par un algorithme cryptographique. La


longueur des clés peut varier, et chaque clé est conçue pour être imprévisible et unique.
endianisme

Ordre selon lequel les octets sont stockés dans la mémoire de l'ordinateur. Les systèmes de
poids fort stockent d'abord l'octet le plus significatif. Les systèmes de poids faible stockent d'abord
l'octet le moins significatif.
point de terminaison

Voir point de terminaison de service.


service de point de terminaison

Service que vous pouvez héberger sur un cloud privé virtuel (VPC) pour le partager avec d'autres
utilisateurs. Vous pouvez créer un service de point de terminaison avec AWS PrivateLink et
accorder des autorisations à d'autres Comptes AWS ou à AWS Identity and Access Management
(IAM) principaux. Ces comptes ou principaux peuvent se connecter à votre service de point

E 33
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

de terminaison de manière privée en créant des points de VPC terminaison d'interface. Pour
plus d'informations, veuillez consulter Création d'un service de point de terminaison dans la
documentation Amazon Virtual Private Cloud (AmazonVPC).
planification des ressources d'entreprise (ERP)

Système qui automatise et gère les principaux processus métier (tels que la comptabilité et la
gestion de projet) pour une entreprise. MES
chiffrement d'enveloppe

Processus de chiffrement d'une clé de chiffrement à l'aide d'une autre clé de chiffrement. Pour
plus d'informations, veuillez consulter la rubrique Envelope encryption dans la documentation
AWS Key Management Service (AWS KMS).
environment

Instance d'une application en cours d'exécution. Les types d'environnement les plus courants
dans le cloud computing sont les suivants :
• Environnement de développement : instance d'une application en cours d'exécution à laquelle
seule l'équipe principale chargée de la maintenance de l'application peut accéder. Les
environnements de développement sont utilisés pour tester les modifications avant de les
promouvoir dans les environnements supérieurs. Ce type d'environnement est parfois appelé
environnement de test.
• Environnements inférieurs : tous les environnements de développement d'une application, tels
que ceux utilisés pour les générations et les tests initiaux.
• Environnement de production : instance d'une application en cours d'exécution à laquelle les
utilisateurs finaux peuvent accéder. Dans un pipeline CI/CD, l'environnement de production est
le dernier environnement de déploiement.
• Environnements supérieurs : tous les environnements accessibles aux utilisateurs autres que
l'équipe de développement principale. Ils peuvent inclure un environnement de production, des
environnements de préproduction et des environnements pour les tests d'acceptation par les
utilisateurs.
épopée

Dans les méthodologies agiles, catégories fonctionnelles qui aident à organiser et à prioriser
votre travail. Les épopées fournissent une description détaillée des exigences et des tâches
d'implémentation. Par exemple, les épopées en matière de AWS CAF sécurité comprennent la
gestion des identités et des accès, les contrôles de détection, la sécurité de l'infrastructure, la

E 34
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

protection des données et la réponse aux incidents. Pour plus d'informations sur les épopées
dans la stratégie de migration AWS , veuillez consulter le guide d'implémentation du programme.
ERP

Voir Planification des ressources d'entreprise.


analyse exploratoire des données () EDA

Processus d'analyse d'un jeu de données pour comprendre ses principales caractéristiques. Vous
collectez ou agrégez des données, puis vous effectuez des enquêtes initiales pour trouver des
modèles, détecter des anomalies et vérifier les hypothèses. EDAest réalisée en calculant des
statistiques récapitulatives et en créant des visualisations de données.

F
tableau d'informations

La table centrale dans un schéma en étoile. Il stocke des données quantitatives sur les opérations
commerciales. Généralement, une table de faits contient deux types de colonnes : celles
qui contiennent des mesures et celles qui contiennent une clé étrangère pour une table de
dimensions.
échouer rapidement

Une philosophie qui utilise des tests fréquents et progressifs pour réduire le cycle de vie du
développement. C'est un élément essentiel d'une approche agile.
limite d'isolation des défauts

Dans le AWS Cloud, une limite telle qu'une zone de disponibilité Région AWS, un plan de contrôle
ou un plan de données qui limite l'effet d'une panne et contribue à améliorer la résilience des
charges de travail. Pour de plus amples informations, veuillez consulter Frontières d'isolation des
AWS défauts.
branche de fonctionnalités

Voir la succursale.
fonctionnalités

Les données d'entrée que vous utilisez pour faire une prédiction. Par exemple, dans un contexte
de fabrication, les fonctionnalités peuvent être des images capturées périodiquement à partir de la
ligne de fabrication.

F 35
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

importance des fonctionnalités

Le niveau d'importance d'une fonctionnalité pour les prédictions d'un modèle. Il s'exprime
généralement sous la forme d'un score numérique qui peut être calculé à l'aide de différentes
techniques, telles que la méthode Shapley Additive Explanations (SHAP) et les gradients intégrés.
Pour plus d'informations, veuillez consulter Machine learning model interpretability with :AWS.
transformation de fonctionnalité

Optimiser les données pour le processus de ML, notamment en enrichissant les données avec
des sources supplémentaires, en mettant à l'échelle les valeurs ou en extrayant plusieurs
ensembles d'informations à partir d'un seul champ de données. Cela permet au modèle de ML
de tirer parti des données. Par exemple, si vous décomposez la date « 2021-05-27 00:15:37 » en
« 2021 », « mai », « jeudi » et « 15 », vous pouvez aider l'algorithme d'apprentissage à apprendre
des modèles nuancés associés à différents composants de données.
FGAC

Voir le contrôle d'accès affiné.


contrôle précis des accès () FGAC

Utilisation de plusieurs conditions pour autoriser ou refuser une demande d'accès.


migration instantanée (flash-cut)

Méthode de migration de base de données qui utilise la réplication continue des données via la
capture des données de modification afin de migrer les données dans les plus brefs délais, au lieu
d'utiliser une approche progressive. L'objectif est de réduire au maximum les temps d'arrêt.

G
blocage géographique

Voir les restrictions géographiques.


restrictions géographiques (blocage géographique)

Dans Amazon CloudFront, option permettant d'empêcher les utilisateurs de pays spécifiques
d'accéder aux distributions de contenu. Vous pouvez utiliser une liste d'autorisation ou une liste de
blocage pour spécifier les pays approuvés et interdits. Pour plus d'informations, veuillez consulter

G 36
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

la rubrique Restriction de la distribution géographique de votre contenu dans la CloudFront


documentation.
Flux de travail Gitflow

Approche dans laquelle les environnements inférieurs et supérieurs utilisent différentes branches
dans un référentiel de code source. Le flux de travail Gitflow est considéré comme l'approche
héritée, tandis que le flux de travail basé sur les liaisons est l'approche moderne préférée.
stratégie inédite

L'absence d'infrastructures existantes dans un nouvel environnement. Lorsque vous adoptez une
stratégie inédite pour une architecture système, vous pouvez sélectionner toutes les nouvelles
technologies sans restriction de compatibilité avec l'infrastructure existante, également appelée
brownfield. Si vous étendez l'infrastructure existante, vous pouvez combiner des politiques
brownfield (existantes) et greenfield (inédites).
barrière de protection

Règle de haut niveau qui permet de régir les ressources, les politiques et la conformité au sein
des unités d'organisation (OUs). Les barrières de protection préventives appliquent des politiques
pour garantir l'alignement sur les normes de conformité. Elles sont mises en œuvre à l'aide
de politiques de contrôle des services et de limites des IAM autorisations. Les barrières de
protection de détection détectent les violations des politiques et les problèmes de conformité, et
génèrent des alertes pour y remédier. Ils sont implémentés à l'aide d'Amazon AWS Config AWS
Security Hub GuardDuty AWS Trusted Advisor, d'Amazon Inspector et de AWS Lambda contrôles
personnalisés.

H
HA

Découvrez la haute disponibilité.


migration de base de données hétérogène

Migration de votre base de données source vers une base de données cible qui utilise un
moteur de base de données différent (par exemple, Oracle vers Amazon Aurora). La migration
hétérogène fait généralement partie d'un effort de réarchitecture, et la conversion du schéma peut
s'avérer une tâche complexe. AWS propose AWS SCT qui facilite les conversions de schémas.

H 37
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

haute disponibilité (HA)

Capacité d'une charge de travail à fonctionner en continu, sans intervention, en cas de difficultés
ou de catastrophes. Les systèmes HA sont conçus pour basculer automatiquement, fournir
constamment des performances de haute qualité et gérer différentes charges et défaillances avec
un impact minimal sur les performances.

modernisation de l'historien

Approche utilisée pour moderniser et mettre à niveau les systèmes de technologie opérationnelle
(OT) afin de mieux répondre aux besoins de l'industrie manufacturière. Un historien est un type
de base de données utilisé pour collecter et stocker des données provenant de diverses sources
dans une usine.

migration de base de données homogène

Migration de votre base de données source vers une base de données cible qui partage le
même moteur de base de données (par exemple, Microsoft SQL Server vers Amazon RDS
for SQL Server). La migration homogène s'inscrit généralement dans le cadre d'un effort de
réhébergement ou de replateforme. Vous pouvez utiliser les utilitaires de base de données natifs
pour migrer le schéma.

données chaudes

Données fréquemment consultées, telles que les données en temps réel ou les données
translationnelles récentes. Ces données nécessitent généralement un niveau ou une classe de
stockage à hautes performances pour fournir des réponses rapides aux requêtes.

correctif

Solution d'urgence à un problème critique dans un environnement de production. En raison


de son urgence, un correctif est généralement créé en dehors du flux de travail de DevOps
publication courant.

période de soins intensifs

Immédiatement après le basculement, période pendant laquelle une équipe de migration gère
et surveille les applications migrées dans le cloud afin de résoudre les problèmes éventuels. En
règle générale, cette période dure de 1 à 4 jours. À la fin de la période de soins intensifs, l'équipe
de migration transfère généralement la responsabilité des applications à l'équipe des opérations
cloud.

H 38
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

I
IaC

Considérez l'infrastructure comme un code.


politique basée sur l’identité

Politique attachée à un ou plusieurs IAM principaux qui définit leurs autorisations au sein de l'
AWS Cloud environnement.
application inactive

Application dont l'utilisation moyenne CPU de la mémoire se situe entre 5 et 20 % sur une période
de 90 jours. Dans un projet de migration, il est courant de retirer ces applications ou de les retenir
sur site.
IIoT

Voir internet industriel des objets.


infrastructure immuable

Modèle qui déploie une nouvelle infrastructure pour les charges de travail de production au lieu de
mettre à jour, d'appliquer des correctifs ou de modifier l'infrastructure existante. Les infrastructures
immuables sont intrinsèquement plus cohérentes, fiables et prévisibles que les infrastructures
mutables. Pour plus d'informations, consultez les meilleures pratiques de déploiement à l'aide
d'une infrastructure immuable dans le Cadre AWS Well-Architected.
entrant (d'entrée) VPC

Dans une architecture à AWS comptes multiples, VPC qui accepte, inspecte et achemine
les connexions réseau depuis l'extérieur d'une application. L'architecture AWS de référence
de sécurité recommande de configurer votre compte réseau avec les entrées, les sorties et
l'inspection VPCs afin de protéger l'interface bidirectionnelle entre votre application et Internet en
général.
migration incrémentielle

Stratégie de basculement dans le cadre de laquelle vous migrez votre application par petites
parties au lieu d'effectuer un basculement complet unique. Par exemple, il se peut que vous
ne transfériez que quelques microservices ou utilisateurs vers le nouveau système dans un

I 39
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

premier temps. Après avoir vérifié que tout fonctionne correctement, vous pouvez transférer
progressivement des microservices ou des utilisateurs supplémentaires jusqu'à ce que vous
puissiez mettre hors service votre système hérité. Cette stratégie réduit les risques associés aux
migrations de grande ampleur.
Industry 4.0

Un terme introduit par Klaus Schwab en 2016 pour désigner la modernisation des processus
de fabrication grâce aux avancées en matière de connectivité, de données en temps réel,
d'automatisation, d'analyse et d'IA/ML.
infrastructure

Ensemble des ressources et des actifs contenus dans l'environnement d'une application.
infrastructure en tant que code (IaC)

Processus de mise en service et de gestion de l'infrastructure d'une application via un


ensemble de fichiers de configuration. IaC est conçue pour vous aider à centraliser la gestion
de l'infrastructure, à normaliser les ressources et à mettre à l'échelle rapidement afin que les
nouveaux environnements soient reproductibles, fiables et cohérents.
internet industriel des objets (IIoT)

L'utilisation de capteurs et d'appareils connectés à Internet dans les secteurs industriels tels que
la fabrication, l'énergie, l'automobile, les soins de santé, les sciences de la vie et l'agriculture.
Pour plus d'informations, veuillez consulter Building an industrial Internet of Things (IIoT) digital
transformation strategy.
inspection VPC

Dans une architecture à AWS comptes multiples, système centralisé VPC qui gère les inspections
du trafic réseau entre VPCs (dans des identiques ou différentes Régions AWS), Internet et les
réseaux sur site. L'architecture AWS de référence de sécurité recommande de configurer votre
compte réseau avec les entrées, les sorties et l'inspection VPCs afin de protéger l'interface
bidirectionnelle entre votre application et Internet en général.
Internet des objets (IoT)

Réseau d'objets physiques connectés dotés de capteurs ou de processeurs intégrés


qui communiquent avec d'autres appareils et systèmes via Internet ou via un réseau de
communication local. Pour plus d'informations, veuillez consulter la section Qu'est-ce que l'IoT ?.

I 40
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

interprétabilité

Caractéristique d'un modèle de machine learning qui décrit dans quelle mesure un être humain
peut comprendre comment les prédictions du modèle dépendent de ses entrées. Pour plus
d'informations, veuillez consulter Machine learning model interpretability with AWS.
IoT

Voir Internet des objets.


bibliothèque d'informations informatiques (ITIL)

Ensemble de bonnes pratiques pour proposer des services informatiques et les aligner sur les
exigences métier. ITILconstitue la base deITSM.
Gestion des services informatiques (ITSM)

Activités associées à la conception, à la mise en œuvre, à la gestion et à la prise en charge de


services informatiques d'une organisation. Pour plus d'informations sur l'intégration des opérations
cloud aux ITSM outils, veuillez consulter le guide d'intégration des opérations.
ITIL

Consultez la bibliothèque d'informations informatiques.


ITSM

Voir Gestion des services informatiques.

L
contrôle d'accès par étiquette () LBAC

Une implémentation du contrôle d'accès obligatoire (MAC) dans laquelle une valeur d'étiquette de
sécurité est explicitement attribuée aux utilisateurs et aux données elles-mêmes. L'intersection
entre l'étiquette de sécurité utilisateur et l'étiquette de sécurité des données détermine les lignes
et les colonnes visibles par l'utilisateur.
zone de destination

Une zone de destination est un AWS environnement à comptes multiples Well-Architected évolutif
et sécurisé. Il s'agit d'un point de départ à partir duquel vos entreprises peuvent rapidement lancer
et déployer des charges de travail et des applications en toute confiance dans leur environnement

L 41
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

de sécurité et d'infrastructure. Pour plus d'informations sur les zones de destination, veuillez
consulter Setting up a secure and scalable multi-account AWS environment.
migration de grande envergure

Migration de 300 serveurs ou plus.


LBAC

Voir contrôle d'accès basé sur des étiquettes.


principe de moindre privilège

Bonne pratique de sécurité qui consiste à accorder les autorisations minimales nécessaires à
l'exécution d'une tâche. Pour plus d'informations, veuillez consulter la rubrique Accorder les
autorisations de moindre privilège dans la IAM documentation.
lift and shift

Voir 7 Rs.
système de poids faible

Système qui stocke d'abord l'octet le moins significatif. Voir aussi endianité.
environnements inférieurs

Voir environnement.

M
machine learning (ML)

Type d'intelligence artificielle qui utilise des algorithmes et des techniques pour la reconnaissance
et l'apprentissage de modèles. Le ML analyse et apprend à partir de données enregistrées, telles
que les données de l'Internet des objets (IoT), pour générer un modèle statistique basé sur des
modèles. Pour plus d'informations, veuillez consulter Machine Learning.
branche principale

Voir la succursale.
malware

Logiciel conçu pour compromettre la sécurité ou la confidentialité de l'ordinateur. Les logiciels


malveillants peuvent perturber les systèmes informatiques, divulguer des informations sensibles

M 42
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

ou obtenir un accès non autorisé. Les logiciels malveillants comprennent notamment les virus, les
vers, les rançongiciels, les chevaux de Troie, les logiciels espions et les enregistreurs de frappe.
services gérés

Services AWS pour lequel AWS fonctionnent la couche d'infrastructure, le système d'exploitation
et les plateformes, et vous accédez aux points de terminaison pour stocker et récupérer des
données. Amazon Simple Storage Service (Amazon S3) et Amazon DynamoDB sont des
exemples de services gérés. Ils sont également connus sous le nom de services abstraits.
système d'exécution de la fabrication (MES)

Un système logiciel pour le suivi, la surveillance, la documentation et le contrôle des processus de


production qui convertissent les matières premières en produits finis dans l'atelier.
MAP

Voir Migration Acceleration Program.


mécanisme

Processus complet au cours duquel vous créez un outil, favorisez son adoption, puis inspectez
les résultats afin de procéder aux ajustements nécessaires. Un mécanisme est un cycle qui se
renforce et s'améliore lorsqu'il fonctionne. Pour plus d'informations, veuillez consulter Building
AWS Architected Framework.
compte membre

Tous les Comptes AWS autres que le compte de gestion qui font partie d'une organisation dans
AWS Organizations. Un compte ne peut être membre que d'une seule organisation à la fois.
MES

Voir le système d'exécution de la fabrication.


Transport de télémétrie par file d'attente de messages () MQTT

Protocole de communication léger machine-to-machine (M2M), basé sur le modèle de publication/


d'abonnement, pour les appareils IoT aux ressources limitées.
microservice

Petit service indépendant qui communique via un réseau bien défini APIs et qui est généralement
détenu par de petites équipes autonomes. Par exemple, un système d'assurance peut inclure
des microservices qui mappent à des capacités métier, telles que les ventes ou le marketing,

M 43
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

ou à des sous-domaines, tels que les achats, les réclamations ou l'analytique. Les avantages
des microservices incluent l'agilité, la flexibilité de la mise à l'échelle, la facilité de déploiement,
la réutilisation du code et la résilience. Pour plus d'informations, veuillez consulter Integrating
microservices by using AWS serverless services.
architecture de microservices

Approche de création d'une application avec des composants indépendants qui exécutent chaque
processus d'application en tant que microservice. Ces microservices communiquent via une
interface bien définie à l'aide de Lightning. APIs Chaque microservice de cette architecture peut
être mis à jour, déployé et mis à l'échelle pour répondre à la demande de fonctions spécifiques
d'une application. Pour de plus amples informations, veuillez consulter Implémentation de
microservices sur AWS.
Migration Acceleration Program (MAP)

AWS Programme qui fournit un support de conseil, des formations et des services pour aider
les entreprises à générer une base opérationnelle solide pour passer au cloud et pour aider à
compenser le coût initial des migrations. MAPinclut une méthodologie de migration pour exécuter
les migrations héritées de manière méthodique, ainsi qu'un ensemble d'outils pour automatiser et
accélérer les scénarios de migration courants.
migration à grande échelle

Processus consistant à transférer la majeure partie du portefeuille d'applications vers le cloud par
vagues, un plus grand nombre d'applications étant déplacées plus rapidement à chaque vague.
Cette phase utilise les bonnes pratiques et les enseignements tirés des phases précédentes pour
implémenter une usine de migration d'équipes, d'outils et de processus en vue de rationaliser
la migration des charges de travail grâce à l'automatisation et à la livraison agile. Il s'agit de la
troisième phase de la stratégie de migration AWS.
usine de migration

Équipes interfonctionnelles qui rationalisent la migration des charges de travail grâce à


des approches automatisées et agiles. Les équipes de l'usine de migration comprennent
généralement des responsables des opérations, des analystes métier et des propriétaires, des
ingénieurs de migration, des développeurs et DevOps des professionnels travaillant dans des
sprints. Entre 20 et 50 % du portefeuille d'applications d'entreprise est constitué de modèles
répétés qui peuvent être optimisés par une approche d'usine. Pour plus d'informations, veuillez
consulter la rubrique discussion of migration factories et le guide Cloud Migration Factory dans cet
ensemble de contenus.

M 44
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

métadonnées de migration

Informations relatives à l'application et au serveur nécessaires pour finaliser la migration.


Chaque modèle de migration nécessite un ensemble de métadonnées de migration différent. Les
exemples de métadonnées de migration incluent le sous-réseau cible, le groupe de sécurité et le
AWS compte.

modèle de migration

Tâche de migration reproductible qui détaille la stratégie de migration, la destination de la


migration et l'application ou le service de migration utilisé. Exemple : réhéberger la migration vers
Amazon EC2 avec AWS Application Migration Service.

Évaluation du portefeuille de migration (MPA)

Outil en ligne qui fournit des informations pour valider l'analyse de rentabilisation en faveur
de la migration vers. AWS Cloud MPApropose une évaluation détaillée du portefeuille
(dimensionnement approprié des serveurs, tarification, TCO comparaison, analyse des coûts
de migration), ainsi que la planification de la migration (analyse et collecte des données
d'applications, regroupement des applications, priorisation des migrations et planification des
vagues). L'MPAoutil (connexion requise) est mis gratuitement à la disposition de tous les AWS
consultants et consultants APN partenaires.

Évaluation de la préparation à la migration (MRA)

Processus qui consiste à obtenir des informations sur l'état de préparation au cloud d'une
entreprise, à identifier les forces et les faiblesses, ainsi qu'à élaborer un plan d'action pour
combler les lacunes identifiées, à l'aide du AWS CAF. Pour plus d'informations, veuillez consulter
le guide de préparation à la migration. MRAest la première phase de la stratégie de AWS
migration.

stratégie de migration

Approche utilisée pour migrer une charge de travail vers AWS Cloud. Pour plus d'informations,
veuillez consulter l'entrée sur les 7 R dans ce glossaire et Mobilize your organization to accelerate
large-scale migrations.

ML

Voir apprentissage automatique.

M 45
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

modernisation

Transformation d'une application obsolète (héritée ou monolithique) et de son infrastructure en


un système agile, élastique et hautement disponible dans le cloud afin de réduire les coûts, de
gagner en efficacité et de tirer parti des innovations. Pour plus d'informations, veuillez consulter
Strategy for modernizing applications dans le AWS Cloud.

évaluation de la préparation à la modernisation

Évaluation qui permet de déterminer si les applications d'une organisation sont prêtes à être
modernisées, d'identifier les avantages, les risques et les dépendances, et qui détermine dans
quelle mesure l'organisation peut prendre en charge l'état futur de ces applications. Le résultat
de l'évaluation est un plan de l'architecture cible, une feuille de route détaillant les phases
de développement et les étapes du processus de modernisation, ainsi qu'un plan d'action
pour combler les lacunes identifiées. Pour plus d'informations, veuillez consulter Evaluating
modernizing model model in the AWS Cloud.

applications monolithiques (monolithes)

Applications qui s'exécutent en tant que service unique avec des processus étroitement
couplés. Les applications monolithiques ont plusieurs inconvénients. Si une fonctionnalité de
l'application connaît un pic de demande, l'architecture entière doit être mise à l'échelle. L'ajout
ou l'amélioration des fonctionnalités d'une application monolithique devient également plus
complexe lorsque la base de code s'élargit. Pour résoudre ces problèmes, vous pouvez utiliser
une architecture de microservices. Pour plus d'informations, veuillez consulter Decomposing
monoliths into microservices.

MPA

Voir Évaluation du portefeuille de migration.

MQTT

Voir Transport de télémétrie par file d'attente de messages.

classification multi-classes

Processus qui permet de générer des prédictions pour plusieurs classes (prédiction d'un résultat
parmi plus de deux). Par exemple, un modèle de ML peut demander « Ce produit est-il un livre,
une voiture ou un téléphone ? » ou « Quelle catégorie de produits intéresse le plus ce client ? ».

M 46
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

infrastructure mutable

Modèle qui met à jour et modifie l'infrastructure existante pour les charges de travail de
production. Pour améliorer la cohérence, la fiabilité et la prévisibilité, le AWS Well-Architected
Framework recommande l'utilisation d'une infrastructure immuable comme meilleure pratique.

O
OAC

Voir Contrôle d'accès à l'origine.


OAI

Voir l'identité d'accès à l'origine.


OCM

Voir gestion du changement organisationnel.


migration hors ligne

Méthode de migration dans laquelle la charge de travail source est supprimée au cours du
processus de migration. Cette méthode implique un temps d'arrêt prolongé et est généralement
utilisée pour de petites charges de travail non critiques.
OI

Consultez la section Intégration des opérations.


OLA

Voir accord au niveau opérationnel.


migration en ligne

Méthode de migration dans laquelle la charge de travail source est copiée sur le système cible
sans être mise hors ligne. Les applications connectées à la charge de travail peuvent continuer à
fonctionner pendant la migration. Cette méthode implique un temps d'arrêt nul ou minimal et est
généralement utilisée pour les charges de travail de production critiques.
OPC-États-Unis

Voir Open Process Communications - Architecture unifiée.

O 47
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

Communications par processus ouvert - Architecture unifiée (OPC-UA)

Un protocole de communication machine-to-machine (M2M) pour l'automatisation industrielle.


OPC-UA fournit une norme d'interopérabilité avec des schémas de cryptage, d'authentification et
d'autorisation des données.
accord au niveau opérationnel () OLA

Accord qui précise ce que les groupes informatiques fonctionnels s'engagent à fournir les uns aux
autres, afin de prendre en charge un contrat de niveau de service (). SLA
examen de l'état de préparation opérationnelle (ORR)

Une liste de questions et de bonnes pratiques associées qui vous aident à comprendre, à
évaluer, à prévenir ou à réduire l'ampleur des incidents et des défaillances possibles. Pour
plus d'informations, voir Operational Readiness Reviews (ORR) dans le AWS Well-Architected
Framework.
technologie opérationnelle (OT)

Systèmes matériels et logiciels qui fonctionnent avec l'environnement physique pour contrôler
les opérations, les équipements et les infrastructures industriels. Dans le secteur manufacturier,
l'intégration des systèmes OT et des technologies de l'information (IT) est au cœur des
transformations de l'industrie 4.0.
intégration des opérations (OI)

Processus de modernisation des opérations dans le cloud, qui implique la planification de la


préparation, l'automatisation et l'intégration. Pour en savoir plus, veuillez consulter le guide
d'intégration des opérations.
journal de suivi d'organisation

Journal de suivi créé par AWS CloudTrail qui journalise tous les événements pour tous les
Comptes AWS dans une organisation dans AWS Organizations. Ce journal de suivi est créé dans
chaque Compte AWS qui fait partie de l'organisation et suit l'activité de chaque compte. Pour plus
d'informations, veuillez consulter la rubrique Creating a trail for an organization dans la CloudTrail
documentation.
gestion du changement organisationnel (OCM)

Cadre pour gérer les transformations métier majeures et perturbatrices du point de vue des
personnes, de la culture et du leadership. OCMaide les entreprises à se préparer et à effectuer
la transition vers de nouveaux systèmes et de nouvelles politiques en accélérant l'adoption des

O 48
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

changements, en abordant les problèmes de transition et en favorisant des changements culturels


et organisationnels. Dans la stratégie de AWS migration, ce cadre s'appelle accélération des
personnes, en raison de la rapidité du changement requise dans les projets d'adoption du cloud.
Pour de plus amples informations, veuillez consulter le OCMguide.
contrôle d'accès d'origine (OAC)

Dans CloudFront, option améliorée qui permet de restreindre l'accès à votre contenu Amazon
Simple Storage Service (Amazon S3). OACprend en charge tous les compartiments S3
Régions AWS, le chiffrement côté serveur avec AWS KMS (SSE-KMS) et les DELETE requêtes
dynamiques PUT adressées au compartiment S3.
identité d'accès d'origine (OAI)

Dans CloudFront, option qui permet de restreindre l'accès à votre contenu Amazon S3. Lorsque
vous utilisezOAI, CloudFront crée un principal auprès duquel Amazon S3 peut s'authentifier. Les
principaux authentifiés peuvent accéder au contenu dans un compartiment S3 uniquement via
une distribution spécifique CloudFront . Voir également OAC, qui fournit un contrôle d'accès plus
précis et amélioré.
ORR

Voir l'examen de l'état de préparation opérationnelle.


DE

Voir technologie opérationnelle.


sortant (de sortie) VPC

Dans une architecture à AWS comptes multiples, VPC qui gère les connexions réseau initiées
depuis une application. L'architecture AWS de référence de sécurité recommande de configurer
votre compte réseau avec les entrées, les sorties et l'inspection VPCs afin de protéger l'interface
bidirectionnelle entre votre application et Internet en général.

P
limite des autorisations

Politique de IAM gestion attachée IAM aux principaux pour définir les autorisations maximales que
peut avoir l'utilisateur ou le rôle. Pour plus d'informations, veuillez consulter la rubrique Limites
des autorisations dans la IAM documentation.

P 49
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

données d'identification personnelle (PII)

Informations qui, lorsqu'elles sont consultées directement ou associées à d'autres données


connexes, peuvent être utilisées pour déduire raisonnablement l'identité d'une personne. PIILes
exemples incluent les noms, les adresses et les coordonnées.

PII

Voir les informations personnelles identifiables.

manuel stratégique

Ensemble d'étapes prédéfinies qui capturent le travail associé aux migrations, comme la
fourniture de fonctions d'opérations de base dans le cloud. Un manuel stratégique peut revêtir
la forme de scripts, de runbooks automatisés ou d'un résumé des processus ou des étapes
nécessaires au fonctionnement de votre environnement modernisé.

PLC

Voir contrôleur logique programmable.

PLM

Consultez la section Gestion du cycle de vie des produits.

politique

Objet qui permet de définir des autorisations (voir Politique d'identité), de spécifier les conditions
d'accès (voir Politique de contrôle des services), ou de définir les autorisations maximales pour
tous les comptes d'une organisation dans AWS Organizations (voir Politique de contrôle des
services).

persistance polyglotte

Choix indépendant de la technologie de stockage de données d'un microservice en fonction des


modèles d'accès aux données et d'autres exigences. Si vos microservices utilisent la même
technologie de stockage de données, ils peuvent rencontrer des difficultés d'implémentation ou
présenter des performances médiocres. Les microservices sont plus faciles à mettre en œuvre,
atteignent de meilleures performances, ainsi qu'une meilleure capacité de mise à l'échelle s'ils
utilisent l'entrepôt de données le mieux adapté à leurs besoins. Pour plus d'informations, veuillez
consulter Enabling data persistence in microservices.

P 50
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

évaluation du portefeuille

Processus de découverte, d'analyse et de priorisation du portefeuille d'applications afin de


planifier la migration. Pour plus d'informations, veuillez consulter Evaluating migration readiness.
predicate

Une condition de requête qui renvoie true oufalse, généralement située dans une WHERE
clause.
poussée de predicate

Technique d'optimisation des requêtes de base de données qui filtre les données de la requête
avant le transfert. Cela permet de réduire la quantité de données devant être extraites et traitées à
partir de la base de données relationnelle, et d'améliorer les performances des requêtes.
contrôle préventif

Contrôle de sécurité conçu pour empêcher qu'un événement ne se produise. Ces contrôles
constituent une première ligne de défense pour empêcher tout accès non autorisé ou toute
modification indésirable de votre réseau. Pour plus d'informations, veuillez consulter Preventative
controls dans Implementing security controls on AWS.
principal

Une entité d' AWS qui peut exécuter des actions et accéder à des ressources. Cette entité est
généralement un utilisateur root pour un Compte AWS, un IAM rôle ou un utilisateur. Pour plus
d'informations, consultez les termes et concepts de Principal in Roles dans la IAM documentation.
Protection de la confidentialité dès la conception

Une approche de l'ingénierie des systèmes qui prend en compte la confidentialité tout au long du
processus d'ingénierie.
zones hébergées privées

Conteneur qui contient des informations concernant la façon dont vous souhaitez qu'Amazon
Route 53 réponde aux DNS requêtes concernant un domaine et ses sous-domaines dans un ou
plusieursVPCs. Pour plus d'informations, veuillez consulter Working with private hosted zones
dans la documentation Route 53.
contrôle proactif

Utilisation d'un contrôle de sécurité conçu pour empêcher le déploiement de ressources non
conformes. Ces contrôles analysent les ressources avant qu'elles ne soient provisionnées. Si la

P 51
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

ressource n'est pas conforme au contrôle, elle n'est pas provisionnée. Pour plus d'informations,
consultez le guide de référence sur les contrôles dans la AWS Control Tower documentation et
consultez la section Contrôles proactifs dans Implémentation des contrôles de sécurité sur AWS.
gestion du cycle de vie des produits (PLM)

Gestion des données et des processus d'un produit tout au long de son cycle de vie, depuis
la conception, le développement et le lancement, en passant par la croissance et la maturité,
jusqu'au déclin et au retrait.
environnement de production

Voir environnement.
contrôleur logique programmable (PLC)

Dans le secteur manufacturier, un ordinateur hautement fiable et adaptable qui surveille les
machines et automatise les processus de fabrication.
pseudonymisation

Processus de remplacement des identifiants personnels dans un ensemble de données par


des valeurs fictives. La pseudonymisation peut contribuer à protéger la vie privée. Les données
pseudonymisées sont toujours considérées comme des données personnelles.
publier/souscrire (pub/sub)

Modèle qui permet les communications asynchrones entre les microservices afin d'améliorer
l'évolutivité et la réactivité. Par exemple, dans un environnement basé sur des microservices
MES, un microservice peut publier des messages d'événements sur un canal auquel d'autres
microservices peuvent s'abonner. Le système peut ajouter de nouveaux microservices sans
modifier le service de publication.

Q
plan de requête

Série d'étapes, telles que des instructions, utilisées pour accéder aux données d'un système de
base de données SQL relationnelle.
régression du plan de requêtes

Le cas où un optimiseur de service de base de données choisit un plan moins optimal qu'avant
une modification donnée de l'environnement de base de données. Cela peut être dû à des

Q 52
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

changements en termes de statistiques, de contraintes, de paramètres d'environnement, de


liaisons de paramètres de requêtes et de mises à jour du moteur de base de données.

R
RACImatrice

Voir responsable, redevable, consulté, informé (RACI).


rançongiciel

Logiciel malveillant conçu pour bloquer l'accès à un système informatique ou à des données
jusqu'à ce qu'un paiement soit effectué.
RASCImatrice

Voir responsable, redevable, consulté, informé (RACI).


RCAC

Voir contrôle d'accès aux lignes et aux colonnes.


réplica en lecture

Copie d'une base de données utilisée en lecture seule. Vous pouvez acheminer les requêtes vers
le réplica de lecture pour réduire la charge sur votre base de données principale.
réarchitecte

Voir 7 Rs.
objectif de point de récupération (RPO)

Durée maximale acceptable depuis le dernier point de récupération des données. Il détermine ce
qui est considéré comme étant une perte de données acceptable entre le dernier point de reprise
et l’interruption du service.
objectif de temps de récupération (RTO)

Délai maximal acceptable entre l'interruption du service et son rétablissement.


refactoriser

Voir 7 Rs.

R 53
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

Région

Ensemble de AWS ressources dans une zone géographique. Chaque Région AWS est isolée et
indépendante des autres pour assurer la tolérance aux pannes, la stabilité et la résilience. Pour
plus d'informations, voir Spécifier ce que Régions AWS votre compte peut utiliser.
régression

Technique de ML qui prédit une valeur numérique. Par exemple, pour résoudre le problème
« Quel sera le prix de vente de cette maison ? », un modèle de ML pourrait utiliser un modèle de
régression linéaire pour prédire le prix de vente d'une maison sur la base de faits connus à son
sujet (par exemple, la superficie en mètres carrés).
réhéberger

Voir 7 Rs.
version

Dans un processus de déploiement, action visant à promouvoir les modifications apportées à un


environnement de production.
déplacer

Voir 7 Rs.
replateforme

Voir 7 Rs.
rachat

Voir 7 Rs.
résilience

La capacité d'une application à résister aux perturbations ou à s'en remettre. La haute disponibilité
et la reprise après sinistre sont des considérations courantes lors de la planification de la
résilience dans le AWS Cloud. Pour de plus amples informations, veuillez consulter AWS Cloud
Résilience.
politique basée sur les ressources

Politique attachée à une ressource, comme un compartiment Amazon S3, un point de terminaison
ou une clé de chiffrement. Ce type de politique précise les principaux auxquels l'accès est
autorisé, les actions prises en charge et toutes les autres conditions qui doivent être remplies.

R 54
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

matrice responsable, redevable, consulté et informé (RACI)

Une matrice qui définit les rôles et les responsabilités de toutes les parties impliquées dans
les activités de migration et les opérations cloud. Le nom de la matrice est dérivé des types
de responsabilité définis dans la matrice : responsable (R), responsable (A), consulté (C) et
informé (I). Le type de support (S) est facultatif. Si vous incluez le support, la matrice est appelée
RASCImatrice, et si vous l'excluez, elle est appelée RACImatrice.
contrôle réactif

Contrôle de sécurité conçu pour permettre de remédier aux événements indésirables ou aux
écarts par rapport à votre référence de sécurité. Pour plus d'informations, veuillez consulter la
rubrique Responsive controls dans Implementing security controls on AWS.
retain

Voir 7 Rs.
se retirer

Voir 7 Rs.
rotation

Processus où vous mettez à jour le secret périodiquement pour rendre l'accès au informations
d'identification plus difficile pour un pirate informatique.
contrôle d'accès aux lignes et aux colonnes (RCAC)

L'utilisation d'SQLexpressions simples et flexibles qui ont défini des règles d'accès. RCACconsiste
en des autorisations de ligne et des masques de colonnes.
RPO

Voir l'objectif du point de récupération.


RTO

Voir l'objectif en matière de temps de rétablissement.


runbook

Ensemble de procédures manuelles ou automatisées nécessaires à l'exécution d'une tâche


spécifique. Elles visent généralement à rationaliser les opérations ou les procédures répétitives
présentant des taux d'erreur élevés.

R 55
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

S
SAML2.0

Norme ouverte utilisée par de nombreux fournisseurs d'identité (IdPs). Cette fonctionnalité active
l'authentification unique fédérée (SSO), permettant aux utilisateurs de se connecter à AWS
Management Console ou d'appeler les AWS API opérations sans qu'il soit nécessaire de créer
un identifiant utilisateur IAM pour chaque membre de l'organisation. Pour plus d'informations
sur la fédération SAML 2.0, veuillez consulter À propos de la fédération SAML 2.0 dans la
documentation. IAM
SCADA

Voir Contrôle de supervision et acquisition de données.


SCP

Voir la politique de contrôle des services.


secret

Dans AWS Secrets Manager des informations confidentielles ou restreintes, telles qu'un mot de
passe ou des informations d'identification utilisateur, que vous stockez sous forme cryptée. Il
comprend la valeur secrète et ses métadonnées. La valeur secrète peut être binaire, une chaîne
unique ou plusieurs chaînes. Pour plus d'informations, consultez Que contient le secret d'un
Secrets Manager ? dans la documentation Secrets Manager.
contrôle de sécurité

Barrière de protection technique ou administrative qui empêche, détecte ou réduit la capacité d'un
assaillant d'exploiter une vulnérabilité de sécurité. Il existe quatre principaux types de contrôles de
sécurité : préventifs, détectifs, réactifs et proactifs.
renforcement de la sécurité

Processus qui consiste à réduire la surface d'attaque pour la rendre plus résistante aux attaques.
Cela peut inclure des actions telles que la suppression de ressources qui ne sont plus requises, la
mise en œuvre des bonnes pratiques de sécurité consistant à accorder le moindre privilège ou la
désactivation de fonctionnalités inutiles dans les fichiers de configuration.
système de gestion des informations et des événements de sécurité (SIEM)

Outils et services qui associent les systèmes de gestion des informations de sécurité (SIM) et de
gestion des événements de sécurité (SEM). Un SIEM système collecte, surveille et analyse les

S 56
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

données provenant de serveurs, de réseaux, d'appareils et d'autres sources afin de détecter les
menaces et les failles de sécurité, mais aussi de générer des alertes.
automatisation des réponses de sécurité

Action prédéfinie et programmée conçue pour répondre automatiquement à un événement de


sécurité ou y remédier. Ces automatisations servent de contrôles de sécurité détectifs ou réactifs
qui vous aident à mettre en œuvre les meilleures pratiques en matière AWS de sécurité. Parmi les
actions de réponse automatique, citons la modification d'un groupe VPC de sécurité, l'application
de correctifs à une EC2 instance Amazon ou la rotation des informations d'identification.
chiffrement côté serveur

Chiffrement des données à destination, par le Service AWS qui les reçoit.
Politique de contrôle des services (SCP)

Politique qui propose un contrôle centralisé des autorisations pour tous les comptes d'une
organisation dans AWS Organizations. SCPsdéfinissez des barrières de protection ou des limites
aux actions qu'un administrateur peut déléguer à des utilisateurs ou à des rôles. Vous pouvez
utiliser SCPs comme listes d'autorisation ou de refus, pour indiquer les services ou les actions
autorisés ou interdits. Pour plus d'informations, veuillez consulter la rubrique Stratégies de
contrôle de service dans la AWS Organizations documentation.
point de terminaison du service

Le URL point d'entrée d'un Service AWS. Pour vous connecter par programmation au service
cible, vous pouvez utiliser un point de terminaison. Pour plus d'informations, veuillez consulter la
rubrique Service AWS endpoints dans Références générales AWS.
contrat de niveau de service () SLA

Accord qui précise ce qu'une équipe informatique promet de fournir à ses clients, comme le temps
de disponibilité et les performances des services.
indicateur de niveau de service () SLI

Mesure d'un aspect des performances d'un service, tel que son taux d'erreur, sa disponibilité ou
son débit.
objectif de niveau de service () SLO

Mesure cible qui représente l'état d'un service, tel que mesuré par un indicateur de niveau de
service.

S 57
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

modèle de responsabilité partagée

Un modèle décrivant la responsabilité que vous partagez en matière AWS de sécurité et de


conformité dans le cloud. AWS est responsable de la sécurité du cloud, alors que vous êtes
responsable de la sécurité dans le cloud. Pour de plus amples informations, veuillez consulter
Modèle de responsabilité partagée.
SIEM

Voir les informations de sécurité et le système de gestion des événements.


point de défaillance unique (SPOF)

Défaillance d'un seul composant critique d'une application susceptible de perturber le système.
SLA

Voir contrat de niveau de service.


SLI

Voir l'indicateur de niveau de service.


SLO

Voir l'objectif de niveau de service.


split-and-seed modèle

Modèle permettant de mettre à l'échelle et d'accélérer les projets de modernisation. Au fur et


à mesure que les nouvelles fonctionnalités et les nouvelles versions de produits sont définies,
l'équipe principale se divise pour créer des équipes de produit. Cela permet de mettre à l'échelle
les capacités et les services de votre organisation, d'améliorer la productivité des développeurs et
de favoriser une innovation rapide. Pour plus d'informations, veuillez consulter Phased approach
to modernizing applications dans le. AWS Cloud
SPOF

Voir point de défaillance unique.


schéma d'étoiles

Structure organisationnelle de base de données qui utilise une grande table de faits pour stocker
les données transactionnelles ou mesurées et utilise une ou plusieurs tables dimensionnelles plus

S 58
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

petites pour stocker les attributs des données. Cette structure est conçue pour être utilisée dans
un entrepôt de données ou à des fins de business intelligence.
modèle de figuier étrangleur

Approche de modernisation des systèmes monolithiques en réécrivant et en remplaçant


progressivement les fonctionnalités du système jusqu'à ce que le système hérité puisse être mis
hors service. Ce modèle utilise l'analogie d'un figuier de vigne qui se développe dans un arbre
existant et qui finit par supplanter son hôte. Le schéma a été présenté par Martin Fowler comme
un moyen de gérer les risques lors de la réécriture de systèmes monolithiques. Pour obtenir
un exemple d'application de ce modèle, veuillez consulter Modernizing legacy MicrosoftASP.
NET(ASMX) des services Web de manière incrémentielle à l'aide de conteneurs et d'Amazon API
Gateway.
sous-réseau

Plage d'adresses IP dans votreVPC. Un sous-réseau doit se trouver dans une seule zone de
disponibilité.
contrôle de supervision et acquisition de données (SCADA)

Dans le secteur manufacturier, un système qui utilise du matériel et des logiciels pour surveiller
les actifs physiques et les opérations de production.
chiffrement symétrique

Algorithme de chiffrement qui utilise la même clé pour chiffrer et déchiffrer les données.
tests synthétiques

Tester un système de manière à simuler les interactions des utilisateurs afin de détecter les
problèmes potentiels ou de surveiller les performances. Vous pouvez utiliser Amazon CloudWatch
Synthetics pour créer ces tests.

T
balises

Des paires clé-valeur qui jouent le rôle de métadonnées pour organiser vos AWS ressources. Les
balises peuvent vous aider à gérer, identifier, organiser, rechercher et filtrer des ressources. Pour
plus d'informations, veuillez consulter la rubrique Balisage de vos AWS ressources.

T 59
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

variable cible

La valeur que vous essayez de prédire dans le cadre du ML supervisé. Elle est également
qualifiée de variable de résultat. Par exemple, dans un environnement de fabrication, la variable
cible peut être un défaut du produit.
liste de tâches

Outil utilisé pour suivre les progrès dans un runbook. Liste de tâches qui contient une vue
d'ensemble du runbook et une liste des tâches générales à effectuer. Pour chaque tâche
générale, elle inclut le temps estimé nécessaire, le propriétaire et l'avancement.
environnement de test

Voir environnement.
entraînement

Pour fournir des données à partir desquelles votre modèle de ML peut apprendre. Les données
d'entraînement doivent contenir la bonne réponse. L'algorithme d'apprentissage identifie des
modèles dans les données d'entraînement, qui mettent en correspondance les attributs des
données d'entrée avec la cible (la réponse que vous souhaitez prédire). Il fournit un modèle de ML
qui capture ces modèles. Vous pouvez alors utiliser le modèle de ML pour obtenir des prédictions
sur de nouvelles données pour lesquelles vous ne connaissez pas la cible.
passerelle de transit

Hub de transit de réseau que vous pouvez utiliser pour relier votre réseau VPCs et vos réseaux
sur site. Pour plus d'informations, veuillez consulter la rubrique Qu'est-ce qu'une passerelle de
transit ? dans la AWS Transit Gateway documentation.
flux de travail basé sur jonction

Approche selon laquelle les développeurs génèrent et testent des fonctionnalités localement dans
une branche de fonctionnalités, puis fusionnent ces modifications dans la branche principale. La
branche principale est ensuite intégrée aux environnements de développement, de préproduction
et de production, de manière séquentielle.
accès sécurisé

Octroi d'autorisations à un service que vous spécifiez pour effectuer des tâches au sein de votre
organisation dans AWS Organizations et dans ses comptes en votre nom. Le service de confiance
crée un rôle lié au service dans chaque compte, lorsque ce rôle est nécessaire, pour effectuer des

T 60
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

tâches de gestion à votre place. Pour plus d'informations, consultez la section Utilisation AWS
Organizations avec d'autres AWS services dans la AWS Organizations documentation.
réglage

Pour modifier certains aspects de votre processus d'entraînement afin d'améliorer la précision du
modèle de ML. Par exemple, vous pouvez entraîner le modèle de ML en générant un ensemble
d'étiquetage, en ajoutant des étiquettes, puis en répétant ces étapes plusieurs fois avec différents
paramètres pour optimiser le modèle.

équipe de deux pizzas

Une petite DevOps équipe que vous pouvez nourrir avec deux pizzas. Une équipe de deux pizzas
garantit les meilleures opportunités de collaboration possible dans le développement de logiciels.

U
incertitude

Un concept qui fait référence à des informations imprécises, incomplètes ou inconnues


susceptibles de compromettre la fiabilité des modèles de ML prédictifs. Il existe deux types
d'incertitude : l'incertitude épistémique est causée par des données limitées et incomplètes, alors
que l'incertitude aléatoire est causée par le bruit et le caractère aléatoire inhérents aux données.
Pour plus d'informations, veuillez consulter le guide Quantifying uncertainty in deep learning
systems.

tasks indifférenciés

Également connu sous le nom de « levage de charges lourdes », ce travail est nécessaire pour
créer et exploiter une application, mais qui n'apporte pas de valeur directe à l'utilisateur final ni
d'avantage concurrentiel. Les exemples de tâches indifférenciées incluent l'approvisionnement, la
maintenance et la planification des capacités.

environnements supérieurs

Voir environnement.

U 61
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

V
mise à vide

Opération de maintenance de base de données qui implique un nettoyage après des mises à jour
incrémentielles afin de récupérer de l'espace de stockage et d'améliorer les performances.
contrôle de version

Processus et outils permettant de suivre les modifications, telles que les modifications apportées
au code source dans un référentiel.
VPCpeering

Connexion entre deux VPCs qui vous permet d'acheminer le trafic à l'aide d'adresses IP privées.
Pour plus d'informations, veuillez consulter la rubrique Qu'est-ce que l'VPCappairage ? dans la
VPC documentation Amazon.
vulnérabilités

Défaut logiciel ou matériel qui compromet la sécurité du système.

W
cache actif

Cache tampon qui contient les données actuelles et pertinentes fréquemment consultées.
L'instance de base de données peut lire à partir du cache tampon, ce qui est plus rapide que la
lecture à partir de la mémoire principale ou du disque.
warm data

Données rarement consultées. Lorsque vous interrogez ce type de données, des requêtes
modérément lentes sont généralement acceptables.
fonction de fenêtrage

SQLFonction qui effectue un calcul sur un groupe de lignes liées d'une manière ou d'une autre à
l'enregistrement en cours. Les fonctions de fenêtre sont utiles pour traiter des tâches, telles que le
calcul d'une moyenne mobile ou l'accès à la valeur des lignes en fonction de la position relative de
la ligne en cours.

V 62
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

charge de travail

Ensemble de ressources et de code qui fournit une valeur métier, par exemple une application
destinée au client ou un processus de backend.

flux de travail

Groupes fonctionnels d'un projet de migration chargés d'un ensemble de tâches spécifique.
Chaque flux de travail est indépendant, mais prend en charge les autres flux de travail du projet.
Par exemple, le flux de travail du portefeuille est chargé de prioriser les applications, de planifier
les vagues et de collecter les métadonnées de migration. Le flux de travail du portefeuille fournit
ces actifs au flux de travail de migration, qui migre ensuite les serveurs et les applications.

WORM

Voir écrire une fois, lire plusieurs.

WQF

Voir le cadre AWS de qualification de la charge de travail.

écrire une fois, lire plusieurs (WORM)

Modèle de stockage qui écrit les données une seule fois et empêche leur suppression ou leur
modification. Les utilisateurs autorisés peuvent lire les données autant de fois que nécessaire,
mais ils ne peuvent pas les modifier. Cette infrastructure de stockage de données est considérée
comme immuable.

Z
exploit zéro day

Une attaque, généralement un logiciel malveillant, qui tire parti d'une vulnérabilité de type « jour
zéro ».

vulnérabilité de type « jour zéro »

Une faille ou une vulnérabilité non atténuée dans un système de production. Les acteurs
malveillants peuvent utiliser ce type de vulnérabilité pour attaquer le système. Les développeurs
prennent souvent conscience de la vulnérabilité à la suite de l'attaque.

Z 63
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

application zombie

Application dont l'utilisation moyenne de CPU la mémoire est inférieure à 5 %. Dans un projet de
migration, il est courant de retirer ces applications.

Z 64
AWS Recommandations prescriptifs Standardisation des pipelines iAC à l'aide de l'accélérateur de AWS
DevOps pipeline

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le
contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

lxv

Vous aimerez peut-être aussi