Lex 22 Ninin Mazeau 55

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 25

La recherche opérationnelle

De quelques enjeux juridiques des mécanismes


d’aide à la décision

Jordan Ninin* et Laurène Mazeau**

La recherche opérationnelle est une discipline des méthodes scientifiques utilisables pour
élaborer de meilleures décisions. Elle aide à trouver une solution où l’homme n’en trouvait
pas ou ne disposait d’aucune expérience. Elle aide à juger de la qualité d’une solution, mais
aussi à confirmer/justifier des décisions. La recherche opérationnelle intervient dans des
domaines très divers : Big Data, GPS, Google car ; finance, environnement et développe-
ment durable, domaine spatial, politiques publiques, gestion des ressources hospitalières,
etc. Elle favorise une culture scientifique dans la prise de décision. Face à son omnipré-
sence dans notre environnement, il est intéressant de questionner son influence sur le Droit
(confidentialité des données (Big Data) ; imputation d’obligation ; prise de décision ; infor-
mation des utilisateurs, etc.). Que se passe-t-il lorsque l’aide à la décision devient systéma-
tiquement « la » décision ? Qui est responsable des mauvais choix ? Existe-t-il des règles
éthiques lorsque ces techniques ont un impact sur l’homme ? Traite-t-on de la même façon
des ressources matérielles et humaines ? La recherche opérationnelle ne se contente pas de
suppléer l’activité humaine, elle la change.

(2017) 22 Lex-Electronica.org 55
Copyright © 2017 Jordan Ninin et Laurène Mazeau.

* Maître de conférences à l’ENSTA Bretagne - Equipe PRASYS, Lab-STICC UMR 6285


** Maître de conférences à l’Université de Bretagne Occidentale - CRDP EA 3881
Propos introductifs 57
(2017) 22 Lex Electronica 55

1. Les raisons de l’implication de la recherche opérationnelle en droit


de la responsabilité civile 60

1.1. Définition et méthodologies de la recherche opérationnelle 60


1.2. Distinction de la recherche opérationnelle de l’automatisme 63

2. Illustrations de l’implication de la recherche opérationnelle en droit


de la responsabilité civile 65

56 2.1. Recherche opérationnelle et réseaux internet 65


2.2. Recherche opérationnelle et réseaux routiers 71
2.2.1. Le GPS automobile : un pur système d’aide à la décision 71
2.2.1. La voiture dite « autonome » : un glissement de l’aide
à la décision vers l’automatisme 73
Propos conclusifs 79
La recherche opérationnelle
De quelques enjeux juridiques des mécanismes
d’aide à la décision

Jordan Ninin et Laurène Mazeau

PROPOS INTRODUCTIFS

La notion de recherche opérationnelle est peu connue du grand public. Elle


renvoie pourtant à des notions qui cartographient notre territoire sémantique et
juridique contemporain à l’image des Big data, de l’E-réputation, ou encore des al- 57
gorithmes prédictifs. Tous les problèmes de décision ou d’optimisation présentent
des enjeux industriels et économiques très importants. Ce que l’on peut retenir à

La recherche opérationnelle

ce stade et qui sera précisé par la suite, c’est que la recherche opérationnelle est une
discipline des méthodes scientifiques pour aider à prendre des décisions. Quelle est
la spécificité de la recherche opérationnelle ? Pourquoi pose-t-elle des problèmes
spécifiques qui ne peuvent pas être appréhendés par le droit de la responsabilité
en général ? Si les modélisations informatiques soulèvent de nombreuses questions
juridiques, notamment en termes de responsabilité, elles peuvent également être
pensées comme un outil favorisant la résolution des conflits1.

La recherche opérationnelle a contribué à la réalisation de nombreux projets


technologiques, mais aussi sociétaux et économiques. Dès le 17e siècle, des mathé-
maticiens comme Blaise Pascal2 tentent de résoudre des problèmes de décision dans

1. Voir M. Lamoureux, « La causalité juridique à l’épreuve des algorithmes », (20 juin 2016) 25 JCP
G doctr. 731.
Utilisant la « Compram Methodology » (cette méthode donne des lignes de guidance pour gérer
des problèmes complexes de la société basée sur une méthodologie scientifique) : D.J. DeTombe,
Handling Societal Complexity. A Study of the Theory of the Methodology of Societal Complexity
and the COMPRAM Methodology, Heidelberg, Springer Verlag, 2015 ; A.J Muntjewerff, « So-
cietal Complexity and Legal Problem Solving » (To appear in 2016) European Journal for Oper-
ation Research (EJOR), Elsevier.
2. Voir B. Pascal, Pensées, Texte établi par L. Brunschvieg en 1897, Paris, GF-Flammarion, 1976.
l’incertain avec l’espérance mathématique. D’autres, au 18e et 19e siècle, résolvent
des problèmes combinatoires, à l’image du problème du déblai et remblai3. Au début
du 20e siècle, on assiste à une accélération massive des procédés de recherche opé-
rationnelle comme l’illustre notamment la théorie des files d’attente4. Mais ce n’est
qu’avec la Seconde Guerre mondiale que la recherche opérationnelle va s’organiser
pour la première fois et acquérir son nom. En 1940, Patrick Blackett est appelé par
l’état-major anglais à diriger la première équipe de recherche opérationnelle pour
résoudre certains problèmes tels que : l’implantation optimale de radars de surveil-
lance, la gestion des convois d’approvisionnement ou encore la planification des vols
de surveillance anti-sous-marins, etc.5. Aujourd’hui elle est utilisée pour les réseaux
internet, de téléphonie, etc., dans le monde entier. La société savante de recherche
(2017) 22 Lex Electronica 55

opérationnelle française (ROADEF) organise chaque année une conférence franco-


phone qui regroupe environ 500 participants6. Au niveau européen, son équivalent,
EURO, regroupe environ 3500 participants chaque année7.

Au cours des trente dernières années, on estime que la capacité de résolution de


la recherche opérationnelle a progressé d’un facteur un milliard, et ce n’est pas seu-
lement du fait de l’amélioration de la vitesse de calcul des ordinateurs8. On estime
que cette progression est équitablement imputable à l’amélioration des processeurs
des ordinateurs, aux progrès dans la résolution de programmes linéaires (l’une des
58
pierres angulaires de la recherche opérationnelle), et à l’implémentation efficace de
techniques avancées de mathématiques appliquées. Cette puissance est cependant
loin de constituer une panacée : la théorie de la complexité nous apprend que cer-
tains problèmes ne peuvent pas être résolus de manière optimale dans un temps
raisonnable. Et ce, même si l’on utilise des ordinateurs un milliard de fois plus puis-
sants que ceux existant actuellement9. Or, fort de ces formidable avancés, le nombre
d’utilisateurs de processus de recherche opérationnelle a très fortement augmenté
et inonde notre quotidien. Mais, l’utilisateur profane distingue parfois mal l’aide à
la décision de l’automatisme. Cette idée peut être illustrée par une citation de l’ex-

3. G. Monge. Mémoire sur la théorie des déblais et de remblais. Histoire de l’Académie Royale des
Sciences de Paris, avec les Mémoires de Mathématique et de Physique pour la même année, 1781,
pp. 666–704.
4. A. K. Erlang, « Solutions of some problems in the theory of probabilities of significance in auto-
matic telephone exchanges » (1918) 10 The Post Office Electrical Engineers Journal 189, translat-
ed from Elektroteknikeren, 13.
5. B. Roy, « Regard historique sur la place de la recherche opérationnelle et de l’aide à la décision en
France », (2006) 175 Math. et Sci. Hum.
6. Voir : https://www.roadef.org/
7. Voir : https://www.euro-online.org/
8. R. Bixby, « A brief history of linear and mixed-integer programming computation » (2012) vol.
Optimization Stories, Doc. Math. 107.
9. Ce type de problème est notamment à la base de certaines techniques de cryptographie, comme
le système RSA basé sur la factorisation d’entiers en produit de nombres premiers.
PDG de Google. Celui-ci affirmait en 2010 dans une interview au Wall Street Jour-
nal, que : « Ce que veulent la plupart des gens, ce n’est pas que Google réponde à
leurs questions, mais leur dise ce qu’ils doivent faire »10. L’absence de connaissance
de l’outil informatique participe généralement de ce détachement. Et l’utilisateur
profane aura en effet tendance à considérer que la règle établie par défaut, conçue
par l’homme de l’art et suivie par la plupart des autres utilisateurs, est sans doute
la meilleure option pour lui aussi11. En ce sens, en France, le rapport du Conseil
d’État relatif au numérique et droits fondamentaux12 soulève que la complexité de
l’outil informatique et le secret industriel qui l’entoure participent à une asymétrie
de l’information entre professionnels et profanes de l’internet. Ainsi, la recherche
opérationnelle apparaît comme étant au cœur d’un glissement vers une prise de
décision optimale. Parce que « machinique » et donc supposée parfaite, la décision
prise devrait en devenir automatique.

Or, la complexité des procédés de recherche opérationnelle utilisés par les profes-
sionnels pose la question de la compréhension et de la maîtrise de ces outils, y com-
pris par les professionnels eux-mêmes. En effet, si l’on prend l’exemple du « machine
learning » (ces logiciels ont la capacité d’apprendre et de s’améliorer de manière
autonome), on découvre que plus on les utilise, plus ils apprennent des utilisateurs
et miment leurs choix et comportements. Ainsi, les solutions proposées reflètent 59
non pas la « meilleure » décision pour le problème de l’utilisateur, mais la solution
la plus largement adoptée par les autres utilisateurs. Le logiciel peut ainsi influen-

La recherche opérationnelle

cer l’utilisateur à prendre une mauvaise décision. Les questions de la déontologie,
mais aussi de la régulation de la recherche opérationnelle se posent ainsi de manière
spécifique. Or, en France, bien que la recherche opérationnelle soit spécifiquement
visée pour le crédit d’impôt recherche13, il n’existe à notre connaissance aucune lé-
gislation particulière visant à encadrer, appréhender cette discipline.

10. E. Schmidt, Interview « Google and the search of the future », Wall Street Journal, 14 août 2010.
11. CE, Étude annuelle 2014. Le numérique et les droits fondamentaux, Doc. fr., coll. Les rapports
du Conseil d’État, n° 65, 2014, p. 400.
12. Conseil d’Etat, Étude annuelle 2014, id.
13. L’article 16 du Chapitre 4 « Recherche scientifique et technique » du Code général des im-
pôts prévoit que : « Sont considérées comme opérations de recherches scientifiques ou tech-
niques, en vue de l’application des dispositions du 1 de l’article 39 quinquies A du Code général
des impôts, les activités ayant le caractère de recherches fondamentales, de recherches appliquées
ou d’opérations de développement, effectuées soit en bureaux d’études ou de calcul, soit en lab-
oratoires, soit en ateliers pilotes, soit en stations expérimentales, ou encore opérées dans des
circonstances spéciales dans le cadre d’installations agricoles ou industrielles et ayant pour objet
: (…) L’amélioration des facteurs de production et de rentabilité économiques, notamment l’au-
tomatisation et la recherche opérationnelle ainsi que l’amélioration des méthodes et techniques
de production, de conservation et de transformation des produits, aux divers points de vue de la
qualité des rendements et de la productivité (…) ».
Pourtant la recherche opérationnelle est au cœur de problématiques contempo-
raines et fournies qu’il s’agisse de confidentialité des données (Big data), d’impu-
tation d’obligation, de prise de décision, ou d’information des utilisateurs. Que se
passe-t-il lorsque l’aide à la décision devient systématiquement « la » décision? Qui
est responsable des mauvais choix opérés par le système? Existe-t-il des règles déon-
tologiques ou éthiques lorsque ces techniques ont un impact sur l’homme ? Traite-
t-on de la même façon des ressources matérielles et humaines ? Toutes ces questions
semblent a priori recouvrir des domaines distincts. Mais en réalité, elles appellent
une approche systémique pour toutes les technologies issues de la recherche opéra-
tionnelle. Il convient dès lors de présenter une approche globale de l’aide à la déci-
sion et de son influence sur le droit de la responsabilité civile à travers deux illustra-
(2017) 22 Lex Electronica 55

tions significatives.

1. Les raisons de l’implication de la recherche


opérationnelle en droit de la responsabilité civile

Il convient d’abord de définir et préciser ce qu’est la recherche opérationnelle et


60 l’aide à la décision, avant de la distinguer de l’automatisme.

1.1. Définition et méthodologies de la recherche opérationnelle

La recherche opérationnelle peut se définir comme « l’ensemble des méthodes


et techniques rationnelles d’analyse et de synthèse des phénomènes d’organisation
utilisables pour élaborer de meilleures décisions »14. Elle vise la recherche de la meil-
leure façon d’opérer des choix dans un système complexe en vue d’obtenir un résultat
souhaité, ou le meilleur résultat possible. Elle fait partie des techniques dites d’« aide
à la décision ». Et ce, dans la mesure où elle propose des modèles conceptuels en vue
d’analyser et de maîtriser des situations complexes pour permettre aux décideurs de
comprendre, évaluer les enjeux et d’arbitrer ou de faire les choix les plus efficaces.

L’objectif de la recherche opérationnelle est de mettre au point des méthodes,


de les implémenter au sein d’outils (logiciels) pour trouver des solutions qui seront
ensuite confrontées à la réalité et reprises jusqu’à satisfaction de l’utilisateur. Autre-
ment dit, la recherche opérationnelle vise à résoudre certains problèmes opération-

14. R. Faure, B. Lemaire et C. Picouleau, Précis de recherche opérationnelle-Méthodes et exercices


d’application, 7e éd, Dunod, 2014.
nels (utilisable sur le terrain des opérations) par des méthodes scientifiques à l’aide
de programmes informatiques.

Fig. 1. Composantes de la recherche opérationnelle

Comme l’illustre la figure 1, la recherche opérationnelle se trouve au carrefour


des mathématiques appliquées et de l’informatique. Elle utilise les mathématiques 61
appliquées, notamment par le biais de théorèmes d’existence pour prouver l’exis-
tence de solutions au problème posé, ou encore de propriétés de convergence afin

La recherche opérationnelle

de prouver que la solution trouvée est bien la solution au problème posé. Elle est
également par essence liée à l’informatique. Elle utilise des algorithmes qui sont la
traduction numérique des mathématiques appliquées et des preuves qui permettent
de valider le programme en prouvant qu’il termine en un temps fini. Enfin, la com-
plexité est une discipline qui permet de déterminer si un problème est difficile ou
non. Un problème « facile » peut être résolu en quelques secondes (classe P), alors
qu’un problème « difficile » peut nécessiter plusieurs années de calcul pour être
résolu complètement (classe NP)15. Les finalités de la recherche opérationnelle et
de l’aide à la décision sont multiples. La recherche opérationnelle aide à trouver des
solutions à des problèmes où l’homme est dépassé ; soit parce qu’il s’agit d’un pro-
blème nouveau, soit parce que le problème est trop complexe dans sa globalité, soit
pour permettre à l’utilisateur de voir plusieurs possibilités là où il n’en envisageait
qu’une, soit pour proposer des solutions plus robustes aux aléas et au changement
imprévisible. Elle peut également aider à juger de la qualité d’une solution en confir-
mant et justifiant des décisions par des critères mathématiques16.

15. S. A., Cook, “An overview of computational complexity”, (1983) 26(6) Communications of the
ACM 400.
16. ROADEF Livre Blanc de la recherche opérationnelle, 2011.
La méthodologie de la recherche opérationnelle comprend trois étapes essen-
tielles qui soulèvent des problématiques propres.

La première étape est la modélisation (ex. : utilisation des Big data). Elle consiste
dans l’observation attentive du problème et sa formulation, ainsi que la collecte de
données associées. Il convient par la suite de construire un modèle mathématique
qui tente d’abstraire l’essence du problème réel. Tout modèle est donc par nature une
simplification de la réalité, mais cette représentation doit être suffisamment pré-
cise pour capturer les caractéristiques essentielles de la situation, et pour tirer des
conclusions valides au problème réel. Il conviendra dès lors de tester ce modèle, et
de le modifier au besoin.
(2017) 22 Lex Electronica 55

Une caractéristique additionnelle est que la recherche opérationnelle essaye sou-


vent de trouver une ou plusieurs solution(s), dite(s) solution « optimale(s) », au
problème examiné. Un ou plusieurs critères sont choisis pour permettre d’ordonner
les solutions proposées. Cette recherche d’optimalité est un thème important, et son
interprétation en terme managérial peut être épineuse. En ce sens, il est difficile
pour un individu de pouvoir maîtriser tous les aspects du problème à l’étude. C’est
la raison pour laquelle la recherche opérationnelle met généralement en présence
une équipe de travail pluridisciplinaire réunissant des experts en mathématiques,
62 statistiques et probabilités, ingénierie, économie, administration, informatique,
physiques, sciences comportementales, ainsi qu’en techniques spécifiques de la re-
cherche opérationnelle. Une contrainte supplémentaire s’ajoute encore à l’étape de la
modélisation. La recherche opérationnelle ne modélisera qu’une partie de la réalité.
Il est en effet nécessaire de simplifier le modèle pour pouvoir le résoudre. Pour qu’il
soit solvable (en rapport avec sa classe de complexité), un modèle est donc généra-
lement le résultat d’un consensus entre le demandeur (voulant représenter au mieux
la réalité) et l’ingénieur de recherche opérationnelle (cherchant à simplifier le pro-
blème pour pouvoir le résoudre).

La deuxième étape est celle de la résolution (ex. : utilisation d’algorithmes, de mé-


thodes mathématiques, et de théorèmes exprimés dans un code informatique, etc.).
Cette nouvelle étape va consister à trouver une solution au modèle. C’est à ce stade
que les mathématiques appliquées et l’informatique prennent le relais. La résolution
se base essentiellement sur le monde abstrait des mathématiques où tout a été re-
défini en termes de variables, paramètres, fonctions, critères et contraintes. À l’aide
d’un programme informatique, une solution mathématique « optimale » est recher-
chée selon le critère défini dans la modélisation. Les possibilités du programme et
les garanties apportées sont toujours bien connues et basées sur les preuves mathé-
matiques : optimalité locale, optimalité globale, équilibre de Nash, solution robuste,
etc. Il est intéressant de noter que la résolution est complètement abstraite, il n’est
donc pas rare qu’une même technique de résolution soit utilisée pour résoudre un
problème concernant la gestion de personne ou la gestion de marchandises. Si en
terme mathématique, il ne s’agit que de variable, en revanche en termes d’éthique et
de droit, la question est bien plus complexe.

La troisième et dernière étape consiste à interpréter la solution trouvée dans le


problème réel (ex. : affichage à l’utilisateur, filtrage, sélection des données, etc.). C’est
à ce stade que la problématique d’aide à la décision se pose concrètement. Une fois le
problème résolu, son exposition à l’utilisateur aura un impact décisif sur sa décision.
Tout comme en marketing, le choix des mots, des polices, de la taille et des couleurs
dans la présentation du résultat influence l’utilisateur. Face à la multitude des cri-
tères et des solutions existantes, le choix de montrer uniquement la « meilleure »
solution, ou plusieurs « bonnes » solutions, est de la responsabilité du concepteur du
logiciel17. Pour satisfaire au mieux les attentes des utilisateurs, le concepteur du lo-
giciel peut s’appuyer sur les préférences de l’utilisateur qui peuvent être explicites et
communiquées volontairement par l’utilisateur (âge, niveau de connaissance, locali-
sation GPS, nom, etc.), ou être implicites et déduites de la récurrence des opérations
de l’utilisateur ou des autres utilisateurs, comme le résultat d’un profilage (machine
learning, préférence par défaut, etc.).

La recherche opérationnelle présente ainsi de nombreuses particularités, qu’il


est indispensable de bien distinguer de l’automatisme afin de mesurer au mieux les 63
conséquences juridiques de son utilisation.

La recherche opérationnelle

1.2. Distinction de la recherche opérationnelle de l’automatisme

Il est essentiel d’établir en amont les critères distinguant un processus d’aide à


la décision d’un mécanisme automatique. Bien que pour l’ingénieur en recherche
opérationnelle ou l’automaticien, la question de savoir ce qu’est un système d’aide à
la décision et le différentier d’un système autonome paraisse claire, pour l’utilisateur
profane, la différence est parfois subtile. Et pourtant, cette distinction technique
entraîne une différence majeure de traitement juridique pour savoir qui est respon-
sable de la décision, par exemple en cas d’accident18.

En automatique, un système est caractérisé par sa dynamique, son état interne,


par ces entrées/commandes, noté u, et par ces sorties/observations, noté y (cf. figure
ci-dessous). Les « entrées » du système correspondent aux commandes sur lesquelles
l’utilisateur agit à chaque instant (ex : le volant et l’accélérateur d’une voiture, etc.).

17. J. P. Brans et B. Mareschal, « Promethee methods », in Multiple criteria decision analysis: state of
the art surveys, Springer New York, 2005, pp. 163-186.
18. Voir infra l’exemple des moteurs de recherches ou encore des GPS automobiles.
Elles dépendent donc du temps, noté t. Les « sorties » désignent les observations dis-
ponibles et accessibles par l’utilisateur sur le système à chaque instant (ex. : la vitesse
d’une voiture, la quantité d’essence restante, sa position GPS, etc.). La « dynamique »
correspond au comportement et à l’évolution du système dans son environnement
(ex. : principe fondamental de la dynamique, équation de la chaleur, etc.). L’ « état »
du système fait référence à toutes les variables intrinsèques du système observable
ou non (ex. : vitesse angulaire de chaque roue, débit d’injection, vitesse de rotation
du moteur, etc.). Le processus d’automatisation va consister à créer un régulateur
qui, à partir des sorties/observations du système, génère une commande qui sera
mise en entrée du système.
(2017) 22 Lex Electronica 55

w(t) u(t) y(t)


Régulateur Système

Fig. 2. Schéma d’un système bouclé


64
Les systèmes réels sont beaucoup plus complexes que le schéma présenté. Toutes
les entrées d’un système ne sont pas nécessairement régulées et automatisées ; une
voiture avec régulateur de vitesse a toujours besoin d’un conducteur pour tourner
le volant. Par ailleurs, la plupart des régulateurs ont également des entrées appe-
lées « consigne » et notées w sur la figure ci-dessus. Par exemple, le régulateur de
vitesse d’une voiture demande en entrée la vitesse qu’il doit suivre afin de générer
l’accélération nécessaire pour maintenir la vitesse du véhicule à chaque instant. Un
indice pouvant aider à différencier l’aide à la décision de l’automatisme est l’aspect
temporel du processus. Si une action est demandée à chaque instant à l’utilisateur,
nous serons alors en présence d’un processus d’aide à la décision. L’utilisateur doit
valider toutes les commandes mises en entrée du système. En d’autres termes, le
processus de recherche opérationnelle propose et l’utilisateur dispose. En revanche,
si l’utilisateur n’intervient que de façon ponctuelle, le processus pourra être consi-
déré comme automatisé, régulé. Le processus global ne nécessite pas d’interven-
tion humaine pour évoluer (ex. le régulateur de voiture, le thermostat d’ambiance).
Même si le système est entièrement automatisé, il laissera toujours la possibilité à
l’utilisateur de reprendre la main pour le stopper. Ce type de sécurité est présent sur
tous les systèmes automatisés. Car, bien qu’un système soit autonome, il est possible
qu’un cas de force majeure, au sens juridique du terme, se produise et nécessite un
arrêt d’urgence. Par conséquence, cela implique qu’un système muni d’un moyen
d’arrêt n’est pas nécessairement de l’aide à la décision. C’est-à-dire qu’un système
peut être autonome malgré la présence ponctuelle d’un humain dans le système
(ex. : une chaîne de production industrielle a toujours un opérateur prêt à appuyer
sur un bouton d’arrêt d’urgence).

Les processus de recherche opérationnelle sont utilisés au quotidien par des mil-
lions de personnes (internet, transport, chaîne d’approvisionnement, management,
tournée de véhicules, etc.). Bien que le développeur ne conçoive pas son outil pour
décider à la place de l’utilisateur, ce dernier se basera très souvent sur le résultat du
processus de recherche opérationnelle. L’utilisateur aura plus confiance en la dé-
cision du processus qu’en sa propre analyse. Par ailleurs, sur un plan juridique, il
est moins risqué pour l’exploitant de faire valoir que son système est de l’aide à la
décision plutôt qu’un mécanisme automatique. Or, dans la pratique cette distinction
n’est pas aussi nette surtout lorsque l’on observe que les utilisateurs ont de moins
en moins la possibilité ou l’envie de choisir. C’est ce que nous illustrerons dans la
seconde partie.

2. Illustrations de l’implication de la recherche


65
opérationnelle en droit de la responsabilité civile

La recherche opérationnelle

Plusieurs exemples peuvent illustrer le degré d’aide à la décision utilisé et son
influence sur la mesure de la responsabilité de l’utilisateur. Nous retiendrons tour à
tour le cas de l’exploitant de moteur de recherche sur l’internet, puis celui des sys-
tèmes GPS automobiles et des voitures dites « autonomes ».

2.1. Recherche opérationnelle et réseaux internet

La complexité des procédés de recherche opérationnelle utilisés par les profes-


sionnels de l’internet pose la question de la compréhension et de la maîtrise de ces
outils, y compris par les exploitants eux-mêmes. Dans cet univers hyper connecté
et complexe, nous semblons de plus en plus prêts à sous-traiter à des processus ma-
thématiques, une certaine responsabilité de choisir. Un acteur désormais incontour-
nable cristallise ces difficultés : l’exploitant de moteur de recherche19. Les premiers

19. Voir L. Mazeau, « La responsabilité civile des exploitants de moteur de recherche - Obligation de
déréférencement, automatisation, recherche opérationnelle » (2015) 5 Cahiers Droit Sciences &
Technologies in « Responsabilité » 267.
moteurs de recherche sont nés dans les années 1990 (Archie en 1990, Wanderer en
1993). Le premier annuaire (Yahoo!) connut un succès immédiat20, il s’en est suivit
de Lycos, Excite ou encore AltaVista en 1995. C’est en 1998 que Google révolutionne
le concept de la recherche en ligne en se singularisant par son système de référence-
ment fondé sur la popularité des sites auprès des internautes21.
Un moteur de recherche est un processus d’aide à la décision. L’utilisateur en-
voie une requête par le biais de mots clefs et une liste de liens vers des sites internet
lui est alors proposée. Il incombe alors à l’utilisateur de choisir le site le plus en
adéquation avec sa recherche. La méthode de base de résolution pour indexer les
milliards de pages internet est bien connue22, elle a cependant évolué depuis ses
débuts. Et ce, notamment pour éviter les phénomènes de « Google bombing », qui
(2017) 22 Lex Electronica 55

consistent à faire remonter artificiellement un lien internet dans les premiers résul-
tats d’une recherche spécifique. Actuellement, plus de 200 paramètres sont pris en
compte pour définir l’ordre final proposé à l’utilisateur par Google, le but est même
« de deviner plus précisément ce que vous recherchez »23. Mais l’impact et l’impor-
tance de chacun de ces paramètres dans le classement final ne sont pas divulgués
aux utilisateurs24. La question est donc de savoir dans quelle mesure les propositions
des moteurs de recherches influencent le choix des utilisateurs et pèsent sur l’enga-
gement de leur responsabilité civile, comme l’illustre le contentieux relatif au droit
66 à l’oubli numérique.

En janvier 2012, la Commission européenne propose d’introduire à l’article 17 de


son projet un « droit à l’oubli numérique ». En mars 2014, le Parlement européen se
prononce quant à lui en faveur d’un « droit à l’effacement » qui consiste pour toute
personne à « obtenir que leurs données soient effacées et ne soient plus traitées,
lorsque ces données ne sont plus nécessaires au regard des finalités pour lesquelles
elles ont été recueillies ou traitées, lorsque les personnes concernées ont retiré leur
consentement au traitement ou lorsqu’elles s’opposent au traitement de données à
caractère personnel les concernant ou encore, lorsque le traitement de leurs don-
nées à caractère personnel n’est pas conforme au présent règlement... »25.

20. Son activité principale consistait à indexer manuellement les sites Web.
21. Voir I. Laurence, « Histoire des moteurs de recherche », dans L’information et le renseignement
par Internet, coll. Que sais-je ?, Paris, Presses Universitaires de France, 2010, p. 26 seq.
22. S. Brin, L. Page, « Proceedings of the Seventh International World Wide Web Conference The
anatomy of a large-scale hypertextual Web search engine », (1998) 30 (1) Computer Networks
and ISDN Systems 107.
23. Voir le site décrivant les perspectives de recherche sur l’algorithme de Google : https://www.
google.com/intl/fr_fr/insidesearch/howsearchworks/algorithms.html
24. Certains moteurs de recherche sont en revanche ouverts, à l’image de « Duck Duck Go ! » où les
options sont communiquées par le moteur de recherche.
25. Voir la Résolution législative du Parlement européen du 12 mars 2014 sur la proposition de
règlement du Parlement européen et du Conseil relatif à la protection des personnes physiques
Dans l’attente de l’adoption d’un nouveau texte, la Cour de justice de l’Union
européenne consacre un droit au déréférencement le 13 mai 201426. La CJUE qua-
lifie les exploitants de moteur de recherche de « responsables de traitement » des
données personnelles27. Pour ce faire, la CJUE considère d’abord que l’activité de
moteur de recherche est un « traitement de données » au sens de l’article 2 de la
Directive de 199528. La définition extrêmement large de l’activité de traitement de
données permet de mettre à la charge de l’exploitant d’un moteur de recherche une
obligation de déréférencement toutes les fois qu’il indexe, classe et diffuse des don-
nées personnelles parmi les résultats de recherche29. La Cour retient par ailleurs
qu’en déterminant les finalités et les moyens du traitement des données à caractère
personnel à mettre en œuvre, l’exploitant du moteur de recherche est un « respon-
sable du traitement de données personnelles » au sens de l’article 2 d) de la Direc-
tive n°95/46/CE30. L’objectif poursuivi par la Cour étant « d’assurer une protection
efficace et complète des personnes concernées », elle rappelle le « rôle décisif [du
moteur de recherche] dans la diffusion globale desdites données en ce qu’[il] rend
celles-ci accessibles à tout internaute effectuant une recherche à partir du nom de
la personne concernée »31. De manière récurrente, la société américaine mettait en
avant le caractère automatique empreint de neutralité de ses opérations. L’exploitant
parvenait donc parfois à échapper à sa responsabilité en arguant son rôle passif et 67
la neutralité de ses résultats32. En réponse à ces arguments classiques, la CJUE ré-

La recherche opérationnelle

à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données,
spé., amendement 27 de la Proposition de règlement Considérant 53.
26. CJUE, 13 mai 2014, aff. C 131/12, Google Spain SL, Google Inc c/ Agencia Espanola de Protec-
cion de Datos, Mario Costeja Gonzales. Voir not., S. Mauclair, « Vers un droit à l’oubli numéri-
que... » (2014) n° 007/008 Revue Juridique Personne et Famille ; C. Castets-Renard, « Google et
l’obligation de déréférencer les liens vers les données personnelles ou comment se faire oublier du
monde numérique » (2014) 106 RLDI.
27. La Cour consacre l’existence d’une obligation de déréférencement à la charge de l’exploitant,
fondé sur le droit d’opposition de la personne au traitement de ses données personnelles et sur le
droit à l’effacement des données dont le traitement n’est pas conforme à la directive n°95/46/CE.
28. Selon cet article, le traitement de données correspond à « toute opération ou ensemble d’opéra-
tions effectuées ou non à l’aide de procédés automatisés ».
29. Sur cette qualification voir not., C. Castets-Renard, « Google et l’obligation de déréférencer les
liens vers les données personnelles ou comment se faire oublier du monde numérique » (2014)
106 RLDI.
30. L’article 2 d) est ainsi libellé : le responsable du traitement est « la personne physique ou morale,
l’autorité publique, le service ou tout autre organisme qui seul, ou conjointement avec d’autres,
détermine les finalités et les moyens du traitement des données à caractère personnel ».
31. Dans le même sens voir not., T. com. Paris, 1re ch., 28 janv., 2014, M. X. c/ Google Inc., Google
France, RLDI 2014/103, n° 3428 et RLDI 2014/105, n° 3494, obs. M. Combes.
32. Voir F. Lecomte et A. Bégué, « Panorama des régimes d’irresponsabilité applicables à Google »
(2014) 105 RLDC.
Voir également : A. Tourette, Responsabilité civile et neutralité de l’internet : Essai de conciliation,
torque qu’il importe peu que les données aient déjà été publiées sur internet et ne
soient pas modifiées par le moteur de recherche. Il s’agit bien d’un traitement de
données dans la mesure où l’exploitant détermine les moyens et finalités de cette
opération. Les juridictions nationales avaient déjà réfuté la neutralité et le caractère
automatique de l’intervention du moteur de recherche33. Les utilisateurs ignorent
bien souvent que les résultats affichés ne sont pas neutres, mais prennent en compte,
via des mécanismes d’aide à la décision, leurs précédentes recherches (il n’existe pas
un, mais plusieurs Google, nous utilisons donc tous un moteur de recherche Google
différent). Il est donc possible de considérer suivant cette même trame d’analyse que
les résultats que Google référence ne sont pas la résultante d’une simple compilation
de faits, mais résultent d’une « accumulation de faits qui sont organisés, triés grâce
(2017) 22 Lex Electronica 55

aux choix éditoriaux contenus dans les algorithmes de recherche, et ces jugements et
algorithmes représentent l’opinion des différents moteurs de recherche sur ce qui est
susceptible d’intérêt pour les tiers »34. La CJUE accorde ainsi la possibilité à chacun
de demander aux exploitants de moteurs de recherche, sous certaines conditions, le
déréférencement de liens apparaissant dans les résultats de recherche effectuée sur
la base de son nom. Le déréférencement suppose soit une atteinte au respect de la
vie privée, soit une atteinte au droit des données à caractère personnel. Il n’y a donc
pas un déréférencement de plein droit du seul fait que des données à caractère per-
sonnel figurent sur la page litigieuse. La CJUE précise par ailleurs que la personne
68
concernée par le traitement n’est pas tenue de démontrer que l’indexation de l’infor-
mation dans la liste des résultats du moteur de recherche lui cause un préjudice. La
Cour affirme que c’est au regard de ses droits fondamentaux reconnus par les articles
7 (respect de la vie privée) et 8 (données personnelles) de la Charte des droits fon-
damentaux, qu’elle bénéficie d’un droit à ce que les informations ne soient plus liées
à son nom dans la liste de recherche. Dans ce contexte, l’intérêt de la personne doit
ainsi être mis en relation avec ceux du public dans la mesure où il est question de la
mise en balance de deux droits fondamentaux ayant une valeur équivalente35. Afin
de préciser les contours de cette obligation, s’appuyant sur les travaux du G2936, la

thèse Nice Sophia Antipolis, 2015, spéc. n° 85 seq. sur l’indexation automatique.
33. Voir Cass. 1re civ., 19 juin 2013, n° 12-17.591. Voir not., D. Forest, « Google et le « droit à l’oubli
numérique» : genèse et anatomie d’une chimère juridique » (2014) 106 n°13 RLDI.
34. Extrait du Livre Blanc, réf citée par F. Lecomte et A. Bégué, « Panorama des régimes d’irrespon-
sabilité applicables à Google » (2014) 105 RLDC.
35. Cette demande doit identifier le requérant et l’adresse (URL) des liens à supprimer, et indiquer
en quoi le lien vers des informations personnelles est « non pertinent, obsolète ou inapproprié »
selon les termes de l’arrêt de mai 2014.
36. Le 24 novembre 2014, le Groupe de travail Article 29 sur la protection des données et de la
vie privée (ou G29) formule un certains nombres de lignes directrices concernant la personne
demandant le déréférencement et les informations susceptibles d’être déréférencées. Ces critères,
non exhaustifs, apportent une interprétation commune de l’arrêt de la CJUE de mai 2014 par les
différentes autorités de protection européennes.
Voir : http://ec.europa.eu/justice/data-protection/article-29/documentation/opinion-recommenda-
CNIL37 dresse les critères qu’elle entend surveiller pour justifier ou non du droit au
déréférencement. Après avoir rappelé que les demandeurs ne sont pas tenus d’agir
préalablement auprès de l’éditeur du contenu il est notamment fait référence à l’in-
térêt du public d’avoir accès à l’information en particulier si cette personne joue un
rôle dans la vie publique.

Quinze jours après la décision de la CJUE du 13 mai 2014, la société Google met
en ligne un formulaire pour recueillir les demandes de suppression de résultats de
recherche. Dans son rapport « Transparence des informations » de 2014, Google
indique avoir reçu près d’un million de demandes de déréférencement par jour38.
Ces chiffres questionnent notamment sur les moyens humains et techniques dont
dispose l’exploitant afin de faire face à cette nouvelle obligation. L’exploitant du mo-
teur de recherche doit donc notamment définir, au cas par cas, ce qui relève de la vie
privée et ce qui relève de la vie publique. L’exploitant devra non seulement être juge
du contenu, mais aussi faire la balance d’intérêts fondamentaux. Celui-ci n’a donc
pas à être juge d’un « contenu manifestement illicite » comme c’est le cas des héber-
geurs39. Cela est d’autant plus surprenant que le Conseil Constitutionnel français,
en marge de sa décision de 2004 relative à la loi pour la confiance dans l’économie
numérique mettait en exergue le risque d’encourager la régulation privée des com-
munications sur l’internet, car « la caractérisation d’un message illicite peut se ré- 69
véler délicate, même pour un juriste »40. Par analogie, l’analyse vaut également pour
les mesures de déréférencement mises en œuvre par les moteurs de recherche dans
la mesure où elles restreignent la liberté d’expression et le droit à l’information du

La recherche opérationnelle

public41. Les risques d’un tel transfert des juridictions vers un acteur privé affleurent.

tion
37. Voir not., M. Giguer, « Droit à l’oubli / Droit au référencement : les 13 critères définis par les «
CNIL » européennes » (nov., 2014, n° 6 Cahiers de droit de l’entreprise, prat. 30.
38. Voir le rapport en ligne : http://www.google.com/transparencyreport/removals/europepriv-
acy/?hl=fr
39. Voir Conseil Constitutionnel, Décision n° 2004-496 DC, 10 juin 2004, JO 22 juin 2004, p. 11182,
Rec., p. 101.
40. Les Cahiers du Conseil constitutionnel, Cahier n°17, Commentaire de la décision n° 2004-496
DC du 10 juin
2004.
41. Au soutien de cette même idée, on peut également faire référence à la décision du Conseil Con-
stitutionnel du 10 juin 2009 relative à l’HADOPI (Décision n° 2009-580 DC du 10 juin 2009,
Considérant n°16), qui retenait que le législateur ne peut confier à une autorité administrative,
fusse-t-elle indépendante, le pouvoir de restreindre l’exercice du droit de s’exprimer librement. Le
Conseil a estimé que seule une juridiction pouvait être habilitée à prendre des mesures portant
une atteinte d’une telle nature à la liberté d’expression et de communication. Le Conseil d’État
juge encore que « le déréférencement affecte la liberté d’expression de l’éditeur du site en rendant
l’information publiée moins accessible et en le ramenant ainsi à la situation antérieure à Internet
», Conseil d’Etat, Étude annuelle 2014. Le numérique et les droits fondamentaux, Doc. fr., coll.
Les rapports du Conseil d’État, n° 65, 2014, p. 188.
Il s’agit principalement du risque lié à une « censure privée » face à une « histoire
collective »42. Alors que la Commission ad hoc de réflexion et de propositions sur
le droit et les libertés à l’âge numérique recommande que le recours au blocage de
contenus sur l’internet ne soit utilisé qu’à titre subsidiaire et sur décision judiciaire,
le risque est alors de voir les exploitants des moteurs de recherche déréférencer des
pages alors que les autorités de contrôle ou les magistrats ne leur auraient pas néces-
sairement enjoint de le faire43. Si un risque peut apparaître concernant l’évaluation
du contenu informationnel litigieux, la technique même de déréférencement peut
aussi soulever des interrogations. Si l’exploitant du moteur de recherche ne satisfait
pas à son obligation de déréférencement, alors il pourra voir sa responsabilité civile
engagée44.
(2017) 22 Lex Electronica 55

Face à l’afflux de demandes de déréférencement, l’exploitant va nécessairement


devoir utiliser des moyens automatiques de traitement. L’intervention humaine, si
elle existe, ne pourra pas durer plus de quelques secondes afin de répondre à chaque
demande dans un temps acceptable. Or, l’appréciation des conditions de ce droit au
déréférencement appelle un jugement qui ne peut être laissé à un processus automa-
tique. Le dessaisissement de la prise de décision au profit d’une « pseudo objectivité
machinique » peut en effet faire craindre une forme de « gouvernance algorith-
mique »45. Ces méthodes pourraient participer au développement de contentieux
70
fournis dans lesquels l’exploitant serait assigné en justice en raison d’un déréféren-
cement automatique préjudiciable, injustifié et donc abusif. Il est surtout essentiel
de prendre garde d’un déréférencement qui prendrait les traits d’une régulation al-
gorithmique dans laquelle les décisions ne seraient plus entre les mains des juges,
mais de programmes mathématiques ! Dans une telle configuration, des décisions

42. Voir not., M. Ermert, « German constitutional judge expresses concerns about the “right to be
forgotten” decision » (15 août 2014) Internet Policy Review.
43. La Commission ad hoc de réflexion et de propositions sur le droit et les libertés à l’âge du numéri-
que (juin 2104) qui envisage de renforcer le cadre légal du droit à l’information et d’instaurer le «
droit de savoir » à l’ère numérique.
44. TGI Paris, ordonnance de référé du 19 décembre 2014 (Marie-France M. c/ Google France et
Google Inc). Cette décision s’inscrit dans le prolongement de celle du TGI de Paris dans laquelle
le juge avait déjà enjoint l’exploitant Google, sous peine d’astreinte, de déréférencer une page
internet contenant des propos diffamatoires pour lesquels leur auteur avait été condamné pénale-
ment, qui apparaissait encore dans la liste des résultats lorsqu’on indiquait dans le moteur de
recherche le nom des personnes victimes de ces propos : TGI Paris, ordonnance de référé du 16
septembre 2014 (M. et Mme X et M. Y/ Google France).
Voir également la décision du 10 mars 2016 de la CNIL qui condamne la société Google à 100 000
€ de sanction pécuniaire à la suite du refus de respecter la mise en demeure de la Présidente de
la CNIL de procéder au déréférencement sur l’intégralité des extensions du nom de domaine
de son moteur de recherche. https://www.cnil.fr/sites/default/files/atoms/files/d2016-054_sanc-
tion_google.pdf
45. A. Rouvroy et T. Berns, « Gouvernementalité algorithmique et perspectives d’émancipation - Le
disparate comme condition d’individuation par la relation ? » (2013) 1- 177 Réseaux.
seront prises de manière automatique, sans intervention humaine, et pourtant les
professionnels pourront en être tenus pour responsable juridiquement.

Ces concepts s’illustrent également sur les réseaux routiers où la distinction entre
aide à la décision et automatisme est encore plus nébuleuse.

2.2. Recherche opérationnelle et réseaux routiers

Pour tenter d’établir une distinction plus nette, deux systèmes seront étudiés. Le
premier concerne le GPS automobile qui est un pur système d’aide à la décision (1).
Le second est quant à lui au carrefour de l’aide à la décision et de l’automatisme et
il vise les véhicules équipés d’aides à la conduite (2). Cette différentiation entraîne
dans son sillage une modification substantielle dans le traitement juridique qui en
découle en cas d’accident.

2.2.1. Le GPS automobile : un pur système d’aide à la décision 71

La recherche opérationnelle

L’utilisation du GPS en voiture est une parfaite illustration d’un mécanisme de
pur aide à la décision. Deux exemples de graphes illustrent schématiquement ci-
après le processus de recherche opérationnelle utilisé par le GPS automobile.

Dans ces deux cas, les routes sont modélisées par des graphes. Chaque inter-
section est modélisée par un nœud et des arêtes relient ces nœuds entre eux si une
route existe. Un poids (ou une valeur) est associé à chaque arête en fonction de la
distance entre les deux intersections ou du temps nécessaire pour parcourir la dis-
tance en voiture. Ensuite, un algorithme dit du « plus court chemin »46 permet de
trouver le chemin reliant deux nœuds du graphe en minimisant le poids des arêtes
empruntées. Enfin, les résultats s’affichent sur l’écran du GPS automobile sous la
forme d’itinéraires.

46. E. W. Dijkstra, A short introduction to the art of programming, vol. 4, Eindhoven, Technische
Hogeschool, 1971.
(2017) 22 Lex Electronica 55

Fig. 3. Exemples de graphes

Dans ce cadre, l’utilisateur est « conseillé » dans ses choix et le GPS ne dispose
d’aucune maîtrise sur le véhicule. Ce système n’aura donc pas d’influence sur la
qualification de conducteur du véhicule. En effet, en France, même si la notion de
conducteur n’est pas définie dans la loi de 1985, elle est déterminante dans l’applica-
tion de la loi du 5 juillet 1985 et joue un double rôle. D’abord elle permet de désigner
le débiteur de la dette de réparation47. Ensuite elle permet de fixer l’étendue du droit
72 à indemnisation de la victime, puisque toute faute commise par un conducteur est
de nature à diminuer ou à exclure son droit à indemnisation48. La doctrine retient
qu’est « conducteur l’individu qui, lors de l’accident, a la maîtrise effective du véhi-
cule terrestre à moteur »49 ou encore qu’est conducteur « celui qui, au moment de
l’accident, a la possibilité de maîtriser les moyens de locomotion du véhicule ter-
restre à moteur, sur lequel il dispose des pouvoirs de commandement »50. La juris-
prudence adopte la même approche51. Ainsi, pour retenir la qualité de conducteur, il
suffit que la victime, lors de l’accident, ait été en situation de piloter le véhicule. Ain-
si, même s’il utilise un GPS automobile, le conducteur doit vérifier l’exactitude des
informations délivrées et adapter sa conduite en conséquence. Que se passerait-il
si l’information ne peut pas être vérifiée par le conducteur, le rôle causal d’une aide
informative (GPS automobile) dans la survenance de l’accident pourrait-elle poser
question ? Ne serait-ce toutefois pas passer outre ce qu’est l’aide à la décision dans ce
contexte ? Le niveau d’aide à la décision est très faible et la liberté du conducteur est
totale (on conduisait bien avant l’invention des GPS automobile !).

47. L. 5 juill. 1985, art. 2.


48. L. 5 juill. 1985, art. 4.
49. C. Maury, « Controverses sur la notion de “conducteur “ », D. 2005 p. 938, citant J. Flour, J.-L.
Aubert et E. Savaux, Les obligations, t. 2, Le fait juridique, 13e éd., Sirey, n° 341.
50. Ph. Le Tourneau, Droit de la responsabilité et des contrats, Dalloz Action n° 8134, 2014-2015.
51. Voir not. : Crim. 10 janv. 2001, no 00-82.422, Bull. crim., no 1; D. 1991. IR 982. – Civ. 2e, 31 mai
2000, no 98-21.203, Bull. civ. II, no 91; RCA 2000, no 259, note Groutel.
En réalité, les questions en matière de responsabilité se posent principalement en
présence d’aides « substitutives » à la décision du conducteur52. Prenons en ce sens
l’exemple des voitures dites « autonomes ».

2.2.1. La voiture dite « autonome » : un glissement de l’aide à la décision vers


l’automatisme

L’expérience de la voiture dite « autonome » chez la société Google trouve son


origine dans les travaux de l’agence américaine chargée de la recherche et du dé-
veloppement des nouvelles technologies destinées à un usage militaire ; la DAR-
PA (Defense Advanced Research Projects Agency). Les Google Cars ont parcouru
plusieurs millions de kilomètres dont 1,6 million en mode autonome. Au cours de
ces six années de roulage, il s’est produit onze accidents impliquant uniquement
des dommages au niveau de la carrosserie, mais n’engendrant aucune blessure cor-
porelle. Lors de ces accidents, la Google Car n’était pas en mode autonome, mais
toujours conduite par une personne physique53.
En mai 2016, sur une autoroute de Floride54, une voiture électrique de la marque
73
Telsa entre en collision avec un poids lourd qui s’était mis en travers de son chemin,
alors qu’elle était en mode « pilote automatique »55. L’agence américaine de la sécurité
routière (NHTSA) a précisé dans un communiqué que l’accident était survenu lors-

La recherche opérationnelle

qu’ « un camion a pris un tournant à gauche en face de la Tesla à une intersection ».
La société Telsa précise quant à elle : « Ce que nous savons, c’est que le véhicule était
sur une autoroute à double sens avec Autopilot activé quand un poids lourd s’est
mis perpendiculairement à la Model S. Ni Autopilot ni le conducteur n’ont détecté
la manœuvre du poids lourd (...) donc les freins n’ont pas été enclenchés »56. C’est
le premier accident mortel d’une voiture Tesla équipée du pilotage automatique en
plus de 200 millions de kilomètres parcourus.

Depuis plusieurs années, le secteur aéronautique rencontre ce même type de pro-


blème. Or, celui-ci a su évoluer et dépasser certaines de ses difficultés en ajoutant

52. I. Vingiano, « Quel avenir juridique pour le « conducteur » d’une « voiture intelligente » ? »
(2014) 239 LPA.
53. Voir le Google Self-Driving Car Project: https://www.google.com/selfdrivingcar/
54. Les Etats-Unis n’ont pas ratifié la Conventions de Vienne sur la circulation routière et sur la sig-
nalisation routière de 1968.
55. Ce mode permet à la voiture de suivre une file. La voiture tourne seule le volant, respecte la
vitesse maximale autorisée grâce à une analyse des panneaux de signalisation, et freine en cas de
besoin.
56. Voir : https://www.tesla.com/fr_FR/blog/tragic-loss
une multitude de systèmes de sécurité et d’enregistrement pour comprendre et dé-
terminer la chaîne de responsabilité dans les accidents. Par ailleurs, les pilotes béné-
ficient d’une formation spécifique pour les avions de ligne ; tous les appareils volants
sont identifiés et localisés et les contrôleurs aériens vérifient l’état général du trafic
et préviennent les risques de collisions. En revanche, sur le réseau routier, ce niveau
de sécurité et de surveillance est encore loin d’être atteint. Le plus gros obstacle à
cette transposition résulte de la complexité de l’environnement extérieur à la voiture.
Pour les avions, le recul et l’expérience acquis sur le pilote automatique ont permis
de le rendre extrêmement fiable. En dépit de cela, en cas de problème, le pilote
dispose toujours d’un bref laps de temps pour reprendre la main et éviter l’accident.
Pour une voiture en circulation, les possibilités d’événements pouvant se produire et
(2017) 22 Lex Electronica 55

gêner la conduite sont presque infinies. Qui plus est, le temps entre le moment de la
détection de l’anomalie et son évitement par le conducteur est extrêmement réduit.
Pour créer une voiture sans conducteur humain, il faut donc la rendre fiable et la
sécuriser dans un environnement aux événements aléatoires pratiquement infinis.
C’est à ce stade que la recherche opérationnelle est utilisée.

L’une des problématiques qui se posent consiste à savoir comment parvenir à


minimiser le nombre de tests à effectuer tout en certifiant la fiabilité du système
dans un large panel de situations. En effet, ces tests étant coûteux en temps et/ou en
74
argent, il est important pour le constructeur de la voiture d’en effectuer un nombre
raisonnable. L’ensemble des événements possibles est donc impossible à tester. La
recherche opérationnelle va ainsi aider à choisir les tests à opérer et va apporter des
éléments de preuve « mathématique » pour démontrer que certains tests ne sont
pas nécessaires57. La fiabilité de l’autonomie de la voiture est donc certifiée par des
processus de recherche opérationnelle. Or, depuis quelques années, les progrès ont
été tels que le panel de situations pouvant être certifié devient extrêmement large à
tel point que l’utilisateur pourrait penser qu’il est complet et envisage l’ensemble des
situations potentiellement dommageables. Et c’est dans ce contexte qu’un glissement
de l’aide à la décision vers l’automatisme peut se produire. La validité et la certi-
fication des processus de l’autonomie du véhicule sont intrinsèquement limitées.
Tant qu’un processus n’est pas certifié ou fiable, il reste de l’aide à la décision. Il est
donc essentiel que le constructeur définisse les limites intrinsèques aux possibilités
du système et les communique clairement aux utilisateurs. Le constructeur devrait
même interdire son utilisation en dehors de ce cadre, s’il y a de forts doutes que
l’utilisateur puisse outrepasser facilement ces limites (ex. : un système qui ne peut
marcher que le jour doit être interdit d’utilisation la nuit).

57. Exemple de travaux dans ce domaine : M. Chau et Y. Le Guennec - IRT SystemX ; Y. Tourbier et
T. Vuong - Renault ; F. Daïm - ESI Group, Modèle réduit paramétré de simulation de Crash.
Si l’on garde à l’esprit les exemples de Google Car et de la voiture Tesla, on peut
observer que dans le premier cas, l’objectif de Google est de créer une voiture dans
laquelle l’humain n’a pas la possibilité de conduire (absence de volant et d’accéléra-
teur). Dans une telle configuration, la responsabilité du constructeur sera assumée
en cas d’accident58.
En revanche, pour le cas de l’autopilote de Tesla, le constructeur fait valoir que :
« Our system is called Autopilot because it’s similar to systems that pilots use to
increase comfort and safety when conditions are clear. Tesla’s Autopilot is a way to
relieve drivers of the most boring and potentially dangerous aspects of road travel –
but the driver is still responsible for, and ultimately in control of, the car »59. Ainsi,
selon le constructeur, l’objectif poursuivi par l’autopilote de Telsa serait donc d’amé-
liorer le confort de conduite et la sécurité du véhicule. Mais comment le conduc-
teur peut-il juger que les conditions sont réunies pour utiliser l’autopilote ? peut-il
l’utiliser en ville ? sur route nationale ? sur autoroute ? par beau temps ? par temps
de pluie ? de jour ? de nuit ? Toutes ces informations sont nécessaires à l’utilisateur
pour lui garantir une bonne utilisation du produit. On peut ainsi légitimement s’in-
terroger sur la pertinence, voire l’obligation pour le constructeur de proposer une
formation aux utilisateurs de son véhicule, à l’image du brevet passé par le pilote
d’avion privé, ou encore penser à créer une nouvelle catégorie sur les permis de
conduire. Un autre aspect de l’autopilote Telsa soulève des questions. Le système 75
allégerait la charge du conducteur en le suppléant sur certaines tâches, tout en le
gardant responsable de son manque de vigilance en cas d’accident… Pourtant, l’uti-

La recherche opérationnelle

lisateur ne serait plus occupé à conduire le véhicule sur la route, mais simplement à
surveiller la route, à l’image des contrôleurs aériens surveillant le trafic. Or l’action
de surveillance nécessite tout autant d’attention que l’action de conduire, à la diffé-
rence que l’utilisateur fera, de fait, beaucoup moins d’actions, ce qui pourrait ampli-
fier sa baisse d’attention, voir son endormissement, et finalement, induire une baisse
du niveau de sécurité du véhicule. Comment le constructeur pourrait-il s’abstraire
de sa responsabilité alors que les mécanismes mis en place suppléent plus qu’ils
n’aident le conducteur dans sa conduite ?

L’exemple de la Google Car ou encore celui de la voiture Telsa révèle comment


à mesure que les ordinateurs effectuent des tâches toujours plus complexes, qu’ils
effectuent un travail d’analyse et de prise de décision, le logiciel réduit notre horizon

58. Des sociétés telles que Google, Volvo ou encore Mercedes ont déjà affirmé qu’ils accepteront de
prendre la responsabilité juridique en cas d’accident causé par leur voiture autonome.
59. Traduit par nous : « Notre système est appelé Autopilot, car il est similaire aux systèmes que les
pilotes utilisent pour augmenter le confort et la sécurité lorsque les conditions sont favorables.
L’autopilot de Tesla est un moyen de soulager les conducteurs des aspects les plus ennuyeux et
potentiellement dangereux de leur trajet, mais le conducteur est toujours responsable, et dispose
en définitive du contrôle de la voiture ». Source : https://www.tesla.com/blog/dual-motor-model-
s-and-autopilot
et notre attention. L’automatisation transforme son utilisateur en simple observa-
teur, et inhibe d’une certaine manière le développement de ses compétences60. C’est
ce que révèle notamment l’administration fédérale de l’aviation qui rédige en 2011
une « safety alert » en exhortant les compagnies aériennes de limiter l’usage du pi-
lote automatique du fait de l’augmentation des erreurs de pilotages des opérateurs
humains, trop habitués à se laisser faire par la machine. Lorsque l’aide à la décision
ne se contente plus de seconder l’activité humaine, mais la transforme et la supplée,
la question de la responsabilité juridique qui en découle prend alors une dimension
bien différente.

En France, outre le Code de la route, c’est la Convention de Vienne du 8 no-


(2017) 22 Lex Electronica 55

vembre 1968 relative à la circulation routière qui est applicable. Cette Convention
précise en son article 8 que : tout véhicule en mouvement doit avoir un conducteur ;
tout conducteur doit posséder les qualités physiques et psychiques nécessaires et
être en état physique et mental de conduire ; tout conducteur de véhicule à moteur
doit avoir les connaissances et l’habileté nécessaires à la conduite du véhicule ; tout
conducteur doit constamment avoir le contrôle de son véhicule61. En mars 2016,
une modification de la Convention de Vienne sur la circulation routière annoncée
par la commission économique des Nations Unies pour l’Europe (UNECE) auto-
76 rise les systèmes de conduites automatisées seulement « si ces technologies sont
conformes aux réglementations de l’ONU ou peuvent être contrôlées et désactivées
par le conducteur »62. L’amendement de l’UNECE ne revient cependant pas encore
sur l’article de 8 de la Convention de Vienne qui précise que « tout véhicule en mou-
vement ou tout ensemble de véhicules en mouvement doit avoir un conducteur ».
En février 2016, l’agence américaine de sécurité routière (National Highway Traffic
Safety Administration, ci-après NHTSA) a estimé quant à elle qu’un système infor-
matique basé sur l’intelligence artificielle des voitures autonomes pouvait être consi-
déré comme leur conducteur63. La NHTSA affirme qu’il est possible de remplacer
le terme « conducteur » dans les textes de loi par celui de « système de contrôle
embarqué ». Sans aller aussi loin que la proposition américaine, une deuxième avan-

60. N. Carr, « All Can Be Lost: The Risk of Putting Our Knowledge in the Hands of Machines » (nov.
2013) The Atlantic.
61. L’accord européen du 1er mai 1971 précise que : « tout conducteur doit rester maître de son
véhicule de façon à pouvoir se conformer en toutes circonstances aux exigences de la prudence ».
Accord européen du 1er mai 1971 complétant la Convention sur la circulation routière ouverte à
la signature à Vienne le 8 novembre 1968 – Annexe.
62. Voir : http://www.unece.org/fr/info/media/presscurrent-press-h/transport/2016/unece-paves-
the-way-for-automated-driving-by-updating-un-international-convention/la-unece-ouvre-la-
voie-a-la-conduite-automatisee-en-modifiant-la-convention-de-vienne-sur-la-circulation-rout-
iere.html
63. Dans la lettre que la NHTSA adresse sur son site internet à la société Google elle retient qu’elle
« will interpret ‘driver’ in the context of Google’s described motor vehicle design as referring to
the (self-driving system), and not to any of the vehicle occupants ».
cée réglementaire est actuellement en préparation. Elle concerne l’introduction de
fonctions de direction à commande automatique dans les règlements des Nations
Unies sur les véhicules. Cela comprend notamment les systèmes qui, dans certaines
circonstances, prendront le contrôle du véhicule sous le contrôle permanent du
conducteur. Il est ici fait référence aux systèmes veillant au maintien de la trajectoire
(éviter un changement de voie accidentel), aux fonctions d’assistance au stationne-
ment, et aux fonctions autopilote sur autoroute. Mais il serait intéressant d’ajouter
une obligation de surveillance de l’attention du conducteur humain (maintien des
mains sur le volant, surveillance des clignements des yeux pour prévenir l’endormis-
sement, etc.), ou encore une obligation de formation, pesant sur le constructeur du
véhicule, à l’utilisation et aux limites de ces technologies. Par ailleurs, la limitation
imposée aux fonctions de pilotage automatique au-dessous de 10km/h actuellement
contenue dans le règlement N°79 de l’ONU, devrait être révisée64.

Les outils juridiques devront donc évoluer pour que la responsabilité sans faute
soit celle du constructeur de l’automobile (et le cas échéant des sous-traitants) qui
aura développé les systèmes de conduite automatique. Consacrer la responsabilité
sans faute du constructeur éliminerait la nécessité de déterminer qui est responsable
de la collision. Or, c’est une approche qui n’est pas actuellement reconnue dans la loi
du 25 juillet 1985. Mais dans une telle mesure, la loi assurerait toujours une chaîne 77
de responsabilité favorisant l’indemnisation des préjudices soufferts par la victime.
Ensuite, il appartiendrait à ce responsable de prouver les causes réelles de l’accident
(« un capteur défaillant, un problème mécanique ou encore un bug de l’algorithme,

La recherche opérationnelle

et de se faire rembourser le cas échéant »). Cela ne sera pas sans causer un certain
nombre de difficultés principalement sur le plan probatoire. Comment prouver que
le conducteur n’est pas à l’origine de l’accident ? Comment le constructeur parvien-
dra-t-il à prouver les causes réelles de l’accident ? Les données enregistrées (via des
boites noires) et traitées par le véhicule autonome pourront permettre au juge de
disposer d’éléments probants, par exemple pour reconnaître une défaillance tech-
nique. Mais ces données devront impérativement être communiquées au juge ainsi
qu’à toutes les parties en cas de litige, comme c’est le cas actuellement lors d’un ac-
cident aérien.

L’implication des procédés d’automatisation dans le contexte des véhicules


autonomes pose enfin la question de l’éventuelle application de la loi n° 98-389 du
19 mai 1998 sur la responsabilité des produits défectueux65. Cette hypothèse pour-

64. Voir : https://www.unece.org/fr/info/media/presscurrent-press-h/transport/2016/unece-paves-


the-way-for-automated-driving-by-updating-un-international-convention/la-unece-ouvre-la-
voie-a-la-conduite-automatisee-en-modifiant-la-convention-de-vienne-sur-la-circulation-rout-
iere.html
65. Code civil, art. 1386-1 et suivants. – Voir notamment : Ph. le Tourneau, Contrats informatiques
et électroniques, 9e éd, coll. Référence, Dalloz, 2016-2017, nos 212-13 et s.
rait se heurter à plusieurs obstacles : preuve de l’existence du dommage, détermina-
tion de la défectuosité au moment de la commercialisation du véhicule autonome,
établissement du lien de causalité scientifique et/ou juridique entre ces derniers,
etc. En effet, pour que le régime de la responsabilité du fait des produits défectueux
fonctionne, le défaut doit pouvoir être décelé compte tenu de l’état des connais-
sances scientifiques et techniques au moment de la mise en circulation du produit.
Or, il est tout à fait envisageable que le véhicule autonome évolue entre sa sortie
de la concession et un accident survenu quelques mois ou années après (modifica-
tion du comportement par apprentissage via machine learning, ajout de nouvelles
fonctionnalités par téléchargement de programmes ad hoc). Dans un tel schéma,
la responsabilité du fabricant dont l’évolution du produit ne serait plus de son seul
(2017) 22 Lex Electronica 55

fait sera plus épineuse à envisager. La responsabilité sans faute du professionnel de-
vra en effet s’établir en considérant de nouveaux critères tels que la complexité du
système, son degré d’aide à la décision, ou encore les possibilités d’intervention lais-
sées à l’utilisateur. Par ailleurs, il convient d’insister sur le fait que l’hypothèse de
réflexion ne concerne pas les dysfonctionnements matériels classiques du véhicule
autonome (éclatement d’une roue, panne moteur, explosion, etc.) qui peuvent s’ins-
crire dans les régimes existants de responsabilité civile. La difficulté apparaît lorsque
l’on envisage les conséquences d’une décision (tourner, freiner, arrêter le véhicule)
correspondant au fonctionnement « normal » du véhicule. Lorsqu’elle est à l’origine
78
d’un préjudice, cette décision peut-elle entrer dans la sphère de la loi sur les produits
défectueux ? Une telle problématique renvoie aux questionnements soulevés autour
de l’application de ce régime aux biens immatériels66. En effet, les procédés auto-
matiques mis en œuvre dans ces véhicules ne sont ni corporels, ni totalement stan-
dardisés contrairement au modèle théorique pensé initialement dans la législation
relative aux produits défectueux. Face à ces enjeux, le Parlement européen a adopté
le 16 février 2017 une résolution contenant des recommandations notamment rela-
tives aux règles du droit de la responsabilité en matière de robotique67. Cet exemple
illustre comment la recherche opérationnelle et l’aide à la décision soulèvent des
questionnements nouveaux qu’il sera nécessaire au juge et au législateur de prendre
en compte.

66. Voir A. Lucas, « La responsabilité des choses immatérielles »,dans mél. Catala, Litec, 2001, p. 817.
67. Le Parlement européen envisage la mise en place d’un régime d’assurance obligatoire complété
par un fonds garantissant un dédommagement de la victime (y compris en l’absence de couver-
ture). Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la
Commission concernant des règles de droit civil sur la robotique (2015/2103(INL)).
PROPOS CONCLUSIFS

La compréhension du concept de la recherche opérationnelle est une étape


nécessaire pour l’application d’un régime juridique idoine. La complexité des sys-
tèmes et les procédés de recherche opérationnelle utilisés posent la question de
la compréhension et de la maîtrise de ces outils, y compris par les professionnels
eux-mêmes. Ainsi, une meilleure évaluation du degré d’aide à la décision, et donc
de liberté laissée à l’utilisateur, doit être prise en compte par le juge. La recherche
opérationnelle pourra ainsi directement influencer la mesure de la responsabilité
de l’utilisateur : plus l’utilisateur est libre dans ses choix, plus il sera responsable. Et
inversement, plus l’utilisateur est conditionné, limité dans ses choix, ou intervient
que ponctuellement, moins il sera responsable.

D’après Bernard Roy, président d’honneur de la ROADEF, « L’équipe de


79
R.O., en particulier le coordonnateur, doit absolument se garder de considérer qu’il
lui revient de conclure son étude par une décision »68. Ce d’autant que la recherche
opérationnelle, par sa quête incessante de l’optimalité, a réussi à gagner la confiance

La recherche opérationnelle

parfois excessive des utilisateurs. Bien qu’existante, la liberté de choisir des utilisa-
teurs est facilement abandonnée au profit de la solution optimale promise par la
recherche opérationnelle.
Ce constat s’impose avec d’autant plus d’acuité qu’il n’existe pas à ce jour de ré-
gulation de la recherche opérationnelle à l’instar d’autres disciplines scientifiques. Si
elle est visée par le Code des impôts français, elle devrait également pouvoir investir
d’autres champs disciplinaires du droit. Les questions de la déontologie, mais aussi
de la régulation de la recherche opérationnelle se posent ainsi de manière décisive.

68. B. Roy, Méthodologie multicritère d’aide à la décision, Paris, éd. Economica, 1985.

Vous aimerez peut-être aussi