Lex 22 Ninin Mazeau 55
Lex 22 Ninin Mazeau 55
Lex 22 Ninin Mazeau 55
La recherche opérationnelle est une discipline des méthodes scientifiques utilisables pour
élaborer de meilleures décisions. Elle aide à trouver une solution où l’homme n’en trouvait
pas ou ne disposait d’aucune expérience. Elle aide à juger de la qualité d’une solution, mais
aussi à confirmer/justifier des décisions. La recherche opérationnelle intervient dans des
domaines très divers : Big Data, GPS, Google car ; finance, environnement et développe-
ment durable, domaine spatial, politiques publiques, gestion des ressources hospitalières,
etc. Elle favorise une culture scientifique dans la prise de décision. Face à son omnipré-
sence dans notre environnement, il est intéressant de questionner son influence sur le Droit
(confidentialité des données (Big Data) ; imputation d’obligation ; prise de décision ; infor-
mation des utilisateurs, etc.). Que se passe-t-il lorsque l’aide à la décision devient systéma-
tiquement « la » décision ? Qui est responsable des mauvais choix ? Existe-t-il des règles
éthiques lorsque ces techniques ont un impact sur l’homme ? Traite-t-on de la même façon
des ressources matérielles et humaines ? La recherche opérationnelle ne se contente pas de
suppléer l’activité humaine, elle la change.
(2017) 22 Lex-Electronica.org 55
Copyright © 2017 Jordan Ninin et Laurène Mazeau.
PROPOS INTRODUCTIFS
La recherche opérationnelle
ce stade et qui sera précisé par la suite, c’est que la recherche opérationnelle est une
discipline des méthodes scientifiques pour aider à prendre des décisions. Quelle est
la spécificité de la recherche opérationnelle ? Pourquoi pose-t-elle des problèmes
spécifiques qui ne peuvent pas être appréhendés par le droit de la responsabilité
en général ? Si les modélisations informatiques soulèvent de nombreuses questions
juridiques, notamment en termes de responsabilité, elles peuvent également être
pensées comme un outil favorisant la résolution des conflits1.
1. Voir M. Lamoureux, « La causalité juridique à l’épreuve des algorithmes », (20 juin 2016) 25 JCP
G doctr. 731.
Utilisant la « Compram Methodology » (cette méthode donne des lignes de guidance pour gérer
des problèmes complexes de la société basée sur une méthodologie scientifique) : D.J. DeTombe,
Handling Societal Complexity. A Study of the Theory of the Methodology of Societal Complexity
and the COMPRAM Methodology, Heidelberg, Springer Verlag, 2015 ; A.J Muntjewerff, « So-
cietal Complexity and Legal Problem Solving » (To appear in 2016) European Journal for Oper-
ation Research (EJOR), Elsevier.
2. Voir B. Pascal, Pensées, Texte établi par L. Brunschvieg en 1897, Paris, GF-Flammarion, 1976.
l’incertain avec l’espérance mathématique. D’autres, au 18e et 19e siècle, résolvent
des problèmes combinatoires, à l’image du problème du déblai et remblai3. Au début
du 20e siècle, on assiste à une accélération massive des procédés de recherche opé-
rationnelle comme l’illustre notamment la théorie des files d’attente4. Mais ce n’est
qu’avec la Seconde Guerre mondiale que la recherche opérationnelle va s’organiser
pour la première fois et acquérir son nom. En 1940, Patrick Blackett est appelé par
l’état-major anglais à diriger la première équipe de recherche opérationnelle pour
résoudre certains problèmes tels que : l’implantation optimale de radars de surveil-
lance, la gestion des convois d’approvisionnement ou encore la planification des vols
de surveillance anti-sous-marins, etc.5. Aujourd’hui elle est utilisée pour les réseaux
internet, de téléphonie, etc., dans le monde entier. La société savante de recherche
(2017) 22 Lex Electronica 55
3. G. Monge. Mémoire sur la théorie des déblais et de remblais. Histoire de l’Académie Royale des
Sciences de Paris, avec les Mémoires de Mathématique et de Physique pour la même année, 1781,
pp. 666–704.
4. A. K. Erlang, « Solutions of some problems in the theory of probabilities of significance in auto-
matic telephone exchanges » (1918) 10 The Post Office Electrical Engineers Journal 189, translat-
ed from Elektroteknikeren, 13.
5. B. Roy, « Regard historique sur la place de la recherche opérationnelle et de l’aide à la décision en
France », (2006) 175 Math. et Sci. Hum.
6. Voir : https://www.roadef.org/
7. Voir : https://www.euro-online.org/
8. R. Bixby, « A brief history of linear and mixed-integer programming computation » (2012) vol.
Optimization Stories, Doc. Math. 107.
9. Ce type de problème est notamment à la base de certaines techniques de cryptographie, comme
le système RSA basé sur la factorisation d’entiers en produit de nombres premiers.
PDG de Google. Celui-ci affirmait en 2010 dans une interview au Wall Street Jour-
nal, que : « Ce que veulent la plupart des gens, ce n’est pas que Google réponde à
leurs questions, mais leur dise ce qu’ils doivent faire »10. L’absence de connaissance
de l’outil informatique participe généralement de ce détachement. Et l’utilisateur
profane aura en effet tendance à considérer que la règle établie par défaut, conçue
par l’homme de l’art et suivie par la plupart des autres utilisateurs, est sans doute
la meilleure option pour lui aussi11. En ce sens, en France, le rapport du Conseil
d’État relatif au numérique et droits fondamentaux12 soulève que la complexité de
l’outil informatique et le secret industriel qui l’entoure participent à une asymétrie
de l’information entre professionnels et profanes de l’internet. Ainsi, la recherche
opérationnelle apparaît comme étant au cœur d’un glissement vers une prise de
décision optimale. Parce que « machinique » et donc supposée parfaite, la décision
prise devrait en devenir automatique.
Or, la complexité des procédés de recherche opérationnelle utilisés par les profes-
sionnels pose la question de la compréhension et de la maîtrise de ces outils, y com-
pris par les professionnels eux-mêmes. En effet, si l’on prend l’exemple du « machine
learning » (ces logiciels ont la capacité d’apprendre et de s’améliorer de manière
autonome), on découvre que plus on les utilise, plus ils apprennent des utilisateurs
et miment leurs choix et comportements. Ainsi, les solutions proposées reflètent 59
non pas la « meilleure » décision pour le problème de l’utilisateur, mais la solution
la plus largement adoptée par les autres utilisateurs. Le logiciel peut ainsi influen-
La recherche opérationnelle
cer l’utilisateur à prendre une mauvaise décision. Les questions de la déontologie,
mais aussi de la régulation de la recherche opérationnelle se posent ainsi de manière
spécifique. Or, en France, bien que la recherche opérationnelle soit spécifiquement
visée pour le crédit d’impôt recherche13, il n’existe à notre connaissance aucune lé-
gislation particulière visant à encadrer, appréhender cette discipline.
10. E. Schmidt, Interview « Google and the search of the future », Wall Street Journal, 14 août 2010.
11. CE, Étude annuelle 2014. Le numérique et les droits fondamentaux, Doc. fr., coll. Les rapports
du Conseil d’État, n° 65, 2014, p. 400.
12. Conseil d’Etat, Étude annuelle 2014, id.
13. L’article 16 du Chapitre 4 « Recherche scientifique et technique » du Code général des im-
pôts prévoit que : « Sont considérées comme opérations de recherches scientifiques ou tech-
niques, en vue de l’application des dispositions du 1 de l’article 39 quinquies A du Code général
des impôts, les activités ayant le caractère de recherches fondamentales, de recherches appliquées
ou d’opérations de développement, effectuées soit en bureaux d’études ou de calcul, soit en lab-
oratoires, soit en ateliers pilotes, soit en stations expérimentales, ou encore opérées dans des
circonstances spéciales dans le cadre d’installations agricoles ou industrielles et ayant pour objet
: (…) L’amélioration des facteurs de production et de rentabilité économiques, notamment l’au-
tomatisation et la recherche opérationnelle ainsi que l’amélioration des méthodes et techniques
de production, de conservation et de transformation des produits, aux divers points de vue de la
qualité des rendements et de la productivité (…) ».
Pourtant la recherche opérationnelle est au cœur de problématiques contempo-
raines et fournies qu’il s’agisse de confidentialité des données (Big data), d’impu-
tation d’obligation, de prise de décision, ou d’information des utilisateurs. Que se
passe-t-il lorsque l’aide à la décision devient systématiquement « la » décision? Qui
est responsable des mauvais choix opérés par le système? Existe-t-il des règles déon-
tologiques ou éthiques lorsque ces techniques ont un impact sur l’homme ? Traite-
t-on de la même façon des ressources matérielles et humaines ? Toutes ces questions
semblent a priori recouvrir des domaines distincts. Mais en réalité, elles appellent
une approche systémique pour toutes les technologies issues de la recherche opéra-
tionnelle. Il convient dès lors de présenter une approche globale de l’aide à la déci-
sion et de son influence sur le droit de la responsabilité civile à travers deux illustra-
(2017) 22 Lex Electronica 55
tions significatives.
La recherche opérationnelle
de prouver que la solution trouvée est bien la solution au problème posé. Elle est
également par essence liée à l’informatique. Elle utilise des algorithmes qui sont la
traduction numérique des mathématiques appliquées et des preuves qui permettent
de valider le programme en prouvant qu’il termine en un temps fini. Enfin, la com-
plexité est une discipline qui permet de déterminer si un problème est difficile ou
non. Un problème « facile » peut être résolu en quelques secondes (classe P), alors
qu’un problème « difficile » peut nécessiter plusieurs années de calcul pour être
résolu complètement (classe NP)15. Les finalités de la recherche opérationnelle et
de l’aide à la décision sont multiples. La recherche opérationnelle aide à trouver des
solutions à des problèmes où l’homme est dépassé ; soit parce qu’il s’agit d’un pro-
blème nouveau, soit parce que le problème est trop complexe dans sa globalité, soit
pour permettre à l’utilisateur de voir plusieurs possibilités là où il n’en envisageait
qu’une, soit pour proposer des solutions plus robustes aux aléas et au changement
imprévisible. Elle peut également aider à juger de la qualité d’une solution en confir-
mant et justifiant des décisions par des critères mathématiques16.
15. S. A., Cook, “An overview of computational complexity”, (1983) 26(6) Communications of the
ACM 400.
16. ROADEF Livre Blanc de la recherche opérationnelle, 2011.
La méthodologie de la recherche opérationnelle comprend trois étapes essen-
tielles qui soulèvent des problématiques propres.
La première étape est la modélisation (ex. : utilisation des Big data). Elle consiste
dans l’observation attentive du problème et sa formulation, ainsi que la collecte de
données associées. Il convient par la suite de construire un modèle mathématique
qui tente d’abstraire l’essence du problème réel. Tout modèle est donc par nature une
simplification de la réalité, mais cette représentation doit être suffisamment pré-
cise pour capturer les caractéristiques essentielles de la situation, et pour tirer des
conclusions valides au problème réel. Il conviendra dès lors de tester ce modèle, et
de le modifier au besoin.
(2017) 22 Lex Electronica 55
La recherche opérationnelle
1.2. Distinction de la recherche opérationnelle de l’automatisme
17. J. P. Brans et B. Mareschal, « Promethee methods », in Multiple criteria decision analysis: state of
the art surveys, Springer New York, 2005, pp. 163-186.
18. Voir infra l’exemple des moteurs de recherches ou encore des GPS automobiles.
Elles dépendent donc du temps, noté t. Les « sorties » désignent les observations dis-
ponibles et accessibles par l’utilisateur sur le système à chaque instant (ex. : la vitesse
d’une voiture, la quantité d’essence restante, sa position GPS, etc.). La « dynamique »
correspond au comportement et à l’évolution du système dans son environnement
(ex. : principe fondamental de la dynamique, équation de la chaleur, etc.). L’ « état »
du système fait référence à toutes les variables intrinsèques du système observable
ou non (ex. : vitesse angulaire de chaque roue, débit d’injection, vitesse de rotation
du moteur, etc.). Le processus d’automatisation va consister à créer un régulateur
qui, à partir des sorties/observations du système, génère une commande qui sera
mise en entrée du système.
(2017) 22 Lex Electronica 55
Les processus de recherche opérationnelle sont utilisés au quotidien par des mil-
lions de personnes (internet, transport, chaîne d’approvisionnement, management,
tournée de véhicules, etc.). Bien que le développeur ne conçoive pas son outil pour
décider à la place de l’utilisateur, ce dernier se basera très souvent sur le résultat du
processus de recherche opérationnelle. L’utilisateur aura plus confiance en la dé-
cision du processus qu’en sa propre analyse. Par ailleurs, sur un plan juridique, il
est moins risqué pour l’exploitant de faire valoir que son système est de l’aide à la
décision plutôt qu’un mécanisme automatique. Or, dans la pratique cette distinction
n’est pas aussi nette surtout lorsque l’on observe que les utilisateurs ont de moins
en moins la possibilité ou l’envie de choisir. C’est ce que nous illustrerons dans la
seconde partie.
La recherche opérationnelle
Plusieurs exemples peuvent illustrer le degré d’aide à la décision utilisé et son
influence sur la mesure de la responsabilité de l’utilisateur. Nous retiendrons tour à
tour le cas de l’exploitant de moteur de recherche sur l’internet, puis celui des sys-
tèmes GPS automobiles et des voitures dites « autonomes ».
19. Voir L. Mazeau, « La responsabilité civile des exploitants de moteur de recherche - Obligation de
déréférencement, automatisation, recherche opérationnelle » (2015) 5 Cahiers Droit Sciences &
Technologies in « Responsabilité » 267.
moteurs de recherche sont nés dans les années 1990 (Archie en 1990, Wanderer en
1993). Le premier annuaire (Yahoo!) connut un succès immédiat20, il s’en est suivit
de Lycos, Excite ou encore AltaVista en 1995. C’est en 1998 que Google révolutionne
le concept de la recherche en ligne en se singularisant par son système de référence-
ment fondé sur la popularité des sites auprès des internautes21.
Un moteur de recherche est un processus d’aide à la décision. L’utilisateur en-
voie une requête par le biais de mots clefs et une liste de liens vers des sites internet
lui est alors proposée. Il incombe alors à l’utilisateur de choisir le site le plus en
adéquation avec sa recherche. La méthode de base de résolution pour indexer les
milliards de pages internet est bien connue22, elle a cependant évolué depuis ses
débuts. Et ce, notamment pour éviter les phénomènes de « Google bombing », qui
(2017) 22 Lex Electronica 55
consistent à faire remonter artificiellement un lien internet dans les premiers résul-
tats d’une recherche spécifique. Actuellement, plus de 200 paramètres sont pris en
compte pour définir l’ordre final proposé à l’utilisateur par Google, le but est même
« de deviner plus précisément ce que vous recherchez »23. Mais l’impact et l’impor-
tance de chacun de ces paramètres dans le classement final ne sont pas divulgués
aux utilisateurs24. La question est donc de savoir dans quelle mesure les propositions
des moteurs de recherches influencent le choix des utilisateurs et pèsent sur l’enga-
gement de leur responsabilité civile, comme l’illustre le contentieux relatif au droit
66 à l’oubli numérique.
20. Son activité principale consistait à indexer manuellement les sites Web.
21. Voir I. Laurence, « Histoire des moteurs de recherche », dans L’information et le renseignement
par Internet, coll. Que sais-je ?, Paris, Presses Universitaires de France, 2010, p. 26 seq.
22. S. Brin, L. Page, « Proceedings of the Seventh International World Wide Web Conference The
anatomy of a large-scale hypertextual Web search engine », (1998) 30 (1) Computer Networks
and ISDN Systems 107.
23. Voir le site décrivant les perspectives de recherche sur l’algorithme de Google : https://www.
google.com/intl/fr_fr/insidesearch/howsearchworks/algorithms.html
24. Certains moteurs de recherche sont en revanche ouverts, à l’image de « Duck Duck Go ! » où les
options sont communiquées par le moteur de recherche.
25. Voir la Résolution législative du Parlement européen du 12 mars 2014 sur la proposition de
règlement du Parlement européen et du Conseil relatif à la protection des personnes physiques
Dans l’attente de l’adoption d’un nouveau texte, la Cour de justice de l’Union
européenne consacre un droit au déréférencement le 13 mai 201426. La CJUE qua-
lifie les exploitants de moteur de recherche de « responsables de traitement » des
données personnelles27. Pour ce faire, la CJUE considère d’abord que l’activité de
moteur de recherche est un « traitement de données » au sens de l’article 2 de la
Directive de 199528. La définition extrêmement large de l’activité de traitement de
données permet de mettre à la charge de l’exploitant d’un moteur de recherche une
obligation de déréférencement toutes les fois qu’il indexe, classe et diffuse des don-
nées personnelles parmi les résultats de recherche29. La Cour retient par ailleurs
qu’en déterminant les finalités et les moyens du traitement des données à caractère
personnel à mettre en œuvre, l’exploitant du moteur de recherche est un « respon-
sable du traitement de données personnelles » au sens de l’article 2 d) de la Direc-
tive n°95/46/CE30. L’objectif poursuivi par la Cour étant « d’assurer une protection
efficace et complète des personnes concernées », elle rappelle le « rôle décisif [du
moteur de recherche] dans la diffusion globale desdites données en ce qu’[il] rend
celles-ci accessibles à tout internaute effectuant une recherche à partir du nom de
la personne concernée »31. De manière récurrente, la société américaine mettait en
avant le caractère automatique empreint de neutralité de ses opérations. L’exploitant
parvenait donc parfois à échapper à sa responsabilité en arguant son rôle passif et 67
la neutralité de ses résultats32. En réponse à ces arguments classiques, la CJUE ré-
La recherche opérationnelle
à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données,
spé., amendement 27 de la Proposition de règlement Considérant 53.
26. CJUE, 13 mai 2014, aff. C 131/12, Google Spain SL, Google Inc c/ Agencia Espanola de Protec-
cion de Datos, Mario Costeja Gonzales. Voir not., S. Mauclair, « Vers un droit à l’oubli numéri-
que... » (2014) n° 007/008 Revue Juridique Personne et Famille ; C. Castets-Renard, « Google et
l’obligation de déréférencer les liens vers les données personnelles ou comment se faire oublier du
monde numérique » (2014) 106 RLDI.
27. La Cour consacre l’existence d’une obligation de déréférencement à la charge de l’exploitant,
fondé sur le droit d’opposition de la personne au traitement de ses données personnelles et sur le
droit à l’effacement des données dont le traitement n’est pas conforme à la directive n°95/46/CE.
28. Selon cet article, le traitement de données correspond à « toute opération ou ensemble d’opéra-
tions effectuées ou non à l’aide de procédés automatisés ».
29. Sur cette qualification voir not., C. Castets-Renard, « Google et l’obligation de déréférencer les
liens vers les données personnelles ou comment se faire oublier du monde numérique » (2014)
106 RLDI.
30. L’article 2 d) est ainsi libellé : le responsable du traitement est « la personne physique ou morale,
l’autorité publique, le service ou tout autre organisme qui seul, ou conjointement avec d’autres,
détermine les finalités et les moyens du traitement des données à caractère personnel ».
31. Dans le même sens voir not., T. com. Paris, 1re ch., 28 janv., 2014, M. X. c/ Google Inc., Google
France, RLDI 2014/103, n° 3428 et RLDI 2014/105, n° 3494, obs. M. Combes.
32. Voir F. Lecomte et A. Bégué, « Panorama des régimes d’irresponsabilité applicables à Google »
(2014) 105 RLDC.
Voir également : A. Tourette, Responsabilité civile et neutralité de l’internet : Essai de conciliation,
torque qu’il importe peu que les données aient déjà été publiées sur internet et ne
soient pas modifiées par le moteur de recherche. Il s’agit bien d’un traitement de
données dans la mesure où l’exploitant détermine les moyens et finalités de cette
opération. Les juridictions nationales avaient déjà réfuté la neutralité et le caractère
automatique de l’intervention du moteur de recherche33. Les utilisateurs ignorent
bien souvent que les résultats affichés ne sont pas neutres, mais prennent en compte,
via des mécanismes d’aide à la décision, leurs précédentes recherches (il n’existe pas
un, mais plusieurs Google, nous utilisons donc tous un moteur de recherche Google
différent). Il est donc possible de considérer suivant cette même trame d’analyse que
les résultats que Google référence ne sont pas la résultante d’une simple compilation
de faits, mais résultent d’une « accumulation de faits qui sont organisés, triés grâce
(2017) 22 Lex Electronica 55
aux choix éditoriaux contenus dans les algorithmes de recherche, et ces jugements et
algorithmes représentent l’opinion des différents moteurs de recherche sur ce qui est
susceptible d’intérêt pour les tiers »34. La CJUE accorde ainsi la possibilité à chacun
de demander aux exploitants de moteurs de recherche, sous certaines conditions, le
déréférencement de liens apparaissant dans les résultats de recherche effectuée sur
la base de son nom. Le déréférencement suppose soit une atteinte au respect de la
vie privée, soit une atteinte au droit des données à caractère personnel. Il n’y a donc
pas un déréférencement de plein droit du seul fait que des données à caractère per-
sonnel figurent sur la page litigieuse. La CJUE précise par ailleurs que la personne
68
concernée par le traitement n’est pas tenue de démontrer que l’indexation de l’infor-
mation dans la liste des résultats du moteur de recherche lui cause un préjudice. La
Cour affirme que c’est au regard de ses droits fondamentaux reconnus par les articles
7 (respect de la vie privée) et 8 (données personnelles) de la Charte des droits fon-
damentaux, qu’elle bénéficie d’un droit à ce que les informations ne soient plus liées
à son nom dans la liste de recherche. Dans ce contexte, l’intérêt de la personne doit
ainsi être mis en relation avec ceux du public dans la mesure où il est question de la
mise en balance de deux droits fondamentaux ayant une valeur équivalente35. Afin
de préciser les contours de cette obligation, s’appuyant sur les travaux du G2936, la
thèse Nice Sophia Antipolis, 2015, spéc. n° 85 seq. sur l’indexation automatique.
33. Voir Cass. 1re civ., 19 juin 2013, n° 12-17.591. Voir not., D. Forest, « Google et le « droit à l’oubli
numérique» : genèse et anatomie d’une chimère juridique » (2014) 106 n°13 RLDI.
34. Extrait du Livre Blanc, réf citée par F. Lecomte et A. Bégué, « Panorama des régimes d’irrespon-
sabilité applicables à Google » (2014) 105 RLDC.
35. Cette demande doit identifier le requérant et l’adresse (URL) des liens à supprimer, et indiquer
en quoi le lien vers des informations personnelles est « non pertinent, obsolète ou inapproprié »
selon les termes de l’arrêt de mai 2014.
36. Le 24 novembre 2014, le Groupe de travail Article 29 sur la protection des données et de la
vie privée (ou G29) formule un certains nombres de lignes directrices concernant la personne
demandant le déréférencement et les informations susceptibles d’être déréférencées. Ces critères,
non exhaustifs, apportent une interprétation commune de l’arrêt de la CJUE de mai 2014 par les
différentes autorités de protection européennes.
Voir : http://ec.europa.eu/justice/data-protection/article-29/documentation/opinion-recommenda-
CNIL37 dresse les critères qu’elle entend surveiller pour justifier ou non du droit au
déréférencement. Après avoir rappelé que les demandeurs ne sont pas tenus d’agir
préalablement auprès de l’éditeur du contenu il est notamment fait référence à l’in-
térêt du public d’avoir accès à l’information en particulier si cette personne joue un
rôle dans la vie publique.
Quinze jours après la décision de la CJUE du 13 mai 2014, la société Google met
en ligne un formulaire pour recueillir les demandes de suppression de résultats de
recherche. Dans son rapport « Transparence des informations » de 2014, Google
indique avoir reçu près d’un million de demandes de déréférencement par jour38.
Ces chiffres questionnent notamment sur les moyens humains et techniques dont
dispose l’exploitant afin de faire face à cette nouvelle obligation. L’exploitant du mo-
teur de recherche doit donc notamment définir, au cas par cas, ce qui relève de la vie
privée et ce qui relève de la vie publique. L’exploitant devra non seulement être juge
du contenu, mais aussi faire la balance d’intérêts fondamentaux. Celui-ci n’a donc
pas à être juge d’un « contenu manifestement illicite » comme c’est le cas des héber-
geurs39. Cela est d’autant plus surprenant que le Conseil Constitutionnel français,
en marge de sa décision de 2004 relative à la loi pour la confiance dans l’économie
numérique mettait en exergue le risque d’encourager la régulation privée des com-
munications sur l’internet, car « la caractérisation d’un message illicite peut se ré- 69
véler délicate, même pour un juriste »40. Par analogie, l’analyse vaut également pour
les mesures de déréférencement mises en œuvre par les moteurs de recherche dans
la mesure où elles restreignent la liberté d’expression et le droit à l’information du
La recherche opérationnelle
public41. Les risques d’un tel transfert des juridictions vers un acteur privé affleurent.
tion
37. Voir not., M. Giguer, « Droit à l’oubli / Droit au référencement : les 13 critères définis par les «
CNIL » européennes » (nov., 2014, n° 6 Cahiers de droit de l’entreprise, prat. 30.
38. Voir le rapport en ligne : http://www.google.com/transparencyreport/removals/europepriv-
acy/?hl=fr
39. Voir Conseil Constitutionnel, Décision n° 2004-496 DC, 10 juin 2004, JO 22 juin 2004, p. 11182,
Rec., p. 101.
40. Les Cahiers du Conseil constitutionnel, Cahier n°17, Commentaire de la décision n° 2004-496
DC du 10 juin
2004.
41. Au soutien de cette même idée, on peut également faire référence à la décision du Conseil Con-
stitutionnel du 10 juin 2009 relative à l’HADOPI (Décision n° 2009-580 DC du 10 juin 2009,
Considérant n°16), qui retenait que le législateur ne peut confier à une autorité administrative,
fusse-t-elle indépendante, le pouvoir de restreindre l’exercice du droit de s’exprimer librement. Le
Conseil a estimé que seule une juridiction pouvait être habilitée à prendre des mesures portant
une atteinte d’une telle nature à la liberté d’expression et de communication. Le Conseil d’État
juge encore que « le déréférencement affecte la liberté d’expression de l’éditeur du site en rendant
l’information publiée moins accessible et en le ramenant ainsi à la situation antérieure à Internet
», Conseil d’Etat, Étude annuelle 2014. Le numérique et les droits fondamentaux, Doc. fr., coll.
Les rapports du Conseil d’État, n° 65, 2014, p. 188.
Il s’agit principalement du risque lié à une « censure privée » face à une « histoire
collective »42. Alors que la Commission ad hoc de réflexion et de propositions sur
le droit et les libertés à l’âge numérique recommande que le recours au blocage de
contenus sur l’internet ne soit utilisé qu’à titre subsidiaire et sur décision judiciaire,
le risque est alors de voir les exploitants des moteurs de recherche déréférencer des
pages alors que les autorités de contrôle ou les magistrats ne leur auraient pas néces-
sairement enjoint de le faire43. Si un risque peut apparaître concernant l’évaluation
du contenu informationnel litigieux, la technique même de déréférencement peut
aussi soulever des interrogations. Si l’exploitant du moteur de recherche ne satisfait
pas à son obligation de déréférencement, alors il pourra voir sa responsabilité civile
engagée44.
(2017) 22 Lex Electronica 55
42. Voir not., M. Ermert, « German constitutional judge expresses concerns about the “right to be
forgotten” decision » (15 août 2014) Internet Policy Review.
43. La Commission ad hoc de réflexion et de propositions sur le droit et les libertés à l’âge du numéri-
que (juin 2104) qui envisage de renforcer le cadre légal du droit à l’information et d’instaurer le «
droit de savoir » à l’ère numérique.
44. TGI Paris, ordonnance de référé du 19 décembre 2014 (Marie-France M. c/ Google France et
Google Inc). Cette décision s’inscrit dans le prolongement de celle du TGI de Paris dans laquelle
le juge avait déjà enjoint l’exploitant Google, sous peine d’astreinte, de déréférencer une page
internet contenant des propos diffamatoires pour lesquels leur auteur avait été condamné pénale-
ment, qui apparaissait encore dans la liste des résultats lorsqu’on indiquait dans le moteur de
recherche le nom des personnes victimes de ces propos : TGI Paris, ordonnance de référé du 16
septembre 2014 (M. et Mme X et M. Y/ Google France).
Voir également la décision du 10 mars 2016 de la CNIL qui condamne la société Google à 100 000
€ de sanction pécuniaire à la suite du refus de respecter la mise en demeure de la Présidente de
la CNIL de procéder au déréférencement sur l’intégralité des extensions du nom de domaine
de son moteur de recherche. https://www.cnil.fr/sites/default/files/atoms/files/d2016-054_sanc-
tion_google.pdf
45. A. Rouvroy et T. Berns, « Gouvernementalité algorithmique et perspectives d’émancipation - Le
disparate comme condition d’individuation par la relation ? » (2013) 1- 177 Réseaux.
seront prises de manière automatique, sans intervention humaine, et pourtant les
professionnels pourront en être tenus pour responsable juridiquement.
Ces concepts s’illustrent également sur les réseaux routiers où la distinction entre
aide à la décision et automatisme est encore plus nébuleuse.
Pour tenter d’établir une distinction plus nette, deux systèmes seront étudiés. Le
premier concerne le GPS automobile qui est un pur système d’aide à la décision (1).
Le second est quant à lui au carrefour de l’aide à la décision et de l’automatisme et
il vise les véhicules équipés d’aides à la conduite (2). Cette différentiation entraîne
dans son sillage une modification substantielle dans le traitement juridique qui en
découle en cas d’accident.
La recherche opérationnelle
L’utilisation du GPS en voiture est une parfaite illustration d’un mécanisme de
pur aide à la décision. Deux exemples de graphes illustrent schématiquement ci-
après le processus de recherche opérationnelle utilisé par le GPS automobile.
Dans ces deux cas, les routes sont modélisées par des graphes. Chaque inter-
section est modélisée par un nœud et des arêtes relient ces nœuds entre eux si une
route existe. Un poids (ou une valeur) est associé à chaque arête en fonction de la
distance entre les deux intersections ou du temps nécessaire pour parcourir la dis-
tance en voiture. Ensuite, un algorithme dit du « plus court chemin »46 permet de
trouver le chemin reliant deux nœuds du graphe en minimisant le poids des arêtes
empruntées. Enfin, les résultats s’affichent sur l’écran du GPS automobile sous la
forme d’itinéraires.
46. E. W. Dijkstra, A short introduction to the art of programming, vol. 4, Eindhoven, Technische
Hogeschool, 1971.
(2017) 22 Lex Electronica 55
Dans ce cadre, l’utilisateur est « conseillé » dans ses choix et le GPS ne dispose
d’aucune maîtrise sur le véhicule. Ce système n’aura donc pas d’influence sur la
qualification de conducteur du véhicule. En effet, en France, même si la notion de
conducteur n’est pas définie dans la loi de 1985, elle est déterminante dans l’applica-
tion de la loi du 5 juillet 1985 et joue un double rôle. D’abord elle permet de désigner
le débiteur de la dette de réparation47. Ensuite elle permet de fixer l’étendue du droit
72 à indemnisation de la victime, puisque toute faute commise par un conducteur est
de nature à diminuer ou à exclure son droit à indemnisation48. La doctrine retient
qu’est « conducteur l’individu qui, lors de l’accident, a la maîtrise effective du véhi-
cule terrestre à moteur »49 ou encore qu’est conducteur « celui qui, au moment de
l’accident, a la possibilité de maîtriser les moyens de locomotion du véhicule ter-
restre à moteur, sur lequel il dispose des pouvoirs de commandement »50. La juris-
prudence adopte la même approche51. Ainsi, pour retenir la qualité de conducteur, il
suffit que la victime, lors de l’accident, ait été en situation de piloter le véhicule. Ain-
si, même s’il utilise un GPS automobile, le conducteur doit vérifier l’exactitude des
informations délivrées et adapter sa conduite en conséquence. Que se passerait-il
si l’information ne peut pas être vérifiée par le conducteur, le rôle causal d’une aide
informative (GPS automobile) dans la survenance de l’accident pourrait-elle poser
question ? Ne serait-ce toutefois pas passer outre ce qu’est l’aide à la décision dans ce
contexte ? Le niveau d’aide à la décision est très faible et la liberté du conducteur est
totale (on conduisait bien avant l’invention des GPS automobile !).
La recherche opérationnelle
qu’ « un camion a pris un tournant à gauche en face de la Tesla à une intersection ».
La société Telsa précise quant à elle : « Ce que nous savons, c’est que le véhicule était
sur une autoroute à double sens avec Autopilot activé quand un poids lourd s’est
mis perpendiculairement à la Model S. Ni Autopilot ni le conducteur n’ont détecté
la manœuvre du poids lourd (...) donc les freins n’ont pas été enclenchés »56. C’est
le premier accident mortel d’une voiture Tesla équipée du pilotage automatique en
plus de 200 millions de kilomètres parcourus.
52. I. Vingiano, « Quel avenir juridique pour le « conducteur » d’une « voiture intelligente » ? »
(2014) 239 LPA.
53. Voir le Google Self-Driving Car Project: https://www.google.com/selfdrivingcar/
54. Les Etats-Unis n’ont pas ratifié la Conventions de Vienne sur la circulation routière et sur la sig-
nalisation routière de 1968.
55. Ce mode permet à la voiture de suivre une file. La voiture tourne seule le volant, respecte la
vitesse maximale autorisée grâce à une analyse des panneaux de signalisation, et freine en cas de
besoin.
56. Voir : https://www.tesla.com/fr_FR/blog/tragic-loss
une multitude de systèmes de sécurité et d’enregistrement pour comprendre et dé-
terminer la chaîne de responsabilité dans les accidents. Par ailleurs, les pilotes béné-
ficient d’une formation spécifique pour les avions de ligne ; tous les appareils volants
sont identifiés et localisés et les contrôleurs aériens vérifient l’état général du trafic
et préviennent les risques de collisions. En revanche, sur le réseau routier, ce niveau
de sécurité et de surveillance est encore loin d’être atteint. Le plus gros obstacle à
cette transposition résulte de la complexité de l’environnement extérieur à la voiture.
Pour les avions, le recul et l’expérience acquis sur le pilote automatique ont permis
de le rendre extrêmement fiable. En dépit de cela, en cas de problème, le pilote
dispose toujours d’un bref laps de temps pour reprendre la main et éviter l’accident.
Pour une voiture en circulation, les possibilités d’événements pouvant se produire et
(2017) 22 Lex Electronica 55
gêner la conduite sont presque infinies. Qui plus est, le temps entre le moment de la
détection de l’anomalie et son évitement par le conducteur est extrêmement réduit.
Pour créer une voiture sans conducteur humain, il faut donc la rendre fiable et la
sécuriser dans un environnement aux événements aléatoires pratiquement infinis.
C’est à ce stade que la recherche opérationnelle est utilisée.
57. Exemple de travaux dans ce domaine : M. Chau et Y. Le Guennec - IRT SystemX ; Y. Tourbier et
T. Vuong - Renault ; F. Daïm - ESI Group, Modèle réduit paramétré de simulation de Crash.
Si l’on garde à l’esprit les exemples de Google Car et de la voiture Tesla, on peut
observer que dans le premier cas, l’objectif de Google est de créer une voiture dans
laquelle l’humain n’a pas la possibilité de conduire (absence de volant et d’accéléra-
teur). Dans une telle configuration, la responsabilité du constructeur sera assumée
en cas d’accident58.
En revanche, pour le cas de l’autopilote de Tesla, le constructeur fait valoir que :
« Our system is called Autopilot because it’s similar to systems that pilots use to
increase comfort and safety when conditions are clear. Tesla’s Autopilot is a way to
relieve drivers of the most boring and potentially dangerous aspects of road travel –
but the driver is still responsible for, and ultimately in control of, the car »59. Ainsi,
selon le constructeur, l’objectif poursuivi par l’autopilote de Telsa serait donc d’amé-
liorer le confort de conduite et la sécurité du véhicule. Mais comment le conduc-
teur peut-il juger que les conditions sont réunies pour utiliser l’autopilote ? peut-il
l’utiliser en ville ? sur route nationale ? sur autoroute ? par beau temps ? par temps
de pluie ? de jour ? de nuit ? Toutes ces informations sont nécessaires à l’utilisateur
pour lui garantir une bonne utilisation du produit. On peut ainsi légitimement s’in-
terroger sur la pertinence, voire l’obligation pour le constructeur de proposer une
formation aux utilisateurs de son véhicule, à l’image du brevet passé par le pilote
d’avion privé, ou encore penser à créer une nouvelle catégorie sur les permis de
conduire. Un autre aspect de l’autopilote Telsa soulève des questions. Le système 75
allégerait la charge du conducteur en le suppléant sur certaines tâches, tout en le
gardant responsable de son manque de vigilance en cas d’accident… Pourtant, l’uti-
La recherche opérationnelle
lisateur ne serait plus occupé à conduire le véhicule sur la route, mais simplement à
surveiller la route, à l’image des contrôleurs aériens surveillant le trafic. Or l’action
de surveillance nécessite tout autant d’attention que l’action de conduire, à la diffé-
rence que l’utilisateur fera, de fait, beaucoup moins d’actions, ce qui pourrait ampli-
fier sa baisse d’attention, voir son endormissement, et finalement, induire une baisse
du niveau de sécurité du véhicule. Comment le constructeur pourrait-il s’abstraire
de sa responsabilité alors que les mécanismes mis en place suppléent plus qu’ils
n’aident le conducteur dans sa conduite ?
58. Des sociétés telles que Google, Volvo ou encore Mercedes ont déjà affirmé qu’ils accepteront de
prendre la responsabilité juridique en cas d’accident causé par leur voiture autonome.
59. Traduit par nous : « Notre système est appelé Autopilot, car il est similaire aux systèmes que les
pilotes utilisent pour augmenter le confort et la sécurité lorsque les conditions sont favorables.
L’autopilot de Tesla est un moyen de soulager les conducteurs des aspects les plus ennuyeux et
potentiellement dangereux de leur trajet, mais le conducteur est toujours responsable, et dispose
en définitive du contrôle de la voiture ». Source : https://www.tesla.com/blog/dual-motor-model-
s-and-autopilot
et notre attention. L’automatisation transforme son utilisateur en simple observa-
teur, et inhibe d’une certaine manière le développement de ses compétences60. C’est
ce que révèle notamment l’administration fédérale de l’aviation qui rédige en 2011
une « safety alert » en exhortant les compagnies aériennes de limiter l’usage du pi-
lote automatique du fait de l’augmentation des erreurs de pilotages des opérateurs
humains, trop habitués à se laisser faire par la machine. Lorsque l’aide à la décision
ne se contente plus de seconder l’activité humaine, mais la transforme et la supplée,
la question de la responsabilité juridique qui en découle prend alors une dimension
bien différente.
vembre 1968 relative à la circulation routière qui est applicable. Cette Convention
précise en son article 8 que : tout véhicule en mouvement doit avoir un conducteur ;
tout conducteur doit posséder les qualités physiques et psychiques nécessaires et
être en état physique et mental de conduire ; tout conducteur de véhicule à moteur
doit avoir les connaissances et l’habileté nécessaires à la conduite du véhicule ; tout
conducteur doit constamment avoir le contrôle de son véhicule61. En mars 2016,
une modification de la Convention de Vienne sur la circulation routière annoncée
par la commission économique des Nations Unies pour l’Europe (UNECE) auto-
76 rise les systèmes de conduites automatisées seulement « si ces technologies sont
conformes aux réglementations de l’ONU ou peuvent être contrôlées et désactivées
par le conducteur »62. L’amendement de l’UNECE ne revient cependant pas encore
sur l’article de 8 de la Convention de Vienne qui précise que « tout véhicule en mou-
vement ou tout ensemble de véhicules en mouvement doit avoir un conducteur ».
En février 2016, l’agence américaine de sécurité routière (National Highway Traffic
Safety Administration, ci-après NHTSA) a estimé quant à elle qu’un système infor-
matique basé sur l’intelligence artificielle des voitures autonomes pouvait être consi-
déré comme leur conducteur63. La NHTSA affirme qu’il est possible de remplacer
le terme « conducteur » dans les textes de loi par celui de « système de contrôle
embarqué ». Sans aller aussi loin que la proposition américaine, une deuxième avan-
60. N. Carr, « All Can Be Lost: The Risk of Putting Our Knowledge in the Hands of Machines » (nov.
2013) The Atlantic.
61. L’accord européen du 1er mai 1971 précise que : « tout conducteur doit rester maître de son
véhicule de façon à pouvoir se conformer en toutes circonstances aux exigences de la prudence ».
Accord européen du 1er mai 1971 complétant la Convention sur la circulation routière ouverte à
la signature à Vienne le 8 novembre 1968 – Annexe.
62. Voir : http://www.unece.org/fr/info/media/presscurrent-press-h/transport/2016/unece-paves-
the-way-for-automated-driving-by-updating-un-international-convention/la-unece-ouvre-la-
voie-a-la-conduite-automatisee-en-modifiant-la-convention-de-vienne-sur-la-circulation-rout-
iere.html
63. Dans la lettre que la NHTSA adresse sur son site internet à la société Google elle retient qu’elle
« will interpret ‘driver’ in the context of Google’s described motor vehicle design as referring to
the (self-driving system), and not to any of the vehicle occupants ».
cée réglementaire est actuellement en préparation. Elle concerne l’introduction de
fonctions de direction à commande automatique dans les règlements des Nations
Unies sur les véhicules. Cela comprend notamment les systèmes qui, dans certaines
circonstances, prendront le contrôle du véhicule sous le contrôle permanent du
conducteur. Il est ici fait référence aux systèmes veillant au maintien de la trajectoire
(éviter un changement de voie accidentel), aux fonctions d’assistance au stationne-
ment, et aux fonctions autopilote sur autoroute. Mais il serait intéressant d’ajouter
une obligation de surveillance de l’attention du conducteur humain (maintien des
mains sur le volant, surveillance des clignements des yeux pour prévenir l’endormis-
sement, etc.), ou encore une obligation de formation, pesant sur le constructeur du
véhicule, à l’utilisation et aux limites de ces technologies. Par ailleurs, la limitation
imposée aux fonctions de pilotage automatique au-dessous de 10km/h actuellement
contenue dans le règlement N°79 de l’ONU, devrait être révisée64.
Les outils juridiques devront donc évoluer pour que la responsabilité sans faute
soit celle du constructeur de l’automobile (et le cas échéant des sous-traitants) qui
aura développé les systèmes de conduite automatique. Consacrer la responsabilité
sans faute du constructeur éliminerait la nécessité de déterminer qui est responsable
de la collision. Or, c’est une approche qui n’est pas actuellement reconnue dans la loi
du 25 juillet 1985. Mais dans une telle mesure, la loi assurerait toujours une chaîne 77
de responsabilité favorisant l’indemnisation des préjudices soufferts par la victime.
Ensuite, il appartiendrait à ce responsable de prouver les causes réelles de l’accident
(« un capteur défaillant, un problème mécanique ou encore un bug de l’algorithme,
La recherche opérationnelle
et de se faire rembourser le cas échéant »). Cela ne sera pas sans causer un certain
nombre de difficultés principalement sur le plan probatoire. Comment prouver que
le conducteur n’est pas à l’origine de l’accident ? Comment le constructeur parvien-
dra-t-il à prouver les causes réelles de l’accident ? Les données enregistrées (via des
boites noires) et traitées par le véhicule autonome pourront permettre au juge de
disposer d’éléments probants, par exemple pour reconnaître une défaillance tech-
nique. Mais ces données devront impérativement être communiquées au juge ainsi
qu’à toutes les parties en cas de litige, comme c’est le cas actuellement lors d’un ac-
cident aérien.
fait sera plus épineuse à envisager. La responsabilité sans faute du professionnel de-
vra en effet s’établir en considérant de nouveaux critères tels que la complexité du
système, son degré d’aide à la décision, ou encore les possibilités d’intervention lais-
sées à l’utilisateur. Par ailleurs, il convient d’insister sur le fait que l’hypothèse de
réflexion ne concerne pas les dysfonctionnements matériels classiques du véhicule
autonome (éclatement d’une roue, panne moteur, explosion, etc.) qui peuvent s’ins-
crire dans les régimes existants de responsabilité civile. La difficulté apparaît lorsque
l’on envisage les conséquences d’une décision (tourner, freiner, arrêter le véhicule)
correspondant au fonctionnement « normal » du véhicule. Lorsqu’elle est à l’origine
78
d’un préjudice, cette décision peut-elle entrer dans la sphère de la loi sur les produits
défectueux ? Une telle problématique renvoie aux questionnements soulevés autour
de l’application de ce régime aux biens immatériels66. En effet, les procédés auto-
matiques mis en œuvre dans ces véhicules ne sont ni corporels, ni totalement stan-
dardisés contrairement au modèle théorique pensé initialement dans la législation
relative aux produits défectueux. Face à ces enjeux, le Parlement européen a adopté
le 16 février 2017 une résolution contenant des recommandations notamment rela-
tives aux règles du droit de la responsabilité en matière de robotique67. Cet exemple
illustre comment la recherche opérationnelle et l’aide à la décision soulèvent des
questionnements nouveaux qu’il sera nécessaire au juge et au législateur de prendre
en compte.
66. Voir A. Lucas, « La responsabilité des choses immatérielles »,dans mél. Catala, Litec, 2001, p. 817.
67. Le Parlement européen envisage la mise en place d’un régime d’assurance obligatoire complété
par un fonds garantissant un dédommagement de la victime (y compris en l’absence de couver-
ture). Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la
Commission concernant des règles de droit civil sur la robotique (2015/2103(INL)).
PROPOS CONCLUSIFS
La recherche opérationnelle
parfois excessive des utilisateurs. Bien qu’existante, la liberté de choisir des utilisa-
teurs est facilement abandonnée au profit de la solution optimale promise par la
recherche opérationnelle.
Ce constat s’impose avec d’autant plus d’acuité qu’il n’existe pas à ce jour de ré-
gulation de la recherche opérationnelle à l’instar d’autres disciplines scientifiques. Si
elle est visée par le Code des impôts français, elle devrait également pouvoir investir
d’autres champs disciplinaires du droit. Les questions de la déontologie, mais aussi
de la régulation de la recherche opérationnelle se posent ainsi de manière décisive.
68. B. Roy, Méthodologie multicritère d’aide à la décision, Paris, éd. Economica, 1985.