L'ia Et L'audiovisuel
L'ia Et L'audiovisuel
L'ia Et L'audiovisuel
IRIS Spécial
IRIS Spécial 2020-2
L'intelligence artificielle dans le secteur audiovisuel
Observatoire européen de l’audiovisuel, Strasbourg 2020
ISBN 978-92-871-8805-2 (version imprimée)
Traduction
France Courrèges, Julie Mamou, Marco Polo Sarl, Nathalie Sturlèse, Stefan Pooth, Erwin Rohwer, Sonja Schmidt,
Ulrike Welsch
Relecture
Catherine Koleda, Gianna Iacino, Anthony Mills
Éditeur
Observatoire européen de l’audiovisuel
76, allée de la Robertsau
67000 Strasbourg, France
Tél. : +33 (0)3 90 21 60 00
Fax : +33 (0)3 90 21 60 19
[email protected]
www.obs.coe.int
Chacune des opinions exprimées dans la publication est personnelle et ne peut en aucun cas être considérée
comme représentative du point de vue de l’Observatoire européen de l’audiovisuel, de ses membres ou du
Conseil de l’Europe.
L'intelligence artificielle dans le
secteur audiovisuel
Mira Burri, Sarah Eskens, Kelsey Farish, Giancarlo Frosio, Riccardo Guidotti, Atte
Jääskeläinen, Andrea Pin, Justina Raižytė
Avant-propos
Selon Elon Musk, le fondateur de SpaceX et PDG de Tesla, « nous devons être très prudents
avec l’intelligence artificielle », car elle est peut-être « notre plus grande menace
existentielle ». Terrifiant, non ? Et pourtant, tout le monde en parle, et de plus en plus
d’entreprises y ont recours. C’est l’avenir, ou du moins le dit-on.
Il est à craindre que la réponse à la question de savoir ce qu’est l’IA soit bien plus
prosaïque que cela : en fin de compte, l’IA, ce sont essentiellement des ordinateurs qui font
office d’ordinateurs ; des codes logiciel qui engloutissent des tonnes de données et qui
utilisent toutes ces informations brutes selon des instructions prédéfinies.
Bien sûr, son potentiel fascine. La médecine, l’économie, les transports, l’énergie…
tous les domaines sont concernés. Ses applications pratiques semblent infinies. Mais
comme tout développement technologique, elle n’est pas sans risque. L’IA a aussi un côté
obscur, bien sûr, mais probablement pas aussi menaçant qu’Elon Musk voudrait nous le
faire croire.
https://www.obs.coe.int/fr/web/observatoire/-/workshop-artificial-intelligence-in-the-
audiovisual-industry-
Ce rapport, conçu et coordonné par le département juridique de l’Observatoire
européen de l’audiovisuel pendant les difficiles mois du confinement, explore différentes
questions nécessitant une analyse d’un point de vue réglementaire et est divisé en deux
parties.
La première partie est consacrée aux problèmes d’ordre général et s’ouvre sur le
chapitre 1 rédigé par Riccardo Guidotti, un spécialiste en informatique (Université de Pise).
Il explique ce qu’est l’IA et se penche notamment sur le problème des boîtes noires, c’est-
à-dire l’absence de transparence quant à la façon dont les systèmes d’IA fonctionnent et
prennent des décisions. Il décrit également comment l’IA pourrait être rendue explicable.
Les deux chapitres qui suivent cette entrée en matière technique proposent des vues
d’ensemble : dans le chapitre 2, Andrea Pin (Université de Padoue) explique les problèmes
réglementaires qui découlent de la collecte et de l’utilisation de celles qui font tant rêver
dans le domaine de l’IA : les données massives. Le chapitre 3, de Sarah Eskens (Université
d’Amsterdam), propose une vue d’ensemble de questions que pose l’IA en matière de liberté
d’expression et d’information, et présente le dispositif juridique qui encadre le recours à l’IA
par les médias et l’impact de l’IA sur les droits à la liberté d’expression d’autrui.
La seconde partie de cette publication porte sur des domaines spécifiques du droit
et des politiques des médias sur lesquels l’IA pourrait bientôt avoir un impact considérable.
La question de la diversité culturelle à l’ère algorithmique est abordée en premier. Mira
Burri (Université de Lucerne) explique au chapitre 4 comment, qu’il s’agisse de la
personnalisation de l’information ou des algorithmes de recommandation sur les services
de vidéo à la demande, l’IA semble détenir le secret de nos besoins en informations et de
nos attentes en matière de divertissement. Elle examine les effets qui s’ensuivent et si ceux-
ci justifient une réglementation. Giancarlo Frosio (Centre d'études internationales de la
propriété intellectuelle de l’Université de Strasbourg) se penche sur d’autres questions
juridiques complexes au chapitre 5 : si les machines peuvent « créer » des contenus,
peuvent-elles détenir des droits d’auteur ? Un individu ou une entreprise peuvent-ils
détenir les droits sur une œuvre créée par une machine ? Au chapitre 6, Justina Raižytė
(Alliance européenne pour l’éthique en publicité) explique comment l’IA ouvre un nouveau
champ des possibles pour les annonceurs et, comment elle pourrait être en théorie aussi
mieux adaptée au consommateur - non sans soulever néanmoins des questions importantes
en matière de respect de la vie privée. Dans le chapitre 7, Kelsey Farish (cabinet d’avocats
DAC Beachcroft LLP, Londres) nous familiarise avec les questions relevant du droit de la
personnalité – les acteurs fantômes, les droits applicables du vivant d’un individu ou après
son décès, et les atteintes possibles à ces droits (notamment les deepfakes).
Les textes d'introduction et les remarques finales, rédigés par Francisco Cabrera,
analyste juridique senior à l'Observatoire européen de l'audiovisuel, visent à mettre en
perspective toutes ces diverses questions juridiques et politiques.
Je souhaite adresser à tous ces brillants auteurs mes plus sincères remerciements
pour avoir rendu ce rapport si riche. Et à tous nos lecteurs, je ne peux que souhaiter une
bonne lecture !
Maja Cappello
Coordinatrice d’IRIS
Responsable du département Informations juridiques
Observatoire européen de l’audiovisuel
Le Conseil de l'Europe s'intéresse à l'IA dans le cadre des droits de l'homme et d'autres
contextes spécifiques.
Nous vous invitons à visiter le site https://www.coe.int/en/web/artificial-
intelligence/home pour plus d'informations sur les travaux du Comité ad hoc du Conseil
de l'Europe sur l'intelligence artificielle (CAHAI).
Table des matières
1. Intelligence artificielle et explicabilité ........................................................... 3
1.1. Qu’est-ce que l’intelligence artificielle ? ....................................................................................................................3
1.1.1. Une brève histoire de l’intelligence artificielle ..................................................................................4
1.1.2. Des approches différentes de l’intelligence artificielle ...................................................................7
1.1.3. Applications de l’intelligence artificielle ..............................................................................................9
1.2. Qu’est-ce que l’intelligence artificielle explicable ?............................................................................................ 10
1.2.1. Motivations de l’IA ...................................................................................................................................... 12
1.2.2. Les dimensions de l’interprétabilité .................................................................................................... 13
1.2.3. Comment lire les différentes explications ........................................................................................ 17
1.3. IA et IA explicable dans le domaine des médias ................................................................................................... 22
1.3.1. Applications d’IA et explicabilité .......................................................................................................... 23
1.3.2. Les services de vidéo à la demande en pratique ............................................................................ 27
1.4. Conclusion ........................................................................................................................................................................... 28
2. Les données massives ou la matière dont sont faits les rêves de l’IA ...... 31
2.1. Introduction ........................................................................................................................................................................ 31
2.2. Le respect de la vie privée comme gardien des données massives ............................................................... 33
2.2.1. Les États-Unis d’Amérique....................................................................................................................... 33
2.2.2. L’Union européenne................................................................................................................................... 34
2.2.3. La Chine.......................................................................................................................................................... 36
2.2.4. Trois approches différentes ? ................................................................................................................. 37
2.3. Biais et discrimination des données massives ....................................................................................................... 38
2.4. Informer le public : médias, désinformation et contenu illégal ...................................................................... 39
2.5. La politique des données massives et la bulle politique ................................................................................... 44
2.6. Les médias, chiens de garde de la surveillance ? ................................................................................................. 46
2.7. Le marché des médias : des stratégies de marché dirigées par les données massives .......................... 48
2.8. Approches réglementaires des systèmes basés sur l’IA ...................................................................................... 49
2.9. Conclusion ........................................................................................................................................................................... 51
Illustrations
Illustration 1. Exemple d’explication globale par arborescence décisionnelle obtenue avec TREPAN........................ 18
Illustration 2. Exemple d’explication sous forme de liste de règles obtenue avec CORELS ............................................. 18
Illustration 3. Exemple d’explication à base de règles factuelles et contrefactuelles obtenue avec LORE ............... 19
Illustration 4. Exemple d’explication basée sur l’importance des caractéristiques obtenue avec LIME ...................... 20
Illustration 5. Exemple d’explication basée sur l’importance des caractéristiques obtenue avec SHAP ..................... 20
Illustration 6. Exemple de cartes de saillance obtenues par différentes méthodes explicatives. La première
colonne montre l’image analysée et le label assigné par le modèle à boîte noire b du système
d’IA. ........................................................................................................................................................................................... 21
Illustration 7. Exemple d’explication par exemples (gauche) et contre-exemples (droite) obtenue avec ABELE.
Au-dessus de chaque (contre-)exemple figure le label attribué par le modèle à boîte noire b du
système d’IA. ......................................................................................................................................................................... 22
Tableaux
Tableau 1. Glossaire de la publicité programmatique .............................................................................................................. 130
Tableau 2. Campagnes de publicité et de marketing optimisées par les technologies créatives de l’intelligence
artificielle ............................ 135
Liste des abréviations
AEEP/EASA Alliance européenne pour l’éthique en publicité (European
Advertising Standards Alliance)
AI4SG IA pour le bien social (AI for social good)
CAN Réseau antagoniste créatif (creative adversarial network)
CEDH Convention européenne des droits de l’homme
DSP Plateforme demand-side (demand-side-platform)
EASA/AEEP European Advertising Standards Alliance (Alliance européenne
pour l’éthique en publicité)
EPRS Service de recherche du Parlement européen
GAN Réseaux antagonistes génératifs (generative adversarial networks)
GEE Groupe européen d’éthique des sciences et des nouvelles
technologies
GEP Guides électroniques des programmes
GPS General Problem Solver (conçu pour imiter les comportements
humains de résolution de problèmes)
GPU Processeurs graphiques
IA Intelligence artificielle
IAB Interactive Advertising Bureau
IAE Intelligence artificielle explicable
LT Logic Theorist (premier programme capable de raisonner
NLG Génération de langage naturel (natural language generation)
NLP Traitement naturel du langage (natural language processing)
RGDP Le Règlement général sur la protection des données
RNA Réseaux de neurones artificiels
RNP Réseaux de neurones profonds
RTB Enchères en temps réel (real-time bidding)
SSP Plateforme Supply-side (supply-side platform)
VFX Effets spéciaux visuels (visual special effects)
WMFH travail sur commande (work-made-for-hire)
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
La boîte noire
Comme nous le disions dans l’avant-propos de cette publication, l’IA est un phénomène aussi
fascinant que terrifiant. Ses succès actuels, tout comme son potentiel, impressionnent, et les
différents chapitres de cette publication illustrent bien les diverses manières dont l’IA pourrait
révolutionner (ou révolutionne déjà) le secteur audiovisuel. Des machines intelligentes peuvent
composer de la musique ou les paroles d’une chanson, vous dire ce que vous devriez regarder ou
lire, ou même ramener (virtuellement) des morts à la vie ! C’est peut-être pour ces raisons que
l’IA, comme n’importe quelle découverte technologique perturbatrice avant elle, suscite un
sentiment de crainte. Cela n’a rien d’étonnant : la peur de ce que l’on ne peut ni comprendre ni
contrôler est le lot de la nature humaine. C’est pourquoi le problème le plus urgent à résoudre
lorsqu’on s’interroge sur la réglementation de l’IA est celui dit de la boîte noire. Comme l’explique
Riccardo Guidotti dans sa contribution à cette publication, « les modèles à boîte noire sont des
outils sur lesquels s’appuie l’IA pour accomplir des tâches et dont le processus décisionnel n’est
soit pas accessible, soit non compréhensible pour l’homme. » En d’autres termes, il s’agit de
machines qui prennent des décisions qui affectent la vie humaine, sans qu’intervienne un
contrôle humain, ou sans que les raisons de leurs décisions soient connues des humains. Selon
Guidotti, il ne s’agit pas uniquement d’un problème « du problème que posent les possibles biais
dont les modèles à boîte noire héritent à partir des artefacts et des préjugés qui sont dissimulés
dans les données utilisées pour l’apprentissage automatique des systèmes d’IA obscurs. » Ainsi,
l’absence de transparence est l’un des principaux problèmes que soulève aujourd’hui le recours
aux algorithmes. Si, comme on l’entend parfois, un algorithme est comme une recette de cuisine,
alors les algorithmes utilisés par certaines entreprises sont un peu comme la recette du Coca-
Cola, le secret le mieux gardé au monde. Mais il est également vrai que beaucoup de gens
adoptent vis-à-vis des algorithmes la même approche qu’avec certains aliments : tant qu’ils
apprécient ce qu’ils mangent, peu leur importe la recette, et la plupart du temps, ils préfèrent
d’ailleurs ne pas en connaître les ingrédients. Quoi qu’il en soit, du moins dans certains cas
extrêmes, il y a de bonnes raisons d’avoir peur. C’est pourquoi les experts appellent à faire en
sorte que le fonctionnement et les résultats des systèmes d’IA soient explicables.
Page 1
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
1
Russell, S. et Norvig, P., Artificial intelligence : a modern approach, Pearson.
Page 3
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
l’étude d’« agents intelligents » qui perçoivent un environnement et qui exécutent des
actions pour augmenter leurs chances d’atteindre un objectif préalablement défini2. Depuis
la naissance de l’IA, les théories et technologies qui la sous-tendent sont devenues de plus
en plus matures, et ses champs d’application se sont élargis.
Les premières années de l’IA (1952 – 1969) ont été marquées par de nombreux succès,
limités par la capacité des ordinateurs élémentaires de l’époque qui n’étaient considérés
que comme de puissantes calculatrices, uniquement à même de faire des mathématiques.
Après « Logic Theorist » (LT), le premier programme capable de raisonner, Allen Newell et
Herbert Simon ont créé le « General Problem Solver » (GPS), qui, à la différence de LT, avait
été conçu pour imiter les comportements humains de résolution de problèmes. Grâce au
GPS, Newell et Simon ont pu formuler la célèbre hypothèse du système de symbole physique,
selon laquelle tout système intelligent fonctionne en manipulant des symboles. En 1958,
John McCarthy du MIT a mis au point le langage de programmation de haut niveau Lisp, qui
a été jusque dans les années 1990 le langage dominant de l’IA5. Dans les années 1960, de
nombreuses pistes de recherche6 fructueuses ont été suivies dans le domaine de l’IA.
De 1970 à 1980, l’IA a connu son premier « hiver », au cours duquel la recherche a connu
un ralentissement constant7. Les promesses de progrès des chercheurs en IA n’ont pas été
tenues en raison des limites techniques imposées par les ordinateurs utilisés pour mettre
en œuvre les programmes d’IA, qui n’étaient capables de résoudre que des « jeux »8. Ils ne
2
Poole, D., Mackworth, A., et Goebel, R., Computational Intelligence, Pearson.
3
Crevier, D. (1993), AI : the tumultuous history of the search for artificial intelligence, Basic Books, Inc.
4
L’IA et la cybernétique sont deux champs d’études différents mais connectés qui se fondent sur le même
principe de logique binaire. Cependant, l’IA cherche à créer des machines qui imitent l’intelligence humaine et
peuvent se comporter comme des humains, tandis que la cybernétique se base sur une vision constructiviste du
monde, et se concentre sur les interactions entre humains et machines : la manière dont un système traite
l’information, y répond et s’y adapte. Les différences entre IA et cybernétique ne sont donc pas simplement
sémantiques mais aussi conceptuelles.
5
Reilly, E. D., Milestones in computer science and information technology, Greenwood Publishing Group.
6
McCorduck, P. et Cfe, C., Machines who think: A personal inquiry into the history and prospects of artificial
intelligence, CRC Press.
7
Russell, S. et Norvig, P., op.cit.
8
Crevier, D., op.cit.
Page 4
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
Dans les années 1980, le « savoir » a été placé au cœur de la recherche en IA, et de
nombreuses entreprises ont commencé à adopter des formes d’IA appelées des « systèmes
expert » (expert system). Un système expert est un algorithme qui, en exploitant un savoir
donné représenté par des règles de type « si-alors » (if-then), imite la capacité décisionnelle
d’un expert humain12. Un système expert est formé d’une « base de connaissances»
(knowledge base) qui représente des faits et des règles et d’un « moteur d’inférence »
(inference engine), qui applique les règles aux faits connus pour en déduire de nouveaux
faits. Les systèmes expert ont fait partie des premiers programmes logiciels d’IA efficaces à
être adoptés par certaines entreprises. Les chercheurs ont réalisé que la puissance des
systèmes expert venait des connaissances qu’ils renfermaient et que « … l’intelligence
pourrait être basée sur la capacité à utiliser une large quantité de connaissances diverses
de différentes manières13 ». Cette injection de confiance dans l’IA a poussé les financiers à
9
McCorduck, P. et Cfe, C., op.cit.
10
Crevier, D., op.cit.
11
Tan, P.-N. et al., Introduction to data mining, Pearson Education India.
12
Jackson, P., Introduction to expert systems, Addison-Wesley Longman Publishing Co., Inc.
13
McCorduck, P. et Cfe, C., op.cit.
Page 5
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
investir de nouveau dans la recherche en IA. En parallèle, les réseaux de neurones ont
connu une « renaissance ». Hinton et Rumelhard ont popularisé la « rétropropagation14 »
(backpropagation), une méthode efficace d’apprentissage pour les réseaux de neurones.
Cette méthode d’apprentissage a rendu efficace le recours aux réseaux de neurones
artificiels (RNA) (artificial neural networks), des systèmes d’apprentissage automatique
inspirés des réseaux de neurones biologiques du cerveau humain15. Les RNA « apprennent »
à partir des exemples fournis par un ensemble de données comment évaluer une tâche sans
qu’il leur soit nécessaire de disposer de règles préexistantes spécifiques à cette tâche. Par
exemple, ils peuvent reconnaître si une image représente un piéton ou une voiture à partir
d’images dont le contenu a été légendé et sans connaissance préalable des objets étudiés.
En dépit des avancées mentionnées plus haut, le tournant décisif de l’IA a surtout résulté
de l’augmentation colossale de la puissance des ordinateurs dans les années 1990. Deep
Blue17 et Watson18 sont des exemples très célèbres de succès en IA qui découlent de ces
avancées technologiques. Le Deep Blue d’IBM a été le premier système d’IA de jeu d’échecs
à battre un champion du monde, Garry Kasparov19, en 1997. En 2011, le système Watson
14
Rumelhart, D., Hinton, G. & Williams, R, « Learning representations by back-propagating errors », Nature 323,
533–536 (1986), https://doi.org/10.1038/323533a0.
15
Tan, P.-N. et al., op.cit.
16
Pearl, J. (1988), Probabilistic reasoning in intelligent systems.
17
Disponible sur : https://www.ibm.com/ibm/history/ibm100/us/en/icons/deepblue/.
18
Disponible sur : https://www.ibm.com/ibm/history/ibm100/us/en/icons/watson/.
19
Russell, S. et Norvig, P., op.cit.
Page 6
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
d’IBM, conçu pour répondre à des questions, a battu avec une marge considérable les
champions du jeu télévisé « Jeopardy ! ». En outre, à partir de 2010, en plus des avancées
en puissance informatique, l’IA est entrée dans une nouvelle ère en raison des progrès
technologiques réalisés en termes de capacités de stockage, de facilité d’accès aux données
massives (big data), et de l’avancée des techniques d’apprentissage automatique telle que
les réseaux de neurones profonds (deep neural networks).
◼ Le terme de « données massives » désigne une quantité de données considérable
qui ne peut être stockée, gérée et traitée par un logiciel conventionnel. L’ère des
données massives est née de deux principaux flux :
o (i) les secteurs industriels qui stockent de l’information : des registres
d’activités aux achats des clients ;
o (ii) la collecte généralisée par les smartphones et les équipements mobiles
d’informations personnelles relatives aux utilisateurs à partir de sources
variées telles que les messages postés sur les réseaux sociaux, les courriers
électroniques, les traces de mobilité, les dossiers médicaux, etc.
◼ Les réseaux de neurones profonds (RNP) sont des modèles conçus comme une
évolution des réseaux de neurones artificiels (RNA) et qui se composent de
nombreuses couches de traitement (profondeur). L’apprentissage profond est une
branche de l’apprentissage automatique qui étudie les RNP. Les RNP peuvent être
appliqués au traitement de tâches bien plus complexes que celles qui peuvent être
résolues par les RNA, par exemple la reconnaissance d’images, la reconnaissance
vocale, le traitement du langage naturel, etc. Mais la popularité récente des RNP
est avant tout due aux nouveaux processeurs graphiques (GPU). Ceux-ci ont
entraîné une accélération marquée des processus d’apprentissage des RNP et ont
renforcé leur efficacité par rapport aux processeurs traditionnels (les unités
centrales de traitement). Malheureusement, comme nous le verrons dans le
prochain chapitre, les RNP ont un inconvénient fondamental : la difficulté à être
interprétés20.
Les quatre notions différentes sont donc la « pensée humaine », la « pensée rationnelle »,
le « comportement humain » et le « comportement rationnel ». Divers chercheurs, avec des
approches différentes, se sont alignés sur ces quatre notions. Ainsi, la recherche portant sur
20
Guidotti, R., Monreale, A., Ruggieri, S., Turini, F., Giannotti, F., et Pedreschi, D. (2018), « A survey of methods
for explaining black box models », ACM computing surveys (CSUR), 51(5):1–42.
21
Russell, S. et Norvig, P., op.cit.
Page 7
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
l’IA a été divisée en sous-domaines qui peinent souvent à communiquer entre eux. Ces
sous-domaines peuvent être différenciés en termes de notions et de variantes
philosophiques, en ce qui concerne les objectifs particuliers qu’ils cherchent à atteindre et
les méthodes techniques qu’ils emploient.
S’agissant des différences philosophiques, l’approche centrée sur l’humain et
l’approche rationnelle se distinguent. Selon l’approche centrée sur l’humain, l’IA devrait
simuler une intelligence naturelle. À l’inverse, l’approche rationnelle, qui implique une
combinaison de mathématiques et d’ingénierie, avance que la biologie humaine est hors
propos. Selon ce point de vue, l’IA peut être soit développée par des principes simples et
élégants, tels que la logique ou l’optimisation, soit elle implique de résoudre de nombreux
problèmes distincts et complexes. En ce qui concerne les différents défis dans le domaine
de l’IA, le problème central de création d’intelligence a été divisé en sous-problèmes qui
concernent les capacités particulières dont un système intelligent devrait disposer. Les
principaux sous-problèmes sont l’apprentissage automatique, la capacité des machines à
planifier, raisonner, résoudre des problèmes, représenter des connaissances, la perception,
la robotique, le traitement du langage naturel ou l’intelligence sociale22. Chacun de ces
sous-problèmes correspond à un champ d’étude des sciences informatiques.
Enfin, dans l’histoire de l’IA, il est possible d’identifier un ensemble de méthodes au sens
large, qui relèvent de trois catégories différentes :
1. La « cybernétique » étudie les liens entre neurobiologie et théorie de l’information
et a pour but de développer des machines qui utilisent des réseaux électroniques
pour afficher une intelligence rudimentaire23 ;
2. L’IA « symbolique » se fonde sur l’hypothèse qu’il est possible de modéliser de
nombreux aspects de l’intelligence humaine à partir de la manipulation de
symboles24 ;
3. L’IA « basée sur l'apprentissage statistique » s’appuie sur une approche avant tout
mathématique.
Les méthodes bien connues sur lesquelles se fondent les systèmes d’IA sont : la « logique »,
pour la représentation des connaissances et la résolution de problèmes ; les « méthodes
probabilistes », qui s’appliquent au raisonnement, à la planification, l’apprentissage, la
perception, et la robotique ; les « méthodes de recherche et d’optimisation », utilisées pour
la planification et la robotique ; les « méthodes d’apprentissage automatique », telles que
la classification par arbres de décision, les machines à vecteurs de support (support vector
machines) ; et les « réseaux de neurones profonds », qui sont utilisés pour presque tous les
défis. L’inconvénient de certaines de ces puissantes méthodes d'apprentissage statistique
est qu’elles ne peuvent être interprétées, c’est-à-dire qu’un humain ne peut comprendre la
logique de la prise de décisions par de tels systèmes.
22
Poole, D., Mackworth, A., et Goebel, R., op.cit.
23
Weiner, N., Cybernetics (or control and communication in the animal and the machine), Cambridge
(Massachusetts).
24
Haugeland, J., Artificial intelligence: the very idea.
Page 8
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
25
CBInsights, 33 Corporations working on autonomous vehicles, consulté le 16 mars 2017.
26
Coiera, E., Guide to Medical Informatics, the Internet and Telemedicine, Chapman & Hall, Ltd., GBR, 1ère édition.
27
Disponible sur : https://www.barrons.com/articles/big-data-and-yahoos-quest-for-mass-personalization-
1377938511.
Page 9
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
28
Roads, C., « Research in music and artificial intelligence », ACM Computing Surveys (CSUR), 17(2):163–190.
29
Kietzmann, J., Lee, L. W., McCarthy, I. P., et Kietzmann, T. C., « Deepfakes: Trick or treat? », Business Horizons,
63(2):135–146.
30
Goodfellow, I., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., Courville, A., et Bengio, Y.,
« Generative adversarial nets », in Advances in neural information processing systems, pp. 2672–2680.
31
Makhzani, A., Shlens, J., Jaitly, N., Goodfellow, I., et Frey, B., « Adversarial autoencoders », arXiv preprint
arXiv:1511.05644.
32
Pasquale, F., The black box society, Harvard University Press.
Page 10
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
33
Tan, P.-N. et al., op.cit.
34
Les lecteurs qui le souhaitent peuvent consulter plus d’informations sur les réseaux de neurones, les machines
à vecteurs de support et les classifieurs d’ensembles dans Tan, P.-N. et al., op.cit.
35
Guidotti, R., Monreale, A., Ruggieri, S., Turini, F., Giannotti, F., et Pedreschi, D. (2018), op.cit. Miller, T.,
« Explanation in artificial intelligence : Insights from the social sciences », Artificial Intelligence, 267:1–38.
Adadi, A. et Berrada, M., Peeking inside the black-box: A survey on explainable artificial intelligence (xai). IEEE
Access, 6:52138–52160.
36
Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des
personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces
données, et abrogeant la Directive 95/46/CE (Règlement général sur la protection des données). Disponible
sur :https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX%3A32016R0679&from=EN&
lang3=choose&lang2=choose&lang1=FR.
37
Malgieri, G. et Comandé, G., « Why a right to legibility of automated decision-making exists in the General
Data Protection Regulation », International Data Privacy Law, 7(4):243–265. Goodman, B. et Flaxman, S., « EU
regulations on algorithmic decision-making and a ‘right to explanation’ », in ICML workshop on human
interpretability in machine learning (WHI 2016), New York, NY, http://arxiv.org/abs/1606.08813 v1. Wachter, S.,
Mittelstadt, B., et Floridi, L., « Why a right to explanation of automated decision-making does not exist in the
general data protection regulation », International Data Privacy Law, 7(2):76–99.
Page 11
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
38
Ribeiro, M. T., Singh, S., et Guestrin, C. (2016), « Why should I trust you ? : Explaining the predictions of any
classifier », in Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data
Mining, pp. 1135–1144, ACM.
39 Disponible sur : http://www.techinsider.io/how-algorithms-can-be-racist-2016-4.
Page 12
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
Une distinction peut être établie entre l’explication de modèles à boîte noire et l’explication
intégrée dès la conception d’un modèle d’IA. Dans le premier cas, le principe est de
combiner un modèle d’IA à boîte noire avec une méthode d’explication capable d’interpréter
les décisions de la boîte noire. Dans le second cas, la stratégie consiste à substituer au
modèle obscur un modèle transparent dans lequel le processus décisionnel est conçu dès
le départ pour être accessible. De façon plus précise, l’intérêt de l’explication du modèle à
boîte noire est de permettre de conserver la bonne performance du modèle obscur d’IA tout
en lui appliquant une technique d’IAE pour en extraire les explications44. Ce type d’approche
est le plus fréquent aujourd'hui dans le domaine de la recherche en IAE. De l’autre côté,
l’« explication dès la conception » consiste à développer un modèle transparent qui est
interprétable, et de substituer à la composante boîte noire du système d’IA un modèle
interprétable45. Les études sur le sujet font ressortir plusieurs modèles qui sont reconnus
comme étant interprétables. Les exemples incluent les « arbres de décision», les « règles
de décision » et les « modèles linéaires »46. Ces modèles sont considérés comme faciles à
comprendre et à interpréter pour les humains. Mais presque tous sacrifient la performance
en faveur de l’interprétabilité. En outre, ils ne peuvent être efficacement appliqués à
Page 13
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
certains types de données telles que les images ou le texte, mais seulement à des données
tabulaires, relationnelles, en d’autres termes à des tableaux de données.
Dans la section suivante, nous décrivons brièvement les modèles interprétables les plus
souvent retenus pour expliquer les systèmes d’IA obscurs ou pour remplacer les
composantes de la boîte noire.
◼ Un « arbre de décision » exploite un graphique, structuré comme un arbre et
composé de nœuds internes qui constituent des tests de certains attributs et
caractéristiques (par exemple, si une variable a une valeur inférieure, égale ou
supérieure à un seuil donné) et de nœuds terminaux (les « feuilles »de l’arbre), qui
représentent une décision. Chaque branche constitue un résultat possible47. Les
chemins allant des racines aux feuilles représentent les règles de classification. Les
règles les plus communes sont de type « si-alors », dans lequel la proposition « si »
est une combinaison de conditions concernant les variables d’entrée. Lorsque la
proposition est vérifiée, la partie « alors » révèle l’action de l’IA.
◼ Dans le cas d’une « liste de règles », étant donné un ensemble ordonné de règles,
l’IA renvoie comme décision la première règle qui est vérifiée48.
47
Quinlan, J. R., C4.5: Programs for Machine Learning, Elsevier.
48
Yin, X. et Han, J., « Cpar: Classification based on predictive association rules », in Proceedings of the 2003 SIAM
International Conference on Data Mining, pp. 331–335. SIAM.
Page 14
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
Dans la mesure où les modèles interprétables sont nécessaires pour obtenir des
explications, leur adoption devrait tenir compte de certaines caractéristiques
souhaitables50, afin d’accroître la confiance dans un modèle donné.
◼ L’« interprétabilité » consiste à évaluer dans quelle mesure une explication donnée
est compréhensible pour l’homme. Une approche souvent retenue pour mesurer
l’interprétabilité est la « complexité » du modèle de substitution interprétable. La
complexité est habituellement estimée à partir de la « taille » du modèle
interprétable. Par exemple, la complexité peut être mesurée au nombre de clauses
dans la condition ; pour les modèles linéaires, il est possible de compter le nombre
des « poids non nuls », tandis que pour les arborescences décisionnelles, il s’agit de
la profondeur de l’arbre.
◼ La « fidélité » consiste à évaluer dans quelle mesure le modèle substitutif
interprétable est capable d’« imiter » avec précision, de façon globale ou locale, la
décision de l’IA. La fidélité peut être en pratique mesurée en termes de score de
précision, de F-score, etc.51 des décisions prises par le modèle à boîte noire. De plus,
un modèle substitutif interprétable devrait également répondre à d’autres
conditions importantes générales : par exemple, être capable de prendre des
décisions adaptées dans des situations inédites.
◼ Le « caractère équitable » et le « respect de la vie privée » sont indispensables pour
garantir la protection de certains groupes contre les discriminations52 et pour
s’assurer que les modèles interprétables ne divulguent pas d’informations
sensibles53.
◼ La « facilité d’utilisation » est une autre caractéristique qui peut influencer la
confiance dans un modèle : par exemple, une explication interactive peut être plus
utile qu’une explication textuelle prédéterminée.
49
Ribeiro, M. T., Singh, S., et Guestrin, C. (2016), op.cit.
50
Freitas, A. A., op.cit.
51
Tan, P.-N. et al., op.cit.
52
Romei, A. et Ruggieri, S., « A multidisciplinary survey on discrimination analysis », The Knowledge Engineering
Review, 29(5):582–638.
53
Aldeen, Y. A. A. S., Salleh, M., et Razzaque, M. A., A comprehensive review on privacy preserving data mining.
SpringerPlus, 4(1):694.
Page 15
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
Une distinction peut être faite entre méthodes d’explication spécifiques ou indépendantes
du modèle, selon que la technique retenue pour extraire l’explication agit sur un modèle
particulier appliqué par un système d’IA, ou que celle-ci peut être appliquée à n’importe
quel type d’IA. L’approche la plus utilisée pour expliquer les boîtes noires d’IA est connue
sous le nom d’« rétro-ingénerie » (reverse engineering). Le terme indique que l’explication
est tirée de l’observation du résultat, c’est-à-dire de la décision de l’IA, quand les entrées
sont modifiées de façon contrôlée.
◼ Une méthode explicative est « spécifique à un modèle », ou non généralisable54, si
elle ne peut être utilisée que pour l’interprétation de certains types de modèles à
boîte noire. Par exemple, si une approche explicative est conçue pour interpréter
une forêt d’arbres de décision55, et qu’elle s’appuie en interne sur la notion de
distance entre les arbres, alors elle n’est pas applicable aux prédictions engendrées
par un modèle de réseau de neurones.
◼ D’un autre côté, une méthode est « indépendante du modèle », ou généralisable,
lorsqu’elle peut être utilisée indépendamment du modèle à boîte noire en question :
les caractéristiques internes de l’IA ne sont pas exploitées pour développer le
modèle interprétable chargé d’imiter le comportement de la boîte noire.
Des niveaux variables de connaissances de base et des expériences dans des tâches variées
sont liés à des notions et des exigences différentes pour l’utilisation des explications. Les
experts du domaine peuvent être en mesure de comprendre des explications complexes,
tandis que des utilisateurs ordinaires requièrent des clarifications simples et efficaces. En
effet, l’utilité et la pertinence d’une explication dépendent de l’utilisateur56. Si l’on prend
l’exemple du COMPAS mentionné plus haut, une explication spécifique du score peut avoir
du sens pour un juge qui chercherait à comprendre et vérifier la suggestion du système d’IA
et qui pourrait se rendre compte que celui-ci a un biais qui défavorise les personnes de
couleur noire. À l’inverse, la même explication n’est pas utile à un prisonnier qui ne peut
changer sa réalité de personne de couleur noire. En revanche, le prisonnier pourrait trouver
utile, et donc porteuse de sens, la suggestion selon laquelle son risque de récidive sera jugé
moindre lorsqu’il sera plus âgé, ce qui voudrait dire qu’une résidence surveillée pourrait
alors lui être plus facilement accordée.
54
Martens, D., Baesens, B., Van Gestel, T., et Vanthienen, J., « Comprehensible credit scoring models using rule
extraction from support vector machines », European journal of operational research, 183(3):1466–1476.
55
Tan, P.-N. et al., op.cit.
56
Bhatt, U., Xiang, A., Sharma, S., Weller, A., Taly, A., Jia, Y., Ghosh, J., Puri, R., Moura, J. M., et Eckersley, P.,
« Explainable machine learning in deployment », in Proceedings of the 2020 Conference on Fairness,
Accountability, and Transparency, pp. 648–657.
Page 16
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
L’imitation d’une composante obscure d’IA par une arborescence décisionnelle a été l’une
des premières approches mises en œuvre57. La méthode TREPAN est capable de représenter
au moyen d’une seule arborescence décisionnelle toutes les décisions possibles que peut
prendre un réseau de neurones à partir de données tabulaires. TREPAN construit une
arborescence décisionnelle qui imite les concepts représentés par les réseaux en
maximisant le rapport de gain58 calculé à partir de la fidélité de l’arborescence pour la
décision du réseau de neurones. Les résultats de TREPAN permettent l’exploration globale
d’un réseau de neurones à partir d’une structure d’arborescence qui, depuis la racine et pour
chaque voie possible, indique les conditions expliquant la décision retenue par le système
d’IA.
57
Craven, M. et Shavlik, J. W., op.cit.
58
Tan, P.-N et al., op.cit.
Page 17
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
Illustration 1. Exemple d’explication globale par arborescence décisionnelle obtenue avec TREPAN
Comme nous l’avons mentionné plus haut, une autre piste pour expliquer la classification
par boîte noire est de concevoir dès le départ des modèles transparents pour les systèmes
d’IA. La méthode CORELS59 fournit une liste de règles, et constitue une solution optimale
pour les données tabulaires. Un exemple de liste de règles figure au schéma 2. Les règles
sont lues les unes après les autres, et l’IA prend la décision correspondant à la première
règle pour laquelle les conditions sont vérifiées.
Illustration 2. Exemple d’explication sous forme de liste de règles obtenue avec CORELS
Les explications ci-dessus sont globales. Toutefois, lorsque les modèles d’IA obscurs sont
trop complexes, il est préférable d’adopter une méthode d’IAE locale et d’extraire
séparément les raisons expliquant les décisions pour chaque cas donné. C’est pourquoi la
recherche en IAE se concentre davantage de nos jours sur les explications locales. Les
explications locales les plus représentatives sont décrites dans les sections suivantes.
Dans le cas des explications de type « si-alors » (« si telles conditions sont remplies, alors
on obtient tel résultat »), le « résultat » correspond à la décision de l’IA, tandis que les
« conditions » expliquent les « raisons factuelles » du résultat. Par exemple, l’explication
59
Angelino, E., Larus-Stone, N., Alabi, D., Seltzer, M., et Rudin, C., « Learning certifiably optimal rule lists », in
Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, pp. 35–
44. ACM.
Page 18
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
Les explications locales peuvent aussi être utilisées pour obtenir l’importance des
caractéristiques. Le schéma 4 montre l’importance des caractéristiques obtenue par LIME62,
qui met en lumière les contributions positives et négatives prises en compte dans les
résultats de la boîte noire et leur assigne une importance. LIME utilise un modèle linéaire
comme substitut local interprétable et permet d’obtenir l’importance des caractéristiques
comme explication en exploitant les coefficients de régression. Le schéma 5 montre
l’importance des caractéristiques issues de SHAP63. SHAP permet d’obtenir l’importance
d’une caractéristique supplémentaire unique locale pour un cas spécifique. Plus une valeur
SHAP est élevée, plus la contribution de cette caractéristique est importante. Utilisés dans
le cadre de paramètres adaptés, LIME et SHAP peuvent aussi permettre d’expliquer les
systèmes d’IA travaillant sur du texte.
60
Guidotti, R., Monreale, A., Giannotti, F., Pedreschi, D., Ruggieri, S., et Turini, F. (2019a), « Factual and
counterfactual explanations for black box decision making », IEEE Intelligent Systems.
61
Ribeiro, M. T., Singh, S., et Guestrin, C. (2018), « Anchors: High-precision model-agnostic explanations », in
Proceedings of the Thirty-Second AAAI Conference on Artificial Intelligence (AAAI).
62
Ribeiro, M. T., Singh, S., et Guestrin, C. (2016), op.cit.
63
Lundberg, S. M. et Lee, S.-I., op.cit.
Page 19
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
Illustration 4. Exemple d’explication basée sur l’importance des caractéristiques obtenue avec
LIME
Illustration 5. Exemple d’explication basée sur l’importance des caractéristiques obtenue avec
SHAP
64
Guidotti, R., Monreale, A., Matwin, S., et Pedreschi, D. (2019b), « Black box explanation by learning image
exemplars in the latent feature space », in Joint European Conference on Machine Learning and Knowledge
Discovery in Databases, pp. 189–205. Springer.
65
Guidotti, R., Monreale, A., Matwin, S., et Pedreschi, D. (2019b), op.cit.
66
Ribeiro, M. T., Singh, S., et Guestrin, C. (2016), op.cit.
67
Simonyan, K., Vedaldi, A., et Zisserman, A, « Deep inside convolutional networks: Visualising image
classification models and saliency maps », arXiv preprint arXiv:1312.6034.
68
Shrikumar, A. et al., « Not just a black box: Learning important features through propagating activation
differences », arXiv:1605.01713.
69
Sundararajan, M. et al., « Axiomatic attribution for dnn », in ICML. JMLR. Tan, P.-N. et al.
70
Bach, S., Binder, A., et al., « On pixel-wise explanations for non-linear classifier decisions by layer-wise
relevance propagation », PloS one, 10(7):e0130140.
Page 20
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
Une explication basée sur des « prototypes » permet d’obtenir des spécimens similaires aux
cas analysés, qui explicitent les motifs de la décision du système d’IA. Les prototypes sont
utilisés comme le fondement de la représentation d’une catégorie ou d’un concept71. Les
explications basées sur des prototypes peuvent porter sur des données tabulaires, des
images ou du texte. Selon Li et al.72 et Chen et al.73, les prototypes d’image sont utilisés
comme fondement pour le concept d’interprétabilité74. Kim et al.75 s’interrogent sur le
concept de « contre prototype » pour les données tabulaires, c’est-à-dire des prototypes qui
montrent ce qui devrait être modifié pour obtenir une décision différente. Des exemples et
des contre-exemples sont utilisés par ABELE76 pour améliorer l’utilité de l’explication tirée
d’une carte de saillance. Des exemples (à gauche) et des contre-exemples (à droite) pour
les chiffres 9 et 0 figurent au schéma 7.
71
Frixione, M. et Lieto, A., « Prototypes vs exemplars in concept representation », in KEOD, pp. 226–232.
72
Li, O., Liu, H., Chen, C., et Rudin, C., « Deep learning for case-based reasoning through prototypes: A neural
network that explains its predictions », in Thirty-second AAAI conference on artificial intelligence.
73
Chen, C., Li, O., Barnett, A., Su, J., et Rudin, C., « This looks like that: deep learning for interpretable image
recognition », arXiv:1806.10574.
74
Bien, J. et Tibshirani, R., « Prototype selection for interpretable classification », The Annals of Applied Statistics,
5(4):2403–2424.
75
Kim, B., Koyejo, O. O., et Khanna, R., « Examples are not enough, learn to criticize! criticism for
interpretability », in Advances In Neural Information Processing Systems, pp. 2280–2288.
76
Guidotti, R., Monreale, A., Matwin, S., et Pedreschi, D. (2019b), op.cit.
Page 21
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
Une explication « contrefactuelle » montre ce qui devrait être différent pour modifier la
décision du modèle à boîte noire. Les explications contrefactuelles sont importantes en ce
sens qu’elles aident les personnes à raisonner sur les relations de cause à effet entre les
caractéristiques observées et les résultats de classification obtenus77. Bien que les
explications directes et factuelles, telles que les règles de décision ou l’importance des
contributions, soient cruciales pour comprendre les motifs d’un certain résultat, une
explication contrefactuelle révèle ce qui devrait changer dans une instance donnée pour
obtenir un résultat de classification différent78. La méthode LORE79 mentionnée ci-dessus
fournit, en plus d’une règle d’explication factuelle, une série de règles contrefactuelles. Sur
le schéma 3, la série de règles contrefactuelles figure en violet, et indique « si revenu 900
alors accord, ou si race = blanc alors accord », précisant quels changements renverseraient
la décision. La méthode d’explication ABELE80 propose des contre-exemples d’images qui
révèlent les similitudes et les différences entre des instances de même classe et d’autres
classes.
77
Byrne, R. M., « Counterfactuals in explainable artificial intelligence (xai): evidence from human reasoning »,
in Proceedings of the Twenty-Eighth International Joint Conference on Artificial Intelligence, IJCAI-19, pp. 6276–
6282. Apicella, A., Isgrò, F., Prevete, R., et Tamburrini, G., « Contrastive explanations to classification systems
using sparse dictionaries » in International Conference on Image Analysis and Processing, pp. 207–218. Springer.
78
Wachter, S., Mittelstadt, B., et Floridi, L., op.cit.
79
Guidotti, R., Monreale, A., Giannotti, F., Pedreschi, D., Ruggieri, S., et Turini, F. (2019a), op.cit.
80
Guidotti, R., Monreale, A., Matwin, S., et Pedreschi, D. (2019b), op.cit.
Page 22
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
81
Chan-Olmsted, S. M., « A review of artificial intelligence adoptions in the media industry », International
Journal on Media Management, 21(3-4):193– 215.
82
Chan-Olmsted, S. M., op.cit.
83
Kietzmann, J., Paschen, J., et Treen, E., « Artificial intelligence in advertising: How marketers can leverage
artificial intelligence along the consumer journey », Journal of Advertising Research, 58(3):263–267.
Page 23
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
1.3.1.1. Recommandations
Les anciens modèles de recommandations, tels que les modèles fondés sur les utilisateurs
ou les éléments, sont transparents et explicables. Une meilleure transparence est
fondamentale pour améliorer la fiabilité, l’efficacité, la capacité de persuasion ainsi que la
satisfaction de l’utilisateur final87. Les avancées récentes en IA et le recours aux RNP ont
amélioré la précision des recommandations, mais ont complètement éliminé toute
84
Manning, C. D., Raghavan, P., et Schütze, H., Introduction to information retrieval, Cambridge university press.
85
Zhang, Y. et Chen, X, « Explainable recommendation: A survey and new perspectives », arXiv preprint
arXiv:1804.11192.
86
Les lecteurs qui le souhaitent peuvent prendre connaissance d’autres types de recommandations explicables
dans Zhang, Y. et Chen, X., op.cit.
87
Tintarev, N. et Masthoff, J., « A survey of explanations in recommender systems », in 2007 IEEE 23rd
international conference on data engineering workshop, pp. 801–810. IEEE.
Page 24
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
transparence, en raison de l’utilisation de modèles complexes obscurs tels que les RNP. Le
manque d’explicabilité des systèmes de recommandations dans l’industrie des médias peut
soulever de nombreux problèmes. Si le système n’indique pas aux utilisateurs pourquoi de
tels résultats sont fournis, il pourrait être moins efficace pour les orienter vers un contenu
particulier, ce qui pourrait porter davantage préjudice à la fiabilité du système.
Comme nous l’avons mentionné précédemment, l’une des applications les plus récentes de
l’IA concerne la création d’informations, de musique et de vidéos. Dans le cadre de ce qu’on
appelle le « robot journalisme » ou le « journalisme automatisé », des systèmes d’IA
utilisent des algorithmes de génération automatique de langage naturel pour transformer
des données et connaissances en articles, images et vidéos d’actualité. Par exemple, les
systèmes d’IA peuvent aisément rédiger des articles quelque peu rébarbatifs pour les
humains, par exemple des bulletins météo ou financiers, sur la base d’articles précédents
et des données disponibles. S’agissant de la vidéo, en exploitant la reconnaissance des
images, l’IA peut générer des montages vidéo cohérents. La plupart des grands fournisseurs
de logiciel d’édition proposent déjà des fonctions de traitement automatisé des vidéos pour
faire gagner du temps aux éditeurs. D’autres programmes logiciels tels que Gingalab88 se
servent de l’IA pour créer des vidéos de type « best of », sur la base de lignes éditoriales
prédéfinies (par exemple humour, tension, ou portant sur un protagoniste particulier, etc.).
En septembre 2018, la BBC a diffusé un programme entièrement créé par un robot89.
Page 25
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
Le principal point faible du succès incroyable de l’IA est d’avoir entraîné le phénomène des
deepfakes90. Heureusement, bien que l’IA puisse en effet générer de faux contenus
médiatiques, elle peut aussi contribuer à les détecter. Ainsi, l’IA peut être un atout crucial
dans la lutte contre la désinformation puisque la technologie qui fabrique des faux peut
également être exploitée pour les identifier. En s’appuyant sur des capacités d’analyse
étendues et des algorithmes d’apprentissage automatique, l’IA peut en partie automatiser
la vérification de contenus médias tels que des informations, des images et des vidéos. Le
principal problème vient du fait que la qualité de cette détection découle de l’expérience
de l’IA, qui elle-même dépend de la disponibilité de sources de données permettant de
distinguer entre vrais et faux contenus. En plus, une telle source d’information doit être
générée par des humains, qui vont manuellement annoter les contenus médias en les
étiquetant comme vrais ou faux. Cette étape manuelle peut créer un biais dans les données
car les humains pourraient ne pas être en mesure de vérifier tout le contenu médiatique
nécessaire à l’apprentissage d’un système d’IA entièrement fonctionnel. Les humains
peuvent en outre être amenés à se fier à leur ressenti pour déterminer ce qui est réel ou
faux. L’IAE peut être cruciale lors de cette étape d’apprentissage pour deux motifs. D’abord,
ceux qui utilisent l’IA pour détecter les faux contenus veulent être certains que la logique
suivie par l’IA pour identifier ces contenus est compréhensible pour l’homme. Ils attendent
par exemple une explication du type : « cette information est fausse parce que les phrases
sont trop répétitives et que les images affichées viennent d’autres sites internet ».
Deuxièmement, il ne faut pas que les systèmes d’IA se fient à des ensembles de données
biaisées pour fournir des suggestions. Si toutes les informations réelles viennent de la
même source, l’explication pourrait être du type : « cette information est fausse parce
qu’elle n’est pas partagée par le New York Times ».
L’IA et l’IAE peuvent être utilisées par l’industrie des médias pour de nombreuses autres
applications. Dans la section suivante, nous en mentionnons certaines sans entrer dans le
détail. L’IA peut être utilisée comme outil pour améliorer les conversations sur internet, en
d’autres termes pour reconnaître le discours de haine, la discrimination, les trolls, etc. Dans
ce cas également, il est nécessaire d’avoir accès aux raisons motivant l’identification de
messages comme étant inappropriés. L’IA pour la reconnaissance vocale constitue la base
de nombreux services modernes et des assistants vocaux tels qu’Alexa d’Amazon, Google
Home, ou Siri de Apple, qui sont présents dans tous les équipements intelligents. Ils
exploitent l’IA et le traitement du langage naturel pour répondre à nos questions et
accomplir des tâches. Enfin, il est utile de mentionner que l’IA a des conséquences
stratégiques pour la monétisation des contenus médiatiques et pour prédire leur succès.
Dans le même temps, s’agissant de la déontologie des médias, l’IAE devient cruciale pour
expliquer au public, d’une manière transparente, la logique que suivent les systèmes d’IA
qui interagissent avec les utilisateurs et prennent des décisions pour eux. Certaines
90
Voir section 1.1.3 ci-dessus pour une définition des deepfakes.
Page 26
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
questions pourraient être soulevées, et grâce à l’IAE, les utilisateurs pourraient obtenir des
réponses : par exemple, quelle est la bonne proportion entre personnalisation et
découverte de contenus ? Quel niveau de recommandation est souhaitable ? Pourquoi ce
contenu médiatique est-il considéré comme réel ? En vertu du RGPD, la première étape,
pour l’industrie des médias, est de révéler clairement quels contenus sont
recommandés/créés par une IA.
Page 27
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
néanmoins être intéressée par ce type de contenu médiatique. Ainsi, le recours à l’IAE pour
comprendre les données d’apprentissage et analyser comment elles affectent les résultats
pour des populations différentes est fondamental pour identifier les biais. Pour chacun de
ces services, une explication globale pourrait décrire comment l’algorithme se comporte
d’une manière générale. On pourrait par exemple être amené à découvrir que le système
de recommandations de l’IA ne suggèrera pas un film de trois heures juste avant minuit un
soir de semaine. À l’inverse, une explication locale des services de vidéo à la demande
pourrait décrire comment l’IA se comporte pour un individu donné. Par exemple, si le client
en question regarde habituellement un contenu de vidéo à la demande de 12h00 à 14h00
pendant sa pause déjeuner, au travail, alors le service en question ne suggérera pas un film
de trois heures à ce moment-là, parce qu’il pourrait avoir déduit que c’est le meilleur choix
possible sur la base de la routine, alors même que ce film de trois heures correspondrait
entièrement aux intérêts de l’utilisateur. D’autre part, peut-être que l’utilisateur ne souhaite
pas que le service en question exploite ce type d’informations personnelles pour faire des
recommandations. Ainsi, des explications détaillées pourraient aider les services de vidéo
à la demande à renforcer la confiance de leurs utilisateurs. En théorie, pour toute
application qui utilise l’IA dans le domaine des médias, les suggestions devraient être
fondées sur des recommandations non biaisées et une relation de confiance entre le service
et ses utilisateurs.
1.4. Conclusion
L’intelligence artificielle ne peut être la solution définitive de toute application, et en
particulier en ce qui concerne le domaine des médias, elle doit être rattachée à un être
humain, pour créer et vérifier les contenus médiatiques, mais aussi pour regarder les
contenus recommandés. En effet, l’IA est fondamentale s’agissant de la demande et de
l’accès aux contenus, ainsi que de leur monétisation. L’IA a un grand potentiel de bien
social, dans la mesure où elle aide à se repérer dans des masses de contenus, optimise les
recherches et les recommandations personnalisées et prévient les manipulations. Avec des
outils appropriés d’IAE et un niveau de confiance adapté du public et des fournisseurs, l’IA
pourrait en pratique donner un véritable
Page 28
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
L’obtention et l’exploitation des données personnelles par des parties tierces, qu’elles aient été
fournies délibérément ou par inadvertance par les utilisateurs, peuvent également avoir un effet
très intrusif dans leur vie personnelle. De plus, dans certaines situations, l’État ou des parties
privées pourraient souhaiter obtenir des informations sur la vie d’un utilisateur qui vont plus loin
que celles que celui-ci serait prêt à céder. Dans sa contribution à cette publication, Andrea Pin
affirme que « le vaste déploiement de l’IA exige que la sphère médiatique prenne conscience de
son rôle unique et que le secteur des médias devrait s’efforcer d’utiliser l’IA de manière légale,
éthique et robuste. » La question du rôle que les plateformes de médias devraient jouer dans la
gestion de leurs contenus fait l’objet d’une attention particulière. Les débats consistant à établir
dans quelle mesure celles-ci devraient ne pas se limiter à un rôle purement passif afin de
poursuivre « l’objectif louable de surveiller leur contenu », se poursuivent. À cet égard, le
« manque d’humanité » de l’IA est précisément l’un de ses principaux défauts. Les algorithmes
de filtrage sont extrêmement efficaces pour trouver et retirer des contenus potentiellement
préjudiciables, mais ils ne peuvent se mesurer aux humains lorsqu’il s’agit de prendre des
décisions nuancées dans des domaines juridiques complexes91.
91
Barker A., Murphy H., « YouTube reverts to human moderators in fight against misinformation », Financial
Times, 20 septembre 2020, https://www.ft.com/content/e54737c5-8488-4e66-b087-d1ad426ac9fa.
Page 29
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
2.1. Introduction
Il est communément admis que les données massives sont le pétrole de la révolution de
l’IA92. Depuis que la science des données et l’ingénierie technologique ont uni leurs forces,
un flux massif d’informations a inondé le globe, affectant notre façon de vivre et de
comprendre la politique, l’économie et la culture. Grâce aux capacités de l’IA, le phénomène
des données massives a eu un impact énorme, et probablement durable, sur la façon dont
les individus et les groupes font des projets, obtiennent des informations sur eux-mêmes
et sur le monde, se divertissent et se socialisent.
Les ordinateurs d’aujourd’hui sont technologiquement très puissants. Leurs
algorithmes sont extrêmement sophistiqués. Leurs réseaux neuronaux reproduisent le
traitement intellectuel des êtres humains et leur permettent de faire des analyses
complexes. En traitant les données massives, les entreprises peuvent anticiper les choix et
les préférences de leurs clients à un stade si précoce qu’elles peuvent prévoir ce que les
clients veulent avant même qu’ils ne le sachent eux-mêmes. Grâce aux données massives,
les processus d’entreprise passent d’une approche « réactive » à une approche
« proactive »93.
Internet joue un rôle fondamental dans ce scénario. Alors que les individus utilisent
internet pour partager, pratiquement en continu, des informations, parfois sur eux-mêmes
et leur vie, le web rassemble les matières premières à partir desquelles l’IA tirera des
conclusions, fera des suppositions et trouvera des réponses aux questions posées. Le
philosophe d’Oxford Luciano Floridi a inventé le concept de « onlife » pour décrire la
92
Pan S. B., « Get to know me: Protecting privacy and autonomy under big data’s penetrating gaze », Harvard
Journal of Law and Technology 30, 2016, p. 239,
https://jolt.law.harvard.edu/assets/articlePDFs/v30/30HarvJLTech239.pdf ; Surden H., « Artificial intelligence
and law: An overview », Georgia State University Law Review 35, 2019, pp. 1311 et 1315.
93
Microsoft Dynamics 365, Delivering personalized experiences in times of change, 2007, p. 3,
https://www.hso.com/wp-content/uploads/2020/03/Digitally-transforming-customer-experiences-ebook.pdf.
Page 31
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
transition fréquente et inconsciente des êtres humains entre le monde réel et le monde en
ligne94.
Ce phénomène s’intensifie. En 2023, on estime qu’il y aura plus de cinq milliards
d’utilisateurs d’internet et 3,6 appareils par habitant, et que 70 % de la population mondiale
disposera d’une connectivité mobile95. Plus le monde sera connecté, plus la quantité de
données massives produites sera importante. Ce n’est pas un hasard si l’une des questions
les plus débattues actuellement est l’introduction des réseaux 5G, car ces derniers peuvent
fournir un avantage informationnel considérable à leurs propriétaires.
Le secteur et l’industrie des médias jouent un rôle important dans ce scénario. Leur
travail a toujours consisté à collecter, traiter et diffuser l’information. Grâce aux données
massives, ils peuvent désormais faire le profil de leur public et savoir ce qu’il attend,
comment présenter les actualités ou raconter une histoire, ou quelle serait la fin idéale
pour un film. Les données massives permettent de personnaliser l’offre en identifiant les
potentiels lecteurs d’informations ou les cinéphiles, car « les ordinateurs sont plus précis
que les hommes pour tirer des prédictions en se fondant sur des “empreintes digitales”,
telles que des traits de caractère [ou] des attitudes politiques »96.
La nouveauté apportée par les données massives modifie également le paysage
médiatique. « … [L]a télévision/les films/la musique numériques et une myriade de modèles
de distribution en ligne mettent au défi les distributeurs en place (CD, câble) depuis des
années... Les éditeurs en ligne exploitent les signaux des consommateurs à partir de ce
qu’ils lisent, de l’endroit où ils se trouvent, des signaux sociaux qu’ils envoient – par
exemple les articles qu’ils partagent, les sujets à la mode sur Facebook et Twitter – pour
proposer un contenu personnalisé et pertinent tout en n’étant pas trop répétitif et
prévisible, automatisant et surpassant ainsi ce que les éditeurs humains peuvent faire »97.
Lorsqu’il s’agit de produire des informations, les médias traditionnels sont désormais en
concurrence avec des fournisseurs d’informations non professionnels qui fouillent le web à
la recherche d’informations ou avec des blogueurs qui partagent leurs points de vue sur des
plateformes de médias sociaux au sein desquelles la distribution et la consommation de
contenu sont pratiquement indissociables98.
Ce chapitre traite des répercussions juridiques les plus pertinentes qu’a un tel
changement global sur le monde des médias. Il s’intéresse à la question cruciale de la
94
Floridi L., « Soft ethics and the governance of the digital », Philosophy & Technology 31, 1, 2018, p. 1.
95
Cisco, Cisco Annual International Report (2018-2023) White Paper, 9 mars 2020,
https://www.cisco.com/c/en/us/solutions/collateral/executive-perspectives/annual-internet-report/white-
paper-c11-741490.html?fbclid=IwAR31-e732ws1p1cIW5PYHQjVOJkPSzV0dGt3sq_qkX_P8wb9Q4Yn0Ez0a0Y.
96
Contrôleur européen de la protection des données, Avis 7/2015 Relever les défis des données massives,
19 novembre 2015, p. 16, https://edps.europa.eu/sites/edp/files/publication/15-11-19_big_data_fr.pdf.
97
Byers A., « Big data, big economic impact », 10, 2015,
https://kb.osu.edu/bitstream/handle/1811/75420/ISJLP_V10N3_757.pdf?sequence=1&isAllowed=y.
Voir également Bruckner M. A., « The promise and perils of algorithmic lenders’ use of big Data », Chicago-Kent
Law Review 93, 2018, p. 8, https://scholarship.kentlaw.iit.edu/cklawreview/vol93/iss1/1/ ou Ambrose M. L.,
« Lessons from the Avalanche of Numbers: Big Data in Historical Perspective », ISJLP, 11, 2015, p. 213, (« Netflix
predicts our movies »).
98
Perritt H. H. Jr., « Technologies of storytelling: New models for movies », Virginia Sports & Entertainment Law
Journal, 10, 2010, p. 153, http://blogs.kentlaw.iit.edu/perrittseminar/files/2016/07/perritt-technologies-of-
storytelling-Westlaw_Document_05_56_44.pdf.
Page 32
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
protection de la vie privée. Il traite ensuite des possibles discriminations et biais auxquels
une stratégie dirigée par les données massives peut se heurter et examine les risques de
désinformation, de polarisation de la vie politique et de transformation du secteur des
médias en un système de surveillance de masse. Plus loin, le chapitre présente une vue
d’ensemble de l’évolution des marchés et des stratégies des médias à la lumière de la
dynamique des données massives. Enfin, il réfléchit brièvement à une approche
réglementaire qui serait appropriée en matière de données massives.
Au fil des ans, la nécessité de réglementer l’IA s’est majoritairement imposée. Bien
que les technologies soient mondiales et ne connaissent pas de frontières, l’objectif,
l’approche et le schéma réglementaires des grands acteurs juridiques dans ce scénario –
les États-Unis, l’Union européenne et la Chine – divergent profondément. L’approche
américaine vise à garantir que les marchés sur lesquels l’IA est massivement déployée
restent ouverts et efficaces. La préoccupation première de l’UE semble consister à garantir
le respect de la dignité de l’individu. Quant à la Chine, elle est surtout préoccupée par la
paix sociale, la stabilité et le développement ordonné de son économie. Chacune de ces
approches accorde aux données massives un traitement juridique spécifique.
99
Houser K. A. & Voss W. G., « The end of Google and Facebook or a new paradigm in data privacy », Richmond
Journal of Law and Technology, 25, 2018, p. 18,
https://jolt.richmond.edu/files/2018/11/Houser_Voss-FE.pdf.
Page 33
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
ayant des répercussions positives sur l’économie nationale. Si certains États, la Californie
en tête, ont commencé à adopter des textes législatifs qui protègent et réglementent la vie
privée, la collecte et le rassemblement de données à caractère personnel sont largement
autorisés, voire encouragés. Une base juridique assez générale est que les personnes qui
communiquent leurs données doivent simplement savoir que leurs informations seront
traitées de diverses manières, y compris à des fins de profilage et d’exploitation
commerciale de leurs goûts. Comme la plupart des acteurs de l’industrie mondiale de l’IA
sont basés aux États-Unis, un schéma réglementaire aussi favorable leur permet d’exploiter
pleinement les avantages du nouveau pétrole des données.
100
Texte consolidé : Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à
la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre
circulation de ces données, et abrogeant la Directive 95/46/CE (Règlement général sur la protection des
données) (Texte présentant de l’intérêt pour l’EEE), https://eur-lex.europa.eu/legal-
content/FR/TXT/?uri=CELEX:02016R0679-20160504.
101
Contrôleur européen de la protection des données, Opinion 3/2020 on the European strategy for data,
16 juin 2020, p. 4, https://edps.europa.eu/sites/edp/files/publication/20-06-16_opinion_data_strategy_en.pdf.
Voir également Conseil de l’Union européenne, Façonner l’avenir numérique de l’Europe - Conclusions du
Conseil, 9 juin 2020, https://data.consilium.europa.eu/doc/document/ST-8711-2020-INIT/fr/pdf.
102
Comité européen de la protection des données, Lignes directrices 2/2019 sur le traitement des données à
caractère personnel au titre de l’article 6, paragraphe 1, point b), du RGPD dans le cadre de la fourniture de
services en ligne aux personnes concernées, Version 2.0, 8 octobre 2019, n° 54,
https://edpb.europa.eu/sites/edpb/files/files/file1/edpb_guidelines-art_6-1-b-
adopted_after_public_consultation_fr.pdf.
103
Article 6 RGPD.
104
Manheim K. & Kaplan L., « Artificial intelligence: Risks to privacy and democracy », Yale Journal of Law &
Technology, 106, 2019, p. 1069, https://yjolt.org/sites/default/files/21_yale_j.l._tech._106_0.pdf.
105
Article 6, paragraphe 4, et 7, RGPD.
Page 34
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
les données de toute autre personne physique, pour autant que le traitement ait lieu au
sein de l’UE. En d’autres termes, elle protège toute personne se trouvant sur son territoire106.
La différence entre les approches américaine et européenne a créé une faille dans
l’échange de données de part et d’autre de l’Atlantique. Le RGPD est très prudent quant au
partage des informations recueillies au sein de l’Union européenne, et exige que tout
transfert de données en dehors des frontières de l’UE soit conforme aux normes de l’UE107.
La philosophie réglementaire de l’UE a été perçue comme étant si protectrice de la vie
privée que de nombreux citoyens non européens ont tendance à préférer les entreprises
basées dans l’UE aux entités qui ne sont pas soumises à la juridiction de l’Union
européenne. La conformité au RGPD est donc devenue un atout de réputation pour les
entreprises travaillant dans le domaine de l’IA même en dehors de l’Union européenne, les
poussant à mettre en œuvre spontanément des règles de protection de la vie privée108.
Un tel niveau de protection de la vie privée par le RGPD a cependant un coût. La
nécessité pour les entreprises d’obtenir le consentement des internautes qui visitent leurs
sites web se traduit par une pléthore de demandes de consentement répétitives, et parfois
obscures, qui apparaissent traditionnellement dès qu’une page web s’affiche109. Ce
phénomène a inondé internet au point que la plupart des utilisateurs cliquent simplement
sur « oui » et continuent de naviguer sur le site sans prêter attention à la manière dont leurs
informations sont collectées, traitées et diffusées110. Cette ligne de conduite est certes
risquée mais compréhensible. Il a été estimé qu’une personne normale – pas un avocat
compétent ou un internaute excessivement méticuleux – perdrait 76 jours par an à lire tous
les avertissements relatifs à la vie privée qui apparaissent lorsqu’il est en ligne111. Une
protection excessive de la vie privée peut s’avérer contre-productive : les personnes
peuvent renoncer à toute la protection en donnant leur consentement de manière trop
superficielle, permettant ainsi une collecte massive de leurs informations.
De plus, les possibilités d’analyse de données massives peuvent affaiblir la
protection de la vie privée accordée par le RGPD sur de nombreux fronts. Premièrement, le
RGPD impose moins de restrictions aux données anonymes, car l’anonymat est censé
protéger la vie privée. Toutefois, grâce aux capacités croissantes de l’IA, « il est de plus en
plus facile de déduire l’identité d’une personne de la combinaison de données
prétendument “anonymes” et d’autres ensembles de données, y compris d’informations à la
106
Contrôleur européen de la protection des données, Avis 3/2018 Avis du CEPD sur la manipulation en ligne
et les données à caractère personnel, 19 mars 2018, p. 14,
https://edps.europa.eu/sites/edp/files/publication/18-03-19_opinion_online_manipulation_fr.pdf.
107
Article 45 RGPD.
108
Moerel L. & Lyon C., « Commoditization of data is the problem, not the solution – Why placing a price tag
on personal information may harm rather than protect consumer privacy », Future of Privacy Forum, 24 juin 2020,
https://fpf.org/2020/06/24/commoditization-of-data-is-the-problem-not-the-solution-why-placing-a-price-
tag-on-personal-information-may-harm-rather-than-protect-consumer-privacy.
109
Contrôleur européen de la protection des données, Avis 7/2015 Relever les défis des données massives, op.
cit., p. 11.
110
Tsesis A., « Marketplace of ideas, privacy, and the digital audience », Notre Dame Law Review, 94, 2019, p.
1590, https://scholarship.law.nd.edu/cgi/viewcontent.cgi?article=4845&context=ndlr.
111
Hartzog W., Privacy’s blueprint, Harvard University Press, 2018.
Page 35
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
disposition du public, par exemple sur les médias sociaux »112... « Plus une collecte de
données est importante et exhaustive », plus il existe de possibilités qu’une personne dont
les données ont été anonymisées soit réidentifiée113.
En outre, les règles de l’UE en matière de respect de la vie privée exigent que les
personnes reçoivent des informations détaillées sur la finalité et l’étendue du traitement
des données qu’elles confèrent. Grâce aux réseaux neuronaux et à l’apprentissage profond,
les systèmes basés sur l’IA tirent des conclusions que même les développeurs de logiciel
ne peuvent pas totalement anticiper. Cette capacité même des données massives
compromet l’interprétation de la réglementation de l’UE en matière de protection de la vie
privée. Comme le traitement des données massives donne des résultats qui ne peuvent être
entièrement prévus, il est extrêmement difficile de donner aux personnes une idée détaillée
de l’usage qui sera fait de leurs informations114.
2.2.3. La Chine
Les institutions publiques et privées chinoises tirent des quantités massives de données
d’une multitude de sources pour établir le profil des individus avec le plus haut degré de
précision. La collecte et le traitement de données à caractère personnel sur la population
chinoise sont essentiels au grand plan civique chinois, qui prévoit la mise en œuvre d’un
vaste programme de surveillance et de suivi qui exploite l’IA pour établir le profil et prévoir
les comportements des individus et des groupes115. L’objectif global de ce plan consiste à
construire un système de crédit social omniprésent – un mécanisme basé sur l’IA qui
recueille des informations à partir des dossiers personnels, des smartphones et des
systèmes de surveillance de masse, puis classe les individus et leur accorde des privilèges
et des droits en fonction de leur conduite antérieure116.
En Chine, les institutions publiques s’efforcent de rendre la vie de chacun
transparente, et non pas privée, et s’associent à des entreprises privées chinoises à cette
112
Contrôleur européen de la protection des données, Avis 4/2015. Vers une nouvelle éthique numérique,
11 septembre 2015, p. 6, https://edps.europa.eu/sites/edp/files/publication/15-09-11_data_ethics_fr.pdf.
113
Contrôleur européen de la protection des données, Avis 7/2015, « Relever les défis des données massives »,
op. cit., p. 15.
114
AGCM, AGCOM, et Garante per la protezione dei dati personali, Indagine conoscitiva sui Big Data, pp. 25-26,
https://www.agcom.it/documents/10179/17633816/Documento+generico+10-02-
2020+1581346981452/39c08bbe-1c02-43dc-bb8e-6d1cc9ec0fcf?version=1.0. Le document explique comment
le « consentement dynamique » est en train de devenir une option viable dans le cadre du système
réglementaire de l’UE en matière de protection de la vie privée. Ce concept comprend le consentement comme
un processus progressif, au cours duquel le sujet peut être contacté plusieurs fois pour lui demander s’il consent
à une utilisation donnée de ses informations.
115
Conseil d’État, Avis du Conseil d’État publiant le plan de développement de la nouvelle génération de
l’intelligence artificielle, n° 358 juillet 2017, pp. 2-5 et 18-21, https://flia.org/notice-state-council-issuing-new-
generation-artificial-intelligence-development-plan.
116
Conseil d’État, Avis concernant la publication du plan de planification pour la construction d’un système de
crédit social (2014-2020), n° 21, 14 juin 2014,
https://chinacopyrightandmedia.wordpress.com/2014/06/14/planning-outline-for-the-construction-of-a-
social-credit-system-2014-2020.
Page 36
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
fin. Une poignée de grandes entreprises technologiques telles que WeChat et Alibaba
fonctionnent ainsi comme des plaques tournantes numériques dans la vie des citoyens
chinois117. Les Chinois sont encouragés à utiliser la même application mobile pour un large
éventail d’activités, de la réservation d’un taxi au paiement d’un restaurant, en passant par
les relations sociales ou les interactions avec l’administration publique. Une énorme
quantité d’informations sur toute personne est ainsi recueillie et transmise aux institutions
publiques à des fins de profilage118.
117
Pieranni S., Red Mirror, Laterza, 2020, pp. 22-23.
118
Ibid, pp. 40 et 115.
119
Baker L. C., « Next generation law: Data-driven governance and accountability-based regulatory systems in
the West, and social credit regimes in China », Southern California Interdisciplinary Law Journal, 28, 2018, pp.
170-171, https://lcbackerblog.blogspot.com/2019/05/just-published-next-generation-law-data.html.
120
Le Parlement européen a récemment invité la Commission européenne à « interdire aux plateformes
d’afficher des publicités microciblées » : Parlement européen, Résolution du 18 juin 2020 sur la politique de
concurrence – rapport annuel 2019, https://www.europarl.europa.eu/doceo/document/TA-9-2020-
0158_FR.html. Selon Morozov E., « Digital socialism? », New Left Review, 116/117, mars-juin 2019, p. 62,
https://newleftreview.org/issues/II116/articles/evgeny-morozov-digital-socialism, « Amazon a obtenu un
brevet sur l’“expédition prédictive”, ce qui lui permet de nous envoyer des produits avant même que nous
sachions que nous les voulons ».
121
En ce qui concerne la vigilance européenne face au potentiel nuisible des entreprises privées, voir le
contrôleur européen de la protection des données, Avis 8/2016 Avis du CEPD sur une application cohérente des
droits fondamentaux à l’ère des données massives (Big Data), 23 septembre 2016, p. 5,
https://edps.europa.eu/sites/edp/files/publication/16-09-23_bigdata_opinion_fr.pdf. Voir également Pollicino
Page 37
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
O., « L’‘autunno caldo’ della Corte di giustizia in tema di tutela dei diritti fondamentali in rete e le sfide del
costituzionalismo alle prese con i nuovi poteri privati in ambito digitale », Federalismi, 15 octobre 2019,
https://www.federalismi.it/nv14/editoriale.cfm?eid=533.
122
« Microsoft ‘deeply sorry’ for racist and sexist tweets by AI chatbot », The Guardian, 26 mars 2016,
https://www.theguardian.com/technology/2016/mar/26/microsoft-deeply-sorry-for-offensive-tweets-by-ai-
chatbot.
Page 38
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
prendre des directions imprévues, voire inappropriées. Elle peut identifier et intégrer les
biais de la société, et les stimuler par son activité123.
Des ensembles de données déséquilibrés peuvent involontairement créer des biais,
comme le montre le cas de la reconnaissance faciale. Les systèmes d’IA occidentaux de
reconnaissance faciale ne parviennent souvent pas à identifier correctement les individus
qui ne sont pas de type caucasien parce que les autres groupes ethniques apparaissent
moins souvent sur le web que ce type, tandis que les logiciels d’IA développés en Chine
souffrent du problème inverse124. Par conséquent, il est plus probable, que dans les pays
occidentaux par exemple, une personne noire soit prise pour quelqu’un d’autre, qu’un
Caucasien ne le soit. Les systèmes médiatiques qui intègrent des processus basés sur les
données massives sont donc confrontés à un véritable défi, car en exploitant l’IA, ils
peuvent intégrer des préjugés et des déséquilibres sociaux.
Il est très difficile de lutter contre la discrimination dans le domaine des données
massives et des réseaux neuronaux en raison des dangers de la « discrimination par
procuration »125. La discrimination par procuration est une politique privée ou publique qui
comprend une condition ou un facteur apparemment neutre mais intégrant en réalité une
tradition, une pratique ou une croyance discriminatoire. Par exemple, dans les sociétés
socialement ou territorialement divisées, le code postal ou le prix du logement peut servir
de discrimination par procuration pour les polices d’assurance ou le zonage, car il peut
défavoriser certains groupes ethniques et en favoriser d’autres. Même si les développeurs
de logiciel interdisent expressément à l’IA de prendre en compte l’appartenance ethnique
à des fins de déductions, d’autres facteurs peuvent servir de relais à la discrimination 126.
Dans une société donnée, des stratégies de marché, des campagnes politiques ou des
fournisseurs de services sociaux dirigés par les données massives peuvent – même
involontairement – isoler et discriminer systématiquement les groupes les plus défavorisés
par procuration.
123
Stevenson M. T. & Doleac J. L., Algorithmic Risk Assessment in the Hands of Humans, Institute of Labor
Economics, 1er décembre 2019, p. 1, http://ftp.iza.org/dp12853.pdf ; Bruckner M. A., op. cit, p. 25.
124 Grother P., Ngan M., Hanaoka K., « Face recognition vendor test (FRVT) Part III. Demographic effects »,
Page 39
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
127
Singer H., « How Washington should regulate Facebook », Forbes, 18 octobre 2017,
https://www.forbes.com/sites/washingtonbytes/2017/10/18/what-to-do-about-facebook.
128
Shefa M. C., « First Amendment 2.0: Revisiting Marsh and the quasi-public forum in the age of social media »,
University of Hawaii Law Review, 41, 2018, p. 160.
129
AGCM, AGCOM, et Garante per la protezione dei dati personali, Indagine conoscitiva sui Big Data, op. cit., p.
30.
130
Contrôleur européen de la protection des données, Avis 3/2018 Avis du CEPD sur la manipulation en ligne
et les données à caractère personnel, op. cit.p. 13 (« Certaines preuves montrent que... concentration et
élimination du journalisme local facilite la propagation de la désinformation »).
131
Idem.
Page 40
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
Sunstein a appelé des « cybercascades »132. Le système des bulles aggrave le processus, car
il filtre les faits et les différents points de vue, renforçant ainsi les points de vue
profondément ancrés, voire les préjugés.
Les stratégies dirigées par les données massives remettent en question le rôle
historique joué par le système des médias et la liberté d’expression dans les régimes
démocratiques. Au lieu d’élargir les horizons, de remettre en question les points de vue, de
mettre à nu les biais et de faire progresser la société, les plateformes médiatiques
contemporaines risquent d’isoler mutuellement les groupes sociaux et de renforcer les
opinions profondément ancrées. Traditionnellement, le constitutionnalisme libéral valorise
et protège grandement la liberté d’expression car les différents points de vue font
progresser les sociétés grâce au libre échange d’opinions. Au contraire, les technologies des
données massives sont capables de créer des « chambres d’écho »133, qui expulsent la
dissidence et gravitent autour de croyances non contestées. Les opinions qui remettent en
question des visions du monde profondément ancrées sont éjectées d’une bulle et
trouveront probablement leur place dans une autre bulle qui n’offre pratiquement aucun
échange en dehors d’elle-même. 134 Les données massives peuvent donc restreindre les
perspectives et immuniser les préjugés contre les avantages de la liberté d’expression.
Les institutions privées et publiques ont pris conscience des distorsions que les
données massives peuvent causer aux médias et à la société en général. Par exemple,
Twitter a récemment créé un outil de vérification des faits litigieux dans le but de détecter
les fausses nouvelles ou les tweets qui nuisent à des groupes identifiables135. Le Code
européen de bonnes pratiques contre la désinformation136 préconise un examen approfondi du
phénomène, en soulignant que « toutes les parties prenantes ont un rôle à jouer dans la
lutte contre la propagation de la désinformation ». Les signataires du code, parmi lesquels
figurent Facebook, Google, Mozilla, TikTok et Twitter, ont ainsi promis de « réduire la
visibilité de la désinformation en améliorant la possibilité de trouver des contenus fiables »,
et de « faciliter la découverte de contenus et l’accès à différentes sources d’information
représentant des points de vue alternatifs ». Nombreux sont ceux qui demandent la
réglementation du déploiement de l’IA de sorte à soumettre les fournisseurs d’accès
internet à des règles similaires aux « normes traditionnelles relatives à la responsabilité
des médias »137.
132
Sunstein C. R., « #republic: Divided democracy in the age of Social Media », Princeton University Press, 2017, p.
57.
133
Sasahara K. et al., « On the inevitability of online echo chambers », https://arxiv.org/abs/1905.03919.
134
Jones R. L., « Can you have too much of a good thing: The modern marketplace of ideas », Missouri Law
Review, 83, 2018, p. 987, https://scholarship.law.missouri.edu/mlr/vol83/iss4/8/.
135
Pham S., « Twitter says it labels tweets to provide ‘context, not fact-checking’ », CNN Business,
https://edition.cnn.com/2020/06/03/tech/twitter-enforcement-policy/index.html.
136
Code européen de bonnes pratiques contre la désinformation, https://ec.europa.eu/digital-single-
market/en/news/code-practice-disinformation.
137
Contrôleur européen de la protection des données, Avis 3/2018 Avis du CEPD sur la manipulation en ligne
et les données à caractère personnel, op. cit., p. 16.
Page 41
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
Les politiques de l’UE visent en particulier les contenus terroristes, les contenus
pédopornographiques, le racisme, les discours xénophobes et haineux138, qui sont
généralement des sujets de préoccupation majeurs pour les médias sociaux d’aujourd’hui.
En fait, étant donné l’afflux massif de données, il est techniquement irréaliste de filtrer les
informations avant de décider de les héberger. Les plateformes en ligne combinent donc
normalement deux systèmes distincts : d’une part, elles adoptent un système de
« notification et retrait » – toute personne peut se plaindre qu’un affichage spécifique de
contenu est en infraction avec la loi et demander à la plateforme médiatique de procéder
à une évaluation ; d’autre part, la plupart des plateformes adoptent des systèmes de filtrage
basés sur les données massives qui passent au crible les contenus de façon automatique et
continue, en prenant des décisions sur ce qui doit être caché au public139. La plupart des
plateformes disposent d’une protection supplémentaire contre ces décisions automatisées,
qui permet aux individus de contester la décision prise par un logiciel de supprimer certains
matériels140.
Aux États-Unis et dans l’Union européenne qui dispose de « l’un des cadres
réglementaires les plus complets pour le suivi des contenus illégaux en ligne »141, les
fournisseurs de services bénéficient de larges exemptions de responsabilité. Ces
exemptions visent à préserver leur rôle positif dans l’établissement de liens entre les
personnes et la diffusion de l’information142. Le droit de l’UE a renforcé cette règle en
interdisant à ses États membres d’imposer aux plateformes d’hébergement des obligations
générales de surveillance du matériel qu’elles hébergent143. Le scénario est cependant en
138
Département politique des politiques économiques, scientifiques et de la qualité de la vie, « Online
platforms’ moderation of illegal content online », juin 2020, p. 9,
https://www.europarl.europa.eu/RegData/etudes/STUD/2020/652718/IPOL_STU(2020)652718_EN.pdf.
139
Ibid, p. 45.
140
Ibid, p. 10.
141
Ibid, p. 66.
142
Pour les États-Unis, voir le titre 47, section 230 de la Communication Decency Act,
https://www.fcc.gov/general/telecommunications-act-1996 ; pour l’UE, voir la Directive 2000/31/CE du
Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société
de l’information, et notamment du commerce électronique, dans le marché intérieur (« directive sur le
commerce électronique »),
https://eur-lex.europa.eu/legal-content/FR/TXT/HTML/?uri=CELEX:32000L0031&from=FR, art. 14 : « 1. Les
États membres veillent à ce que, en cas de fourniture d’un service de la société de l’information consistant à
stocker des informations fournies par un destinataire du service, le prestataire ne soit pas responsable des
informations stockées à la demande d’un destinataire du service à condition que: a) le prestataire n’ait pas
effectivement connaissance de l’activité ou de l’information illicites et, en ce qui concerne une demande en
dommages et intérêts, n’ait pas connaissance de faits ou de circonstances selon lesquels l’activité ou
l’information illicite est apparente ou b) le prestataire, dès le moment où il a de telles connaissances, agisse
promptement pour retirer les informations ou rendre l’accès à celles-ci impossible ». Quant à la protection des
mineurs, voir Directive 2010/13/UE du Parlement européen et du Conseil du 10 mars 2010 visant à la
coordination de certaines dispositions législatives, réglementaires et administratives des États membres
relatives à la fourniture de services de médias audiovisuels (Directive Services de médias audiovisuels) (version
codifiée) (texte présentant de l’intérêt pour l’EEE). Une version consolidée incluant les modifications introduites
en 2018 est disponible sur :
https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX:02010L0013-20181218.
143
Département politique des politiques économiques, scientifiques et de la qualité de la vie, op. cit., p. 21.
Page 42
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
144
Nunziato D. C., « The marketplace of ideas online », Notre Dame Law Review, 94, 2019, p. 1521,
https://scholarship.law.nd.edu/cgi/viewcontent.cgi?article=4844&context=ndlr.
145
C-324/09, L’Oréal et al. contre eBay International AG, paragraphes 113-115,
http://curia.europa.eu/juris/document/document.jsf?text=&docid=107261&pageIndex=0&doclang=fr&mode=l
st&dir=&occ=first&part=1&cid=12642628.
146
C-18/18, Eva Glawischnig-Piesczek contre Facebook Ireland Ltd., paragraphe 41,
http://curia.europa.eu/juris/document/document.jsf?text=&docid=218621&pageIndex=0&doclang=fr&mode=l
st&dir=&occ=first&part=1&cid=12642666.
147
Département politique des politiques économiques, scientifiques et de la qualité de la vie, op. cit. p. 20 ;
Policy Department Economic and Scientific Policy, « Liability of Online Service Providers for Copyrighted
Content - Regulatory Action Needed », janvier 2018, p. 10,
https://www.europarl.europa.eu/RegData/etudes/IDAN/2017/614207/IPOL_IDA(2017)614207_EN.pdf.
148
Ibid, p. 67.
Page 43
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
Les démocraties ont besoin d’une sphère publique solide pour survivre et s’épanouir150.
L’existence et l’échange de visions du monde et d’opinions politiques alternatives sont
indispensables à leur survie. Plus généralement, au sein des démocraties, « les gens
devraient être exposés à des matériels qu’ils n’auraient pas choisis à l’avance »151, car l’un
des avantages historiquement associé aux démocraties est que « les biais sont filtrés dans
la vaste république »152.
Les médias sociaux ont inondé la politique contemporaine. Les facultés de droit et
les tribunaux ont réagi en développant lentement mais sûrement l’idée classique des
forums publics pour y intégrer également les sites de médias sociaux privés153. En raison de
leur rôle social omniprésent et de leur importance cruciale pour fournir au public des flux
d’informations et des opinions politiques, la Cour suprême des États-Unis a qualifié les sites
de médias sociaux de « place publique moderne »154. Ils sont tellement essentiels à la vie
sociale et politique, a fait valoir la Cour, qu’ils doivent être accessibles au grand public 155.
Depuis 2001, les tribunaux américains ont également « considéré les ordinateurs et l’accès
à internet comme “pratiquement indispensables dans le monde moderne des
communications et de la collecte d’informations” »156.
Les médias sociaux ne sont cependant pas des lieux universellement accessibles
dans lesquels tout le monde est accueilli et peut faire valoir ses arguments. L’analyse des
données massives permet aux médias sociaux de segmenter la sphère publique en bulles
autoréférentielles157. Même les plateformes médiatiques qui ne filtrent pas
intentionnellement l’information adaptent leurs flux d’informations aux besoins et aux
choix de leurs utilisateurs, créant ainsi des bulles informationnelles. De telles bulles sont
capables de diviser l’opinion publique en sphères d’influence homogènes et
impénétrables158.
La création de chambres d’écho homogènes, partisanes et non conversationnelles
ne remplace pas le pluralisme159 démocratique et peut même le menacer160. Le scandale de
Cambridge Analytica, qui aurait récolté les données des utilisateurs de Facebook sans leur
consentement afin de développer des « profils psychographiques » avant de cibler des
149
Pour un point de vue différent sur la question des bulles de filtres/chambres d’écho, voir le chapitre 5 de
cette publication.
150
Wischmeyer T., « Making social media an instrument of democracy », European Law Journal, 25, 2019, p. 172,
https://onlinelibrary.wiley.com/doi/abs/10.1111/eulj.12312.
151
Sunstein C. R., op. cit. p. 6.
152
McGinnis J. O., Accelerating Democracy, Princeton University Press, 2013, p. 127.
153
Nunziato D. C., op. cit., p. 3.
154
Packingam v. North Carolina 582 U.S. ___ (2017), https://www.supremecourt.gov/opinions/16pdf/15-
1194_08l1.pdf.
155
Ibid.
156
Shefa M. C., op. cit., p. 164.
157
Sunstein C. R., op. cit.
158
Sasahara K. et al., op. cit.
159
Wischmeyer T., op. cit., pp. 173-174.
160
Manheim K. & Kaplan L., op. cit. p. 109.
Page 44
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
individus sélectionnés pour orienter leurs comportements de vote161, n’est qu’un exemple
de la façon dont les données massives peuvent affecter la vie politique 162. Et il est prouvé
que des robots alimentés par les données massives sont déployés pour influencer les
agendas politiques163.
Cass Sunstein, professeur de droit à Harvard, a étudié l’impact des plateformes de
médias sociaux basées sur l’IA dans la sphère politique dans son ouvrage célèbre,
#Republic164. Sunstein a démontré de manière convaincante la capacité de l’IA à générer des
groupes d’information et à polariser la vie politique. Les campagnes politiques peuvent
cibler des utilisateurs bien profilés, les exposant à certaines opinions ou certains faits tout
en faisant taire ou en minimisant les déclarations des opposants politiques ou les faits qui
remettraient en question leur propre programme et leur propre agenda165. L’IA divise ainsi
la sphère publique en environnements homogènes qui n’interagissent pratiquement pas
entre eux. Les politiciens qui réussissent vont souvent à l’extrême pour galvaniser leurs
partisans et renforcer le système des bulles.
La politique des données massives brouille souvent la ligne entre capacité
personnelle et capacité institutionnelle. De nombreuses personnalités politiques préfèrent
utiliser leur profil personnel dans les médias sociaux plutôt que leur profil institutionnel
pour également communiquer avec le grand public sur des questions institutionnelles. En
utilisant leurs profils personnels, ils forcent le public – qui suivrait normalement les pages
et les profils des médias institutionnels – à entrer dans leur sphère de partisans.
Certains systèmes juridiques ont déployé des contre-mesures pour lutter contre
cette privatisation de la sphère publique en chambres d’écho médiatiques séparées.
L’expérience américaine est l’exemple le plus éloquent de cette évolution. De nombreuses
personnalités publiques – dont le président Donald Trump – qui ont utilisé des sites web
personnels à des fins institutionnelles ont bloqué les personnes qui faisaient des
commentaires critiques sur leurs messages (ou « posts »), les empêchant ainsi de s’exprimer
devant les citoyens166. Certains citoyens ainsi expulsés du public ont poursuivi les politiciens
concernés – et ont obtenu gain de cause devant les tribunaux. Les juges ont examiné la
structure des plateformes médiatiques et la manière dont les politiciens les utilisent, et ont
conclu que ces plateformes devaient être considérées comme des lieux publics qui
devraient rester ouverts à tous. Les hommes politiques pouvaient toujours « mettre en
sourdine » leurs followers, les empêchant ainsi d’engager une conversation dans le cadre de
161
Ibid, p. 139.
162
Pour d’autres exemples provenant de divers pays, voir Gurumurthy A. et Bharthur D., « Democracy and the
algorithmic turn », Sur International Journal of Human Rights, 27, 2018, pp. 43-44,
https://sur.conectas.org/en/democracy-and-the-algorithmic-turn, et Tenove C., Buffie J., McKay S. et Moscrop
D., Digital threats to democratic elections: how foreign actors use digital techniques to undermine democracy,
janvier 2018, passim, https://democracy2017.sites.olt.ubc.ca/files/2018/01/DigitalThreats_Report-FINAL.pdf.
163
Lorsque la Federal Communications Commission (Commission fédérale des communications – FCC) a
envisagé d’abroger certaines règles régissant internet en 2017, 21 millions des commentaires sur les 22 millions
reçus par la Commission sur son site web étaient de fausses nouvelles (Manheim K. & Kaplan L., op. cit., p. 145.)
164
Sunstein C. R., op. cit.
165
Mor N., « No Longer Private: On Human Rights and the Public Facet of Social Network Sites », Hofstra Law
Review 47 (2018), p. 669, https://www.hofstralawreview.org/wp-content/uploads/2019/04/bb.7.mor_.pdf (6
août 2020).
166
Ibidem, p. 42 ff.
Page 45
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
leur propre profil, mais ils ne pouvaient pas les « bloquer », car cela aurait empêché certains
citoyens d’être informés sur des questions d’intérêt général167.
167
Knight First Amendment Inst. at Columbia Univ. v. Trump 302 F. Supp. 3d 541 (SDNY 2018),
https://digitalcommons.law.scu.edu/cgi/viewcontent.cgi?article=2780&context=historical (6 août 2020).
168
(Bridges) v. The Chief Constable of South Wales Police et al.¸ [2019] EWHC 2341, https://www.judiciary.uk/wp-
content/uploads/2019/09/bridges-swp-judgment-Final03-09-19-1.pdf.
169
Carter W. M., « Big Brother facial recognition needs ethical regulations », The Conversation, 22 juillet 2018,
https://theconversation.com/big-brother-facial-recognition-needs-ethical-regulations-99983.
170
Lopez Ribalda et autres c. Espagne (requêtes n° 1874/13 et 8567/13 : http://hudoc.echr.coe.int/fre?i=001-
197098) ; Gorlov et autres c. Russie (requête n° 27057/06 ; 56443/09 ; 25147/14 :
http://hudoc.echr.coe.int/spa?i=001-194247) ; Antovic et Mirkovic c. Monténégro (requête n° 70838/13 :
http://hudoc.echr.coe.int/fre?i=001-178904) ; Bărbulescu c. Roumanie (requête n° 61496/08 :
http://hudoc.echr.coe.int/spa?i=001-177082).
Page 46
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
formation171. Les faux positifs ont souvent des conséquences pratiques, car ils peuvent
renforcer les préjugés raciaux et orienter les institutions publiques, telles que les
patrouilles de police, à cibler les minorités ethniques pour lesquelles le logiciel renvoie
davantage de faux positifs172.
Troisièmement, la reconnaissance faciale peut être trompeuse pour diverses
raisons. Certains logiciels sont capables d’exploiter les immenses capacités de l’IA en
utilisant des images en direct et enregistrées provenant de n’importe quelle source
internet173. Cette technologie peut exploiter l’industrie des médias pour rassembler plus de
matériel et augmenter sa base de données. Un débat est en cours sur les avantages et les
inconvénients liés au développement ou à l’adoption d’un logiciel qui passe au crible le
web pour trouver des correspondances, comme cela s’est produit dans de nombreux
services de police locaux aux États-Unis pour retrouver des suspects. Un ensemble de
données aussi énorme s’appuie sur une multiplicité de matériels qui peuvent être
fallacieux, incorporer des biais174 et enregistrer dans un dossier tout élément de la vie
sociale ou médiatique.
Il n’est pas surprenant qu’IBM,175 Microsoft176 et Amazon177 aient récemment déclaré
qu’ils ne proposeraient plus leurs technologies de reconnaissance faciale à la police. De
nombreux États américains envisagent d’interdire la reconnaissance faciale artificielle ou
ont déjà mis en œuvre une législation qui la limite ou l’interdit178. Il existe donc un
consensus croissant dans les pays occidentaux sur le fait que même les intérêts publics ne
peuvent justifier des systèmes de surveillance de masse omniprésents qui exploitent le
web.
171
Buolamwini J. & Gebru T., « Gender shades: Intersectional accuracy disparities in commercial gender
classification » Proceedings of Machine Learning Research 81, 2018, pp. 1 et 15,
http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf.
172
Fung B. et Metz R., « This may be America’s first known wrongful arrest involving facial recognition », 24
juin 2020, CNN Business, https://edition.cnn.com/2020/06/24/tech/aclu-mistaken-facial-
recognition/index.html.
173
Hill K., « The secretive company that might end privacy as we know it », New York Times, 18 janvier 2020,
https://www.nytimes.com/2020/01/18/technology/clearview-privacy-facial-recognition.html ; Ducklin P.,
« Clearview AI facial recognition sued again – this time by ACLU », Naked Security, 29 May 2020,
https://nakedsecurity.sophos.com/2020/05/29/clearview-ai-facial-recogition-sued-again-this-time-by-aclu.
174
Geiger R. S. et al., « Garbage in, garbage out? Do machine learning application papers in social computing
report where human-labeled training data comes from? », https://arxiv.org/abs/1912.08320.
175
Krishna A., « IBM CEO’s Letter to Congress on Racial Justice Reform », 8 juin 2020,
https://www.ibm.com/blogs/policy/facial-recognition-susset-racial-justice-reforms/.
176
Greene J. « Microsoft won’t sell police its technology, following similar moves by Amazon and IBM », The
Washington Post, 11 juin 2020, https://www.washingtonpost.com/technology/2020/06/11/microsoft-facial-
recognition/.
177
Hao K., « The two-year fight to stop Amazon from selling face recognition to the police », MIT Technology
Review, 12 juin 2020, https://www.technologyreview.com/2020/06/12/1003482/amazon-stopped-selling-
police-face-recognition-fight. Voir également Hartzog W., op. cit., pp. 76-77.
178
Voir la loi de l’Illinois relative au caractère privé des informations biométriques,
https://www.termsfeed.com/blog/bipa/.
Page 47
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
179
Tsesis T., op. cit., p. 1589.
180
Google Spain SL et al. c. Agencia Española de Protección de Datos, C-131/12, https://eur-lex.europa.eu/legal-
content/FR/TXT/HTML/?uri=CELEX:62012CJ0131&from=FR.
181
Ibid., paragraphe 22.
182
AGCM, AGCOM, et Garante per la protezione dei dati personali, Indagine conoscitiva sui Big Data, op. cit., pp.
26 et 78.
Page 48
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
web à maintes reprises183. Les quelques entreprises qui exploitent le potentiel des données
massives peuvent patrouiller encore plus loin sur leur territoire en se livrant à des
« acquisitions tueuses », par lesquelles elles achètent des start-ups innovantes soit pour
exploiter les données qu’elles ont collectées184, soit pour protéger leur position
dominante185. Selon les mots de Frank Pasquale, comme « le pharaon essaie de tuer le bébé
Moïse », les grandes entreprises technologiques peuvent refuser à leurs rivaux « la
possibilité de se développer »186.
La présence simultanée de plusieurs entreprises qui utilisent des données massives
ne garantit pas qu’un marché soit concurrentiel187. Les données massives peuvent contribuer
à l’élaboration de stratégies de marché, notamment en matière de prix, qui profitent aux
concurrents et non aux clients. Il est prouvé que les algorithmes de différentes entreprises
peuvent maximiser les prix par une stratégie collusoire implicite, simplement en traitant
les informations sur le marché lui-même188. Un algorithme peut suggérer à une entreprise
d’augmenter ses prix parce qu’il prédit que ses concurrents décideront de faire de même.
Grâce au profilage et au regroupement des utilisateurs, ils peuvent également
« segmenter... le marché » et faire payer chaque utilisateur en fonction de ce qu’il est
disposé à payer. Ces pratiques créent « un revenu maximum [pour les entreprises] mais pas
de bien-être pour les consommateurs »189. Une telle stratégie de marché dirigée par les
données n’est généralement pas sanctionnable, car il n’y a pas de collusion, mais elle
présente les avantages qui découlent habituellement des comportements collusoires190.
183
Contrôleur européen de la protection des données, Avis 3/2018 Avis du CEPD sur la manipulation en ligne
et les données à caractère personnel, op. cit., p. 7.
184
Zuboff S., The Age of Surveillance Capitalism, Profile Books, 2019, pp. 102-103.
185
AGCM, AGCOM, et Garante per la protezione dei dati personali, « Indagine conoscitiva sui Big Data », op. cit.,
p. 81, Voir également Hughes C., op. cit.
186
Pasquale F., The Black Box Society, Harvard University Press, 2015, p. 67.
187
Contrôleur européen de la protection des données, Opinion 3/2020 on the European strategy for data, op.
cit. p. 8 (où il est mis en garde contre la création ou le renforcement de « situations d’oligopole de données »).
188
Den Boer A. V., « Dynamic pricing and learning: Historical origins, current research, and new directions »,
Surveys in operations research and management science, 20, 2015, p. 1,
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2334429 ; AGCM, AGCOM, et Garante per la protezione
dei dati personali, « Indagine conoscitiva sui Big Data”, op. cit.
189
Délégué européen à la protection des données, Avis 8/2016 Avis du CEPD sur une application cohérente des
droits fondamentaux à l’ère des données massives (Big Data), op. cit. p. 6.
190
Harrington, J. E. Jr., « Developing competition law for collusion by autonomous artificial agents », Journal of
Competition Law & Economics, 14, 2019, pp. 349-351,
https://academic.oup.com/jcle/article-abstract/14/3/331/5292366?redirectedFrom=fulltext.
Page 49
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
domaine191, mais semblent maintenant avoir accepté la nécessité de limiter l’IA, bien
qu’elles privilégient l’autorégulation des entreprises aux règles imposées par les États.
Toutefois, la plupart des contraintes ne visent pas à freiner l’utilisation de l’IA ; en
fait, elles sont censées renforcer son rôle en la rendant plus fiable et digne de confiance192.
Il existe en effet un large consensus sur le fait que l’IA doit être « légale » (conforme à la
loi), « éthique » (s’engager à respecter les principes et valeurs éthiques) et « robuste »
(technologiquement et sociologiquement sûre), afin de s’intégrer avec succès dans les
sociétés humaines193.
Les débats soulignent souvent que les analyses de données massives ont besoin
d’une nouvelle approche en matière de réglementation juridique. Les outils traditionnels
peuvent ne pas suffire à garantir que le monde des données massives respecte les valeurs
humaines fondamentales. En raison de la structure de boîte noire de l’IA et de ses effets à
grande échelle, les sanctions juridiques ne sont guère capables de contraindre les
technologies et stratégies basées sur les données massives. Les poursuites judiciaires
peuvent arriver tardivement, lorsque la réputation d’une personne ou d’une entreprise est
en ruine, et les responsabilités peuvent être difficiles à localiser. L’IA doit intégrer des
valeurs juridiques dans son traitement des données, afin de s’assurer qu’elle les protège
pendant son fonctionnement.
En raison de la richesse des informations qu’elle recueille, de son déploiement
omniprésent et de sa capacité à remplacer les opérateurs humains par des robots, l’IA pose
également des questions éthiques. L’éthique numérique est une nouvelle frontière pour la
réglementation de l’IA et attire fortement l’attention, en particulier aux États-Unis, au
Canada et en Europe, où les codes éthiques se multiplient194. En tant que domaine, l’éthique
numérique couvre une multitude de sujets, notamment « les problèmes moraux liés aux
données et aux informations ..., les algorithmes ... et les pratiques et infrastructures
correspondantes »195, d’une manière qui recoupe différentes disciplines et perspectives.
Bien que le débat soit extrêmement animé, la situation évolue peu en ce moment,
notamment en raison des difficultés à différencier les composantes juridiques et éthiques
de la réglementation de l’IA196.
191
Zuboff S., op. cit. p. 105.
192
Van Dijk N. & Casiraghi S., « The ethification of privacy and data protection law in the European Union: The
case of artificial intelligence », Brussels Privacy Hub, 6, 22, mai 2020, p. 5,
https://brusselsprivacyhub.eu/publications/BPH-Working-Paper-VOL6-N22.pdf.
193
Groupe d’experts de haut niveau sur l’intelligence artificielle, Lignes directrices en matière d’éthique pour
une IA digne de confiance, p. 2, https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-
trustworthy-ai. Voir N. van Dijk & S. Casiraghi, op. cit., p. 14.
194
Jobin A., Ienca M. et Vayena E., « The global landscape of AI ethics guidelines », Nature Machine Intelligence,
1, 2019, pp. 393-395, https://www.nature.com/articles/s42256-019-0088-2.
195
Floridi L., op. cit., p. 3.
196
Par exemple, voir la Recommandation CM/Rec(2020)1 du Comité des Ministres aux États membres sur les
impacts des systèmes algorithmiques sur les droits de l’homme du Conseil de l’Europe, 8 avril 2020,
https://search.coe.int/cm/pages/result_details.aspx?objectid=09000016809e1154, qui présente la variété des
couches réglementaires nécessaires au développement de systèmes fondés sur l’IA.
Page 50
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
2.9. Conclusion
Les données massives sont une des raisons principales du succès sociétal, économique et
politique de l’IA. Le traitement d’énormes quantités de données est crucial pour les grandes
entreprises technologiques. Cependant, tout n’est pas parfait, et les personnes impliquées
dans le secteur doivent prendre des mesures pour que l’IA soit bénéfique pour l’être
humain197. Chris Hughes, co-fondateur de Facebook, a averti que la numérisation de
l’économie pourrait contribuer à ce qu’il perçoit comme « un déclin de l’esprit d’entreprise,
une stagnation de la croissance de la productivité, des prix plus élevés et moins de choix
pour les consommateurs »198. Les enjeux sont tels qu’un député français a même soumis une
proposition visant à inscrire une Charte de l’intelligence artificielle et des algorithmes dans le
préambule de la constitution française, afin de mieux protéger les droits de l’homme199.
L’IA maximise la mobilisation des individus. Obtenir « autant de réponses que
possible du plus de personnes possibles» est un facteur clé de succès, car cela permet de
fournir un retour d’information et donne aux entreprises la possibilité d’adapter en temps
réel leurs plans et modèles commerciaux à leurs clients200. Les acteurs politiques et
influenceurs sociaux exploitent ce phénomène en déclenchant des réactions émotionnelles
chez leur public potentiel. La politique et l’économie des données massives placent les
médias au centre de la scène, car ils diffusent les nouvelles, recueillent les informations,
traitent les émotions et relient les sphères sociales.
Les données massives amplifient le rôle des médias pour les sociétés
contemporaines. Les entreprises, les responsables politiques, les décideurs et autres
personnalités politiques exploitent les données massives pour promouvoir leurs idées, leurs
programmes et leurs opinions, ainsi que pour influencer leur auditoire201. Les plateformes
internet permettent aux médias traditionnels de diffuser leur contenu et de générer une
nouvelle concurrence entre les médias traditionnels et les nouveaux médias.
Les acteurs médiatiques peuvent également jouer un rôle négatif. En profilant les
« schémas de pensée et la composition psychologique », ils peuvent délibérément
désinformer un public et l’induire en erreur202. En outre, dans les pays où peu d’acteurs
médiatiques opèrent, ou dans lesquels il n’existe que des médias sociaux gérés par l’État
ou presque203, un régime politique peut contrôler efficacement les informations et la façon
dont les gens y réagissent, en diffusant des réactions favorables fabriquées de toutes pièces
197
Voir les Principes d’Asilomar, développés en conjonction avec la conférence d’Asilomar de 2017. Future of
Life Institute, https://futureoflife.org/ai-principles.
198
Voir également Hughes C., op. cit.
199
http://www.assemblee-nationale.fr/dyn/15/textes/l15b2585_proposition-loi.
200
Akin Unver H., « Artificial intelligence, authoritarianism and the future of political systems », Centre for
Economics and Foreign Policy Studies, juillet 2019, p. 3, https://edam.org.tr/wp-
content/uploads/2018/07/AKIN-Artificial-Intelligence_Bosch-3.pdf.
201
Idem.
202
Contrôleur européen de la protection des données, Avis 4/2015. Vers une nouvelle éthique numérique, op.
cit., p. 7.
203
Pasquale F., op. cit. p. 10, note que « la distinction entre l’État et le marché s’estompe » en raison du
déploiement massif de l’IA dans des secteurs stratégiques d’intérêt public et privé.
Page 51
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
et en isolant les commentaires défavorables204. Dans le scénario généré par les données
massives, les médias peuvent jouer un rôle majeur en protégeant la démocratie, l’égalité,
les groupes minoritaires et les sociétés ouvertes – ou en les affaiblissant205.
Enfin, la surveillance de masse peut avoir un effet dissuasif sur la créativité et
l’innovation. Malgré les attentes antérieures selon lesquelles l’IA ne ferait que stimuler
l’inventivité206, certains observent « une tendance à décourager ou à pénaliser la
spontanéité, l’expérimentation ou la déviation par rapport à la “norme” statistique et à
récompenser un comportement conformiste »207.
Le vaste déploiement de l’IA auquel nous assistons exige que la sphère médiatique
prenne conscience du rôle unique qui est le sien. Le secteur des médias doit s’efforcer
d’utiliser l’IA de manière légale, éthique et robuste. Grâce à leur rôle de liaison, les médias
pourraient encourager le monde plus large des entreprises basées sur l’IA à adopter les
mêmes valeurs et à devenir légales, éthiques et robustes. En particulier, un engagement
éthique peut encourager les plateformes médiatiques à ne pas se limiter à un rôle purement
passif. Bien que de nombreuses réglementations limitent la responsabilité juridique des
fournisseurs vis-à-vis du contenu qu’ils hébergent208, et que les charges supplémentaires
imposées aux médias n’aient pas réussi à encourager un renforcement du contrôle, les
plateformes médiatiques peuvent néanmoins se fixer l’objectif éthique louable de surveiller
leur contenu209.
204
Akin Unver H., op. cit., p. 8. Voir également Meaker M., « How governments use the Internet to crush online
dissent », The Correspondent, 27 novembre 2019, https://thecorrespondent.com/142/how-governments-use-
the-internet-to-crush-online-dissent/18607103196-db0c0dab.
205
Groupe d’experts de haut niveau sur l’intelligence artificielle, « Lignes directrices en matière d’éthique pour
une IA digne de confiance », op. cit., p. 11.
206
Perritt, H. H., Jr., op. cit., p. 107.
207
Contrôleur européen de la protection des données, Avis 4/2015. Vers une nouvelle éthique numérique, op.
cit., p. 9. Voir également Pan S. B., op. cit., p. 257 (« The goal of big data is to generalize ») et Pasquale F., op.
cit., p. 188.
208
Perritt H. H., Jr., op. cit., p. 149.
209
ERGA2020 Subgroup 1 – Enforcement, ERGA Position Paper on the Digital Services Act, p. 6,
https://nellyo.files.wordpress.com/2020/06/erga_sg1_dsa_position-paper_adopted-1.pdf.
Page 52
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
La liberté d’expression,
la diversité et le pluralisme
L’usage de l’IA fait naître des préoccupations d’une importance particulière pour le domaine des
médias, relatives à la diversité et au pluralisme. Et pourtant, pour ceux qui sont en âge de se
souvenir du temps où le nombre de chaînes de TV d’un pays donné se comptait sur les doigts
d’une main et où les journaux se lisaient sur du papier journal, ce problème de diversité (du
moins du point de vue quantitatif) peut sembler quelque peu exagéré. Il existe de nos jours
quantité de chaînes de TV et tous les journaux du monde sont à la portée d’un simple clic. On
pourrait même dire que le seul obstacle qui empêche aujourd’hui quelqu’un d’accéder à
l’ensemble de l’information mondiale n’est pas le recours aux algorithmes, mais plutôt l’accès
payant de certains services. Mais c’est précisément parce que l’offre d’information est
extraordinairement large que les gens ont besoin de filtres. Et comme nous l’avons souligné plus
haut, l’IA ne manque pas d’efficacité lorsqu’il s’agit de filtrage. Les services de vidéo à la demande
ou d’information peuvent personnaliser l’information proposée à chaque utilisateur d’internet,
en fonction des programmes qu’il a regardés par le passé, des articles qu’il a lus, ou d’autres
préférences. Cela ne va pas sans poser de problèmes : les bulles dites de filtres qui surviennent
lorsque les algorithmes filtrent « les faits et les différents points de vue, renforçant ainsi les
points de vue profondément ancrés, voire les préjugés. » 210 Néanmoins, tout le monde ne
s’accorde pas sur l’existence et les effets de ces bulles de filtres. Dans sa contribution à cette
publication, Mira Burri admet que les médias sur mesure ont certaines répercussions sur la
diversité et qu’il est nécessaire d’être attentifs au pouvoir des plateformes, mais elle souligne
également ses doutes quant à leur impact direct sur la fragmentation du discours public et la
polarisation des opinions211. Même les partisans de la théorie de la bulle de filtres admettent ne
pas pouvoir démontrer son existence réelle212 et que les preuves concrètes de l’existence de ces
bulles sont pour l’instant plutôt limitées213. Sarah Eskens, dans sa contribution à cette
publication, affirme : « [L]e défi qui se pose actuellement pour les médias d’information et les
autorités publiques est l’élaboration de codes de déontologie journalistique, de normes
d’autorégulation, et peut-être même d’une réglementation propre à maîtriser les risques que
210
See Andrea Pin’s contribution to this publication. Voir la contribution d’Andrea Pin à cette publication.
211
Pour d’autres points de vue critiques sur ce sujet, voir par exemple Bruns A., « It’s Not the Technology, Stupid :
How the ‘Echo Chamber’ and ‘Filter Bubble’ Metaphors Have Failed Us », http://snurb.info/node/2526.
212
Zuiderveen Borgesius, F., Trilling, D., Moeller, J., Bodó, B., de Vreese, C. H., & Helberger, N., « Should we worry
about filter bubbles ? » Internet Policy Review, 5(1), https://doi.org/10.14763/2016.1.401.
213
Helberger N., Eskens S., van Drunen M., Bastian M., Moeller J., Les incidences des applications d’IA dans les
médias sur la liberté d’expression, https://rm.coe.int/prems-044020-fra-2018-ai-and-freedom-of-expression-
txt-a4-web/16809e290e.
Page 53
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
soulève l’IA pour la liberté d’expression, tout en lui permettant de contribuer au débat public, au
pluralisme des médias, à la libre circulation de l’information et à d’autres objectifs sociétaux. »
Page 54
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
3.1. Introduction
Les médias d’information s’appuient de plus en plus sur l’intelligence artificielle (IA) dans
le cadre de leurs activités. En 2018, l’Institut Reuters pour l’étude du journalisme a interrogé
près de 200 acteurs importants du journalisme. Près des trois quarts d’entre eux ont indiqué
qu’ils avaient déjà recours à l’IA dans leur organisation214 .
L’utilisation de l’IA présente des opportunités pour les médias d’information et peut
les aider à remplir leur rôle démocratique. Un rapport de l’Union européenne de radio-
télévision a aussi souligné les opportunités qu’offre l’IA pour le journalisme de service
public215. Le recours à l’IA par les médias d’information pourrait ainsi tomber dans le champ
de la protection de la liberté d’expression des médias, ce qui est un facteur important
compte tenu des appels à réglementer l’IA dans plusieurs domaines. Dans le même temps,
l’utilisation de l’IA par les médias d’information pourrait avoir un impact sur la capacité des
autres participants au débat public à exercer leur droit à la liberté d’expression. Par
exemple, les organismes d’information peuvent s’appuyer sur des algorithmes pour
modérer les commentaires sur leurs sites web. Si la modération automatisée présentait un
biais en faveur, par exemple, de l’anglo-américain standard, elle pourrait empêcher
certaines voix de se faire entendre dans le débat public.
Alors que les législateurs débattent de la nécessité d’encadrer l’IA, il convient de
s’interroger sur la mesure dans laquelle l’usage de l’IA par les médias d’information peut
être réglementé et sur l’équilibre à trouver entre la liberté des médias d’une part et les
autres droits et intérêts liés au recours à l’IA par les médias d’information d’autre part. La
façon dont les médias d’information utilisent l’IA façonne notre environnement
informationnel et pourrait avoir des effets importants sur le débat public, le pluralisme et
la diversité de l’information, la libre circulation de l’information et d’autres valeurs
214
Newman N., Journalism, media, and technology trends and predictions 2018 , Institut Reuters pour l’étude du
journalisme, p. 29,
https://reutersinstitute.politics.ox.ac.uk/sites/default/files/2018-
01/RISJ%20Trends%20and%20Predictions%202018%20NN.pdf.
215
Union européenne de radio-télévision, « The next newsroom: Unlocking the power of AI for public service
journalism », https://www.ebu.ch/publications/news-report-2019.
Page 55
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
publiques attachées aux médias d’information216. Les questions que soulève l’utilisation de
l’IA par les médias d’information sont uniques en raison du rôle démocratique qui leur
incombe. Ce chapitre se concentre donc sur l’usage de l’IA par les médias d’information, et
non par les autres médias, comme les médias de divertissement, qui exige de trouver un
équilibre des intérêts différent217.
Ce chapitre est structuré de la manière suivante : il présente le cadre général de la
protection de la liberté d’expression ; il examine la mesure dans laquelle le recours à l’IA
relève du champ de la liberté des médias, s’interroge sur le type de nouveaux acteurs qui
recourent à l’IA et peuvent se prévaloir de la liberté des médias, et sur les devoirs et
obligations qui pèsent sur les médias d’information lorsqu’ils utilisent l’IA. Il décrit ensuite
comment certaines applications d’IA utilisées par les médias d’information peuvent limiter
les droits à la liberté d’expression d’autres participants au débat public, notamment les
utilisateurs d’information et les citoyens ou personnalités politiques qui font entendre leur
voix grâce aux médias. L’objectif n’est pas de présenter ici un inventaire complet des risques
posés par l’utilisation de l’IA par les médias d’information. Il s’agit plutôt d’illustrer les défis
que pose l’IA pour la liberté d’expression afin de discuter en substance des droits
fondamentaux des différent participants au débat public. Enfin, ce chapitre examine les
obligations, en matière de liberté d’expression, qui s’imposent aux états au regard de
l’utilisation de l’IA par les médias d’information. Mais avant d’aborder ces questions, il
expose brièvement les principaux objectifs des médias d’information lorsqu’ils utilisent
l’IA.
216
Conseil de l’Europe, Recommandation CM/Rec(2018)1 du Comité des Ministres aux États membres sur le
pluralisme des médias et la transparence de leur propriété,
https://search.coe.int/cm/Pages/result_details.aspx?ObjectId=0900001680790e36 ;
Conseil de l’Europe, Recommandation CM/Rec(2015)6 du Comité des Ministres aux États membres sur la libre
circulation transfrontière des informations sur internet,
https://search.coe.int/cm/Pages/result_details.aspx?ObjectId=09000016805c3f76.
217
Voir chapitre 4 de cette publication.
218
Beckett C., « New powers, new responsibilities: A global survey of journalism and artificial intelligence »,
London School of Economics and Political Science, p. 16,
https://blogs.lse.ac.uk/polis/2019/11/18/new-powers-new-responsibilities/.
Page 56
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
chapitres de cette publication illustrent la diversité des applications pour les médias qui
sont considérées comme relevant de l’IA.
Dans ce chapitre, on distingue quatre objectifs pour lesquels les médias
d’information peuvent utiliser l’IA : la collecte d’informations, la production d’informations,
la distribution d’informations, et la modération des commentaires des utilisateurs219. Les
trois premiers objectifs relèvent d’un processus journalistique classique, et le quatrième
objectif résulte de la possibilité qu’offrent parfois les médias d’information de poster des
commentaires sur leurs sites web. Comme souligné dans un récent rapport de l'Assemblée
parlementaire, la plupart des discussions sur l'utilisation de l'IA dans les processus de
communication en ligne ont porté sur la modération du contenu, tandis que la manière dont
l'IA façonne l'environnement de l'information en ligne est tout aussi importante220.
Au point de départ du processus journalistique, les médias d’information peuvent
recourir à l’IA pour la collecte d’informations. L’IA peut en effet être utilisée pour identifier
des informations et événements importants, générer des idées de sujets, et suivre des
événements et des questions d’actualité. Une fois que les journalistes ont recueilli des
informations sur des sujets éventuels, ils peuvent utiliser l’IA pour la production
d’informations. Il s’agit par exemple de l’usage de l’IA pour la rédaction de sujets (parfois
appelée « journalisme automatisé ») 221, la création d’images et de vidéos, la vérification des
informations, ou la réadaptation de contenus pour de nouveaux publics. Les médias
d’information peuvent enfin recourir à l’IA lors de la dernière étape du processus
journalistique, à savoir la distribution de l’information. Il s’agit du recours à l’IA pour
proposer des recommandations personnalisées, trouver de nouveaux publics, promouvoir
l’image de marque du média, et vendre des abonnements. Le recours à la personnalisation
a souvent un double objectif. Celle-ci aide les médias d’information à mieux servir leurs
utilisateurs, et, notamment pour les médias de service public, à remplir leur mission de
service public222. Elle les aide également à conserver leurs abonnés, à renforcer
l’engagement des utilisateurs, et à générer ainsi des revenus de vente et de publicité223.
Alors que les médias d’information ont donné la possibilité à leurs lecteurs de poster
des commentaires sur leurs plateformes en ligne, l’IA peut leur permettre d’assurer une
modération plus efficace de ces commentaires. Par exemple, le New York Times a mis en
place un système qui repose sur l’apprentissage automatique pour modérer en priorité
certains commentaires et en approuver de façon automatisée224. Le New York Times assure
la modération de près de 12 000 commentaires par jour et le système automatisé permet
219
Beckett C., Ibid., p. 20.
220
Assemblée Parlementaire, Rapport: La nécessité d’une gouvernance démocratique de l’intelligence
artificielle (24 septembre 2020), para. 18-19, https://pace.coe.int/en/files/28742/html.
221
Dörr K.N., « Mapping the field of algorithmic journalism », Digital Journalism 4(6), pp. 700–722,
https://doi.org/10.1080/21670811.2015.1096748.
222
Van den Bulck H. et Moe H., « Public service media, universality and personalisation through algorithms:
Mapping strategies and exploring dilemmas », Media, Culture & Society 40(6), pp. 875–92,
https://doi.org/10.1177/0163443717734407.
223
Bodó B., « Selling news to audiences: A qualitative inquiry into the emerging logics of algorithmic news
personalization in European quality news media », Digital Journalism 7(8), pp. 1054–75,
https://doi.org/10.1080/21670811.2019.1624185.
224
Etim B., « The Times sharply increases articles open for comments, using Google’s technology », The New
York Times, https://www.nytimes.com/2017/06/13/insider/have-a-comment-leave-a-comment.html.
Page 57
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
225
Beckett C., Ibid., p. 28.
226
Cour européenne des droits de l'homme, Handyside c. Royaume-Uni [1976], 5493/72, paragraphe 49,
http://hudoc.echr.coe.int/fre?i=001-62057.
227
McNair B., « Journalism and democracy » in T. Hanitzsch et K. Wahl-Jorgensen (éd.) The Handbook of Journalism
Studies, Routledge, pp. 237–49.
Page 58
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
Les médias ont également une fonction de médiation entre citoyens et personnalités
politiques, dans la mesure où ils permettent l’existence d’un espace public dans lequel
citoyens et politiques peuvent communiquer par le biais de lettres, d’articles d’opinion, de
débats en studio et de contributions à des articles.
La Cour européenne des droits de l’homme a réaffirmé ces diverses fonctions
démocratiques des médias. Elle a considéré que les médias d’information avaient comme
tâches de distribuer l’information et d’assurer un rôle de contrôle ou de « chien de garde »
public228. À cet égard, la Cour a estimé que la liberté d’expression protégeait tant les
activités de recherche de l’information que sa publication229, et non seulement le contenu
des informations mais aussi les moyens techniques de transmission ou de captage230. De
plus, la Cour a établi que l'ouverture d'espaces de débat public était l’une des missions des
médias d'information231.
Le recours à l’IA par les médias d’information s’inscrit dans leur rôle démocratique
tel que protégé par le droit à la liberté d’expression. Ceux-ci peuvent utiliser l’IA pour
rassembler des informations sur des sujets d’actualité, par exemple en analysant les
données massives (ou big data) au moyen de l’IA. Ils peuvent également s’en servir pour
proposer des informations adaptées à chaque citoyen, selon ses intérêts personnels et ses
besoins en information. Les médias d’information peuvent aussi s’appuyer sur l’IA pour
suivre et surveiller le comportement de grandes entreprises ou la mise en œuvre de
politiques publiques. Enfin, ils peuvent également, grâce à l’IA, améliorer le forum de débat
public en modérant automatiquement les commentaires de lecteurs.
En raison de leurs fonctions démocratiques, les médias d’information bénéficient
d’une protection particulière de leur liberté d’expression. La Cour européenne des droits de
l’homme a affirmé que la liberté d’expression revêtait une importance spéciale pour les
médias d’information232. En ce qui les concerne, la Cour parle donc de la « liberté de la
presse »233 autrement appelée liberté des médias234. La Cour a estimé que les autorités
publiques disposaient d’une marge d’appréciation plus étroite pour déterminer s’il existe
un besoin social impérieux d’interférer avec la liberté des médias235, par rapport à celle dont
ils disposent au regard de la liberté d’expression d’autres types d’intervenants. De plus, la
Cour a établi que la liberté des médias protégeait les médias d’information contre
l’influence de groupes politiques et économiques puissants dans la société, et garantissait
228
Cour européenne des droits de l’homme, Barthold c. Allemagne [1985], 8734/79, paragraphe 58,
http://hudoc.echr.coe.int/eng?i=001-61990.
229
Cour européenne des droits de l’homme, Dammann c. Suisse [2006], 77551/01, paragraphe 52,
http://hudoc.echr.coe.int/eng?i=001-75174.
230
Cour européenne des droits de l’homme, Autotronic AG c. Suisse [1990], 12726/87, paragraphe 47,
http://hudoc.echr.coe.int/eng?i=001-62187.
231
Cour européenne des droits de l’homme, Társaság a Szabadságjogokért c. Hongrie [2009], 37374/05,
paragraphe 27, http://hudoc.echr.coe.int/eng?i=001-92179.
232
Cour européenne des droits de l’homme, Sunday Times c. Royaume-Uni (No. 1) [1979], 6538/74, paragraphe
65, http://hudoc.echr.coe.int/eng?i=001-62140.
233
Cour européenne des droits de l’homme, Sunday Times c. Royaume-Uni (No. 1), paragraphe 66.
234
Oster J., Media Freedom as a Fundamental Right, Cambridge University Press, p. 48.
235
Cour européenne des droits de l’homme, Busuioc c. Moldova [2004], 61513/00, paragraphe 65,
http://hudoc.echr.coe.int/eng?i=001-67745.
Page 59
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
leur liberté éditoriale236. Dans le contexte du recueil d’information, la liberté des médias
protège les sources des journalistes237, et les médias peuvent avoir un droit d’accès aux
informations dont disposent les autorités publiques238. Pour autant que l’IA entre dans le
champ de la liberté des médias, les autorités publiques sont limitées lorsqu’il s’agit de la
réglementer. La prochaine section s’interroge sur les acteurs qui sont susceptibles de se
prévaloir de la liberté des médias.
236
Cour européenne des droits de l’homme, Manole et autres c. Moldova [2009], 13936/02, paragraphe 98,
http://hudoc.echr.coe.int/fre?i=001-94076.
237
Cour européenne des droits de l’homme [GC], Goodwin c. Royaume-Uni [1996], 17488/90, paragraphe 39,
http://hudoc.echr.coe.int/eng?i=001-62533.
238
Cour européenne des droits de l’homme [GC], Goodwin c. Royaume-Uni [1996], 17488/90, paragraphe 39,
http://hudoc.echr.coe.int/eng?i=001-62533.
239
Newman N. et al., « Digital News Report 2020 », Institut Reuters pour l’étude du journalisme, pp. 11–12,
https://reutersinstitute.politics.ox.ac.uk/sites/default/files/2020-06/DNR_2020_FINAL.pdf.
240
Cour européenne des droits de l’homme, Steel and Morris c. Royaume-Uni [2005], 68416/01, paragraphe 89,
http://hudoc.echr.coe.int/eng?i=001-68228.
Page 60
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
seule prérogative des médias d’information professionnels et que des organisations non
gouvernementales (ONG) pouvaient aussi jouer un tel rôle241. Elle a indiqué que les ONG
assumaient par conséquent une fonction de « chien de garde social ». Les activités des
organisations de la société civile peuvent donc jouir d’une protection comparable au regard
des principes de la CEDH à celle dont bénéficient les médias d’information242. Ces décisions
de la Cour européenne des droits de l’homme pourraient constituer une base à partir de
laquelle les intermédiaires en ligne, selon le rôle sociétal qu’ils jouent, pourraient être
reconnus comme des acteurs comparables aux médias d’information.
Comme nous l’avons vu dans la section précédente, la loi en matière de liberté
d’expression reconnaît trois fonctions démocratiques que remplissent les médias
d’information : la fourniture d’information au public, la création d’un espace de débat public
et leur rôle de « chien de garde ». En s’appuyant sur l’IA, les intermédiaires en ligne peuvent
remplir deux de ces fonctions en particulier. Ils peuvent faire en sorte que l’information soit
plus facile à trouver et à consulter, grâce à des flux d’information personnalisés et à un
accès facile à toute une gamme d’éditeurs de médias d’informations. Les intermédiaires en
ligne peuvent aussi créer des forums pour le débat public en permettant aux éditeurs de
médias d’information, aux personnalités politiques et aux citoyens de poster des contenus
sur leurs plateformes au sein de groupes publics ou privés et en mettant à disposition
plusieurs formes d’engagement avec le contenu en ligne, par exemple la fonction « j’aime »,
les commentaires, ou la possibilité de transférer des articles. Les intermédiaires en ligne
peuvent ainsi jouer des rôles proches de ceux des médias d’information et pourraient
remplir, tout comme les médias, une fonction de « porte d’entrée » et d’initiateurs du débat
public. Le Comité des Ministres du Conseil de l’Europe a également souligné de son côté
que les intermédiaires en ligne pouvaient « exercer certaines formes de contrôle qui
influencent l’accès des utilisateurs aux informations en ligne, à l’instar des médias », ou
encore « assurer d’autres fonctions qui se rapprochent de celles des éditeurs243 ».
Sur la base de ces principes de liberté d’expression, il est possible d’avancer que les
intermédiaires en ligne pourraient se prévaloir de la liberté des médias lorsqu’ils recourent
à l’IA pour remplir des fonctions similaires à celles des médias d’information. Tout du moins,
les intermédiaires en ligne pourraient bénéficier des droits « normaux » à la liberté
d’expression lorsqu’ils facilitent l’accès aux informations par le biais de fils d’information
et de résultats de recherches. À cet égard, Van Hoboken évoque la production
« d’information sur l’information » par les moteurs de recherche, par exemple lorsque ceux-
ci affichent des résultats de recherches à partir du référencement d’informations
disponibles par ailleurs. Van Hoboken conclut que la publication de résultats de recherche
par un moteur de recherche est protégée par l’article 10 de la CEDH244. De la même manière,
on pourrait arguer que la sélection, la hiérarchisation et la personnalisation des fils
241
Cour européenne des droits de l’homme, Társaság a Szabadságjogokért c. Hongrie, paragraphe 27.
242
Ibid.
243
Conseil de l’Europe, Recommandation CM/Rec(2018)2 du Comité des Ministres aux États membres sur les
rôles et les responsabilités des intermédiaires d’internet, paragraphe 5,
https://search.coe.int/cm/Pages/result_details.aspx?ObjectId=0900001680790e37.
244
Van Hoboken J. C. J., « Search engine freedom: On the implications of the right to freedom of expression for
the legal governance of Web search engines », Université d’Amsterdam, p. 182,
http://hdl.handle.net/11245/1.392066.
Page 61
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
d’information par les médias sociaux et les agrégateurs d’information au moyen de l’IA
constituent bien de « l’information sur l’information » et méritent de bénéficier de la
protection de la liberté d’expression.
Dès lors que les médias d’information traditionnels, les médias d’information nés
du numérique et enfin les intermédiaires en ligne exercent leur liberté d’expression ou leur
liberté des médias, ils sont également tenus de respecter certains devoirs et responsabilités.
Ceux-ci font l’objet de la prochaine section.
245
Cour européenne des droits de l’homme, Éditions Plon c. France [2004], 58148/00, paragraphe 50,
http://hudoc.echr.coe.int/eng?i=001-66318 ; Cour européenne des droits de l’homme, Chauvy et autres c. France
[2004], 64915/01, paragraphe 79, http://hudoc.echr.coe.int/eng?i=001-66418.
246
Cour européenne des droits de l’homme, Magyar Tartalomszolgáltatók Egyesülete et Index.hu Zrt c. Hongrie
[2016], 22947/13, paragraphe 62, http://hudoc.echr.coe.int/eng?i=001-160314 ; Cour européenne des droits de
l’homme [GC], Delfi AS c. Estonie [2015], 64569/09, paragraphe 113, http://hudoc.echr.coe.int/eng?i=001-
155627.
247
Cour européenne des droits de l’homme, Handyside c. Royaume-Uni, paragraphe 49.
Page 62
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
particulière lorsque leurs activités risquent de mettre en péril les droits d’autrui248. En outre,
l’impact potentiel du média constitue un critère pour déterminer l’étendue de ses devoirs
et responsabilités249. Plus un média d’information a d’impact, plus ses devoirs et ses
responsabilités sont lourds. Néanmoins, selon la Cour européenne des droits de l’homme,
les devoirs et responsabilités des portails d’information sur internet peuvent dans une
certaine mesure se distinguer de ceux des éditeurs traditionnels pour ce qui est des
contenus issus de tierces parties250. De manière comparable, le Comité des Ministres du
Conseil de l’Europe a recommandé que les devoirs et responsabilités des intermédiaires en
ligne soient déterminés, du fait de leurs multiples rôles, au regard des services spécifiques
qu’ils fournissent et des fonctions particulières qu’ils exercent251.
La Cour européenne des droits de l’homme a estimé que les devoirs et
responsabilités des médias d’information impliquaient qu’ils doivent agir « de bonne foi de
manière à fournir des informations exactes et dignes de crédit dans le respect de la
déontologie journalistique »252. Les codes de déontologie journalistique existaient bien
avant que la Cour introduise l’idée que l’exercice de la liberté d’expression s’accompagnait
de devoirs et de responsabilités. Dans les années 1920, l’American Society of Newspaper
Editors a adopté les « canons du journalisme », qui sont considérés comme l’un des
premiers codes déontologiques pour les médias d’information253. Mais dans les années
suivantes, les critiques visant les entreprises de presse ont poussé les gouvernements à
envisager une règlementation des médias d’information254. En réponse, ceux-ci ont mis en
place des codes déontologiques, des conseils de presse, des médiateurs et d’autres formes
d’autorégulation afin d’éviter l’imposition d’une réglementation par le gouvernement255.
En Europe, l’idée que les médias d’information ne devraient pas faire l’objet d’une
réglementation concerne principalement la presse écrite. Les États européens
réglementent les médias audiovisuels de plusieurs manières, notamment par le biais de la
Directive européenne Services de médias audiovisuels. La façon dont la Cour européenne
des droits de l’homme a interprété la notion de devoirs et de responsabilités crée désormais
également une base juridique normative pour une théorie de la responsabilité sociale de la
presse écrite, selon laquelle elle doit se soumettre à une autorégulation et à des codes de
déontologie professionnels.
La question est de savoir si les codes déontologiques actuels du journalisme sont à
même de traiter la question du recours à l’IA par les médias d’information. En 2001, les
universitaires spécialistes du journalisme ont affirmé qu’internet soulevait de nouvelles
questions déontologiques pour les journalistes, et conclu que les codes déontologiques
248
Cour européenne des droits de l’homme [GC], Bladet Tromsø et Stensaas c. Norvège [1999], 21980/93,
paragraphe 65, http://hudoc.echr.coe.int/eng?i=001-63020.
249
Cour européenne des droits de l’homme [GC], Jersild c. Danemark [1994], 15890/89, paragraphe 31,
http://hudoc.echr.coe.int/eng?i=001-62456.
250
Cour européenne des droits de l’homme [GC], Delfi AS c. Estonie, paragraphe 113.
251
Recommandation CM/Rec(2018)2 du Comité des Ministres aux États membres sur les rôles et les
responsabilités des intermédiaires d’internet, paragraphe 11.
252
Cour européenne des droits de l’homme [GC], Bladet Tromsø et Stensaas c. Norvège, paragraphe 65.
253
Ward S.J.A., The invention of journalism ethics: The path to objectivity and beyond, MQUP, pp. 236–37.
254
Ward S.J.A., Ibid., p. 244.
255
Ward S.J.A., Ibid., p. 245.
Page 63
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
traditionnels du journalisme n’étaient pas suffisants pour encadrer la conduite des médias
d’information dans l’environnement en ligne256. Plus d’une décennie plus tard, une étude
des codes de déontologie journalistique a révélé que la majorité d’entre eux ne
comprennent toujours pas de dispositions concernant le journalisme en ligne et les médias
numériques257. Helberger et Bastian appellent donc à l’élaboration d’une déontologie du
journalisme algorithmique afin de guider les médias d’information lorsqu’ils s’appuient sur
l’IA pour la production, la publication et la distribution d’informations258. De la même
manière, Dörr et Hollnbuchner, deux chercheurs en sciences de la communication,
concluent que les organismes de médias devraient adopter des codes déontologiques pour
le journalisme algorithmique259.
Il convient de se demander en outre dans quelle mesure les intermédiaires en ligne
qui utilisent l’IA pour façonner le cadre de la liberté d’expression en ligne devraient se
conformer à des codes déontologiques. Les médias sociaux et les moteurs de recherche
tentent depuis longtemps d’échapper à leur responsabilité quant à la manière dont ils
sélectionnent et hiérarchisent les informations, en faisant valoir qu’ils ne sont pas des
médias. Dans une interview, le PDG de Facebook a souligné que Facebook était « un réseau
social » et qu’il préférait ce terme à celui de « média social », parce que la notion de réseau
social met l’accent sur le côté « humain » de la plateforme plutôt que sur son côté
« contenus »260. Si les médias sociaux ne sont pas des entités journalistiques, alors ils n’ont
pas à respecter les codes de déontologie journalistique.
Il apparaît donc clairement que l’article 10 de la CEDH, tel qu’interprété par la
jurisprudence de la Cour, met en place une base juridique normative pour les devoirs et
responsabilités des acteurs qui contribuent à la liberté d’expression, qu’ils soient ou non de
« véritables » organismes de médias. Dans le même temps, il ressort aussi clairement que
les devoirs et responsabilités des intermédiaires en ligne peuvent s’écarter de ceux des
médias d’information traditionnels. Cela signifie que les intermédiaires en ligne ne peuvent
être contraints de respecter les codes de déontologie journalistique, bien qu’en vertu des
principes de la liberté d’expression, il soit clair qu’ils ont une responsabilité lorsqu’ils
recourent à l’IA pour réguler le discours sur leurs plateformes et exercer leurs propres droits
à la liberté d’expression. Si les intermédiaires en ligne ne mettent pas en place de codes et
d’autres instruments d’autorégulation adaptés, alors les gouvernements pourraient à juste
titre être amenés à réglementer la manière dont ils exercent leur liberté d’expression par
le biais de l’IA. Un raisonnement similaire est apparent dans la manière dont la Commission
européenne aborde cette question. Celle-ci menace de règlementer les intermédiaires en
ligne s’ils ne se conforment pas à des codes d’autorégulation en matière de désinformation
256
Deuze M. et Yeshua D., « Online journalists face new ethical dilemmas : Lessons from the Netherlands »,
Journal of Mass Media Ethics 16(4), pp. 273–92, https://doi.org/10.1207/S15327728JMME1604_03.
257
Díaz-Campo J. et Segado-Boj F., « Journalism ethics in a digital environment : How journalistic codes of ethics
have been adapted to the Internet and ICTs in countries around the world », Telematics and Informatics 32(4),
pp. 735–44, https://doi.org/10.1016/j.tele.2015.03.004.
258
Helberger N. et Bastian M., « AI, algorithms and journalistic ethics », présenté lors de la conférence sur
l’avenir du journalisme, Cardiff, 2019.
259
Dörr K. N., « Mapping the field of algorithmic journalism », Digital Journalism 4(6), pp. 700–722,
https://doi.org/10.1080/21670811.2015.1096748.
260
Swisher K., « Zuckerberg : The Recode interview », Recode,
https://www.recode.net/2018/7/18/17575156/mark-zuckerberg-interview-facebook-recode-kara-swisher.
Page 64
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
261
Hansen M. et al., « Artificial intelligence : Practice and implications for journalism », Tow Center for Digital
Journalism, p. 17, https://doi.org/10.7916/D8X92PRD.
Page 65
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
d’auteur. La question se pose alors de savoir qui est responsable, y compris du point de vue
juridique, de ces contenus illicites : l’organisation de médias qui a décidé de s’appuyer sur
l’outil d’IA, le développeur de l’outil d’IA, ou l’IA elle-même ?
Des spécialistes du droit ont avancé qu’il était possible d’affirmer la responsabilité
des agents de l’IA262. Des juristes américains ont également avancé que le premier
amendement, qui protège le droit constitutionnel à la liberté d’expression, devrait
s’appliquer aux discours automatisés263. Cependant, du point de vue du droit positif, l’IA ne
peut avoir de personnalité juridique et donc être tenue pour responsable dans les
juridictions européennes. En 2017, le Parlement européen a appelé la Commission
européenne à réfléchir à la création d’un statut juridique spécial (« personne électronique »)
pour les robots264. Dans sa Communication sur l'intelligence artificielle pour l’Europe, la
Commission n’a pas fait mention d’une telle personnalité électronique265. Cette omission
semble indiquer qu’à ce stade, la Commission européenne n’envisage pas la création d’une
personnalité juridique pour les robots ou les entités d’IA en droit de l’Union européenne266.
Il semblerait plus approprié de tenir les organisations de médias d’information qui
décident de se servir de l’IA responsables des contenus illégaux qu’elle pourrait produire.
Et si les autorités publiques souhaitaient exercer une censure sur les contenus générés
automatiquement ou les bots qui contribuent au débat public, alors ces outils et les
contenus qu’ils génèrent pourraient être protégés à la fois en vertu des droits à la liberté
d’expression de l’organisme de média d’information et du droit de recevoir des informations
des utilisateurs d’information267.
Au stade de la distribution de l’information, les médias d’information peuvent
recourir à l’IA pour personnaliser l’offre d’information à chaque individu, ce qui peut
engager le droit des personnes à recevoir de l’information. Le droit fondamental à la liberté
d’expression tel que le protège l’article 10 de la CEDH comprend le droit de recevoir des
informations. La Cour européenne des droits de l’homme a jugé que les médias avaient pour
tâche de mettre à disposition de l’information et des idées sur des questions d’intérêt public
et que le public a également le droit de les recevoir268. De plus, le public a le droit d’être
dûment informé269. Le droit de recevoir des informations implique que le public devrait avoir
accès à une information diverse grâce aux médias270. Dans le même temps, les utilisateurs
d’information ne disposent pas d’un droit subjectif à recevoir de l’information de la part des
262
Hage J., « Theoretical foundations for the responsibility of autonomous agents », Artificial Intelligence and
Law 25(3), pp. 255–71, https://doi.org/10.1007/s10506-017-9208-7.
263
Collins R.K.L. et Skover D. M., Robotica: Speech rights & artificial intelligence, Cambridge University Press.
264
Parlement européen, Rapport contenant des recommandations à la Commission concernant des règles de
droit civil sur la robotique, paragraphe 59, https://www.europarl.europa.eu/doceo/document/A-8-2017-
0005_FR.html.
265
Commission européenne, Communication de la Commission : L’intelligence artificielle pour l’Europe
https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX:52018DC0237.
266
Pour une discussion détaillée sur le statut juridique de l’IA au regard du droit d’auteur, voir le chapitre 5 de
cette publication.
267
Kaminski M.E., « Authorship, disrupted: AI authors in copyright and First Amendment law », U.C. Davis Law
Review 51(2), pp. 589–616.
268
Cour européenne des droits de l’homme, Sunday Times c. Royaume-Uni (No. 1), paragraphe 65.
269
Cour européenne des droits de l’homme, Sunday Times c. Royaume-Uni (No. 1), paragraphe 66.
270
Cour européenne des droits de l’homme, Manole et autres c. Moldova, paragraphe 100.
Page 66
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
médias271. Il n’en reste pas moins que le recours à l’IA par les médias d’information peut
affecter l’exercice du droit à recevoir de l’information, par exemple lorsque la
personnalisation réduit la diversité des informations auxquelles les gens ont accès. Une
restriction au droit de recevoir des informations résultant du comportement des médias
d’information pourrait faire naître des obligations positives pour les États (voir prochaine
section).
Quand les intermédiaires en ligne utilisent la personnalisation, ils peuvent
également mettre en jeu les droits à la liberté d’expression de médias d’information ou de
journalistes citoyens qui postent des articles d’actualité sur leurs plateformes pour
atteindre un public plus large. Le gouvernement allemand fut ainsi l’un des premiers en
Europe à mettre en place des protections juridiques pour la liberté des médias et la visibilité
des organismes d’information au regard de la personnalisation sur les médias sociaux et
moteurs de recherche. Le nouveau Medienstaatsvertrag allemand prévoit que les
intermédiaires en ligne « ne sauraient injustement désavantager (directement ou
indirectement) ou traiter différemment les fournisseurs de contenu éditorial journalistique
lorsqu’ils disposent d’une influence potentiellement significative sur leur visibilité272 ».
Cette disposition juridique constitue une nouveauté en droit européen des médias, et bien
qu’il soit trop tôt pour savoir comment la loi fonctionnera en pratique, les organisations de
défense des droits numériques affirment que la nouvelle loi allemande a « une valeur
symbolique importante » et que ses objectifs fondamentaux sont « louables273 ».
Enfin, les médias d’information peuvent se fonder sur l’IA pour modérer les
commentaires des utilisateurs sur leurs sites web, ce qui peut mettre en jeu le droit à la
liberté d’expression des individus qui postent des commentaires. Des études ont fait
ressortir que les systèmes d’IA ont tendance à davantage traiter comme injurieux les
messages postés sur les médias sociaux en anglais afro-américain par rapport aux messages
rédigés en anglo-américain standard274. Si la modération des contenus par l’IA traite certains
groupes sociaux de manière défavorable, cela pourrait entraîner une inégalité des
opportunités de communiquer.
D’autres limites techniques de l’analyse automatisée des contenus proviennent de
la difficulté qu’ont les systèmes de modération des contenus à comprendre le contexte dans
271
Eskens S., Helberger N. et Moeller J., « Challenged by news personalisation : Five perspectives on the right
to receive information », Journal of Media Law 9(2), pp. 259–84,
https://doi.org/10.1080/17577632.2017.1387353.
272
Helberger N., Leerssen P. et van Drunen M., « Germany proposes Europe’s first diversity rules for social media
platforms », Media@LSE, https://blogs.lse.ac.uk/medialse/2019/05/29/germany-proposes-europes-first-
diversity-rules-for-social-media-platforms/.
273
Nelson, M., « Germany’s new media treaty demands that platforms explain algorithms and stop
discriminating. Can it deliver ? », AlgorithmWatch, https://algorithmwatch.org/en/new-media-treaty-germany/.
274
Sap M. et al., « The risk of racial bias in hate speech detection », in Proceedings of the 57th Annual Meeting of
the Association for Computational Linguistics, 2019, pp. 1668–78, https://www.aclweb.org/anthology/P19-1163.
L'Assemblée parlementaire a souligné que « le recours à des ensembles de données empreints de parti pris –
ou reflétant un parti pris, un préjugé ou une pratique discriminatoire du passé – constitue l’une des principales
causes de la discrimination en IA », voir le rapport de l’Assemblée parlementaire: Prévenir les discriminations
résultant de l’utilisation de l’intelligence artificielle (29 septembre 2020), paragraphe 43,
https://pace.coe.int/fr/files/28715/html. L'exemple ci-dessus montre que ces risques sont également présents
dans le domaine des médias.
Page 67
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
275
Llansó E. et al., « Artificial Intelligence, content moderation, and freedom of expression », Institut du droit de
l’information, pp. 7–8, https://www.ivir.nl/publicaties/download/AI-Llanso-Van-Hoboken-Feb-2020.pdf.
276
Llansó E. et al., Ibid p. 9.
277
Cour européenne des droits de l’homme, Appleby et autres c. Royaume-Uni [2003], 44306/98, paragraphe 47,
http://hudoc.echr.coe.int/eng?i=001-65638.
278
Cour européenne des droits de l’homme, Appleby et autres c. Royaume-Uni, paragraphe 47.
279
Salganik M.J. et Lee R.C., « To apply machine learning responsibly, we use it in moderation », NYT
Open, https://open.nytimes.com/to-apply-machine-learning-responsibly-we-use-it-in-moderation-
d001f49e0644.
Page 68
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
et libertés des individus. Par exemple, dans le cas de la liberté d’expression, l’article 10(1)
de la Convention prévoit que tout le monde a droit à la liberté d’expression « sans qu’il
puisse y avoir ingérence d’autorités publiques ». Les droits fondamentaux de la CEDH
comprennent donc des obligations négatives pour les États.
Au fur et à mesure des années, la Cour européenne des droits de l’homme a admis
que les droits fondamentaux issus de la CEDH pouvaient également faire naître des
obligations positives pour les États. Dans les années 1960, la Cour a pour la première fois
validé l’idée que les États pouvaient être tenus à des obligations positives au regard de
certains droits de la Convention280. Il a fallu quelques années avant que la Cour affirme des
obligations positives concernant le droit à la liberté d’expression. Mais dans les années
2000, la Cour a estimé que le droit à la liberté d’expression pouvait s’accompagner
d’obligations positives pour les États, même dans le domaine des relations entre
individus281. Elle a notamment soutenu que les États avaient une obligation positive
d’assurer que le public ait accès par le biais des médias d’information à des informations
impartiales, exactes et diverses, et que les journalistes pouvaient diffuser ces
informations282. De plus, la Cour a observé qu’une obligation positive pesait sur les États,
selon laquelle ils devaient mettre en place un cadre administratif et législatif robuste pour
garantir le pluralisme du marché des médias audiovisuels283.
Dans l’affaire Dink c. Turquie, la Cour européenne des droits de l’homme a formulé
une obligation positive particulièrement forte pour les États. Elle a estimé que les États
étaient tenus de créer un environnement favorable à la participation au débat public de
toutes les personnes concernées, grâce auquel celles-ci seraient à même d’exprimer sans
crainte leurs idées et opinions284. La Cour a repris cette affirmation dans l’affaire Khadija
Ismayilova285. Ces deux affaires concernaient des attaques et du harcèlement à l’encontre de
journalistes. Dans l’affaire Dink, la Cour a jugé que l’État avait une obligation positive de
protéger un journaliste contre des attaques par ceux qui se sentaient insultés par ses
publications. Dans l’affaire Khadija Ismayilova, la Cour a estimé que l’État avait comme
obligation positive d’enquêter de façon plus efficace sur les intrusions dans la vie privée
d’une journaliste. Selon McGonagle, la notion d’environnement favorable pourrait avoir un
impact important286. Mais la véritable portée de cette obligation positive pesant sur les États
d’assurer un environnement favorable à la liberté d’expression reste à voir. Du point de vue
280
Cour européenne des droits de l’homme, affaire relative à certains aspects du régime linguistique de
l’enseignement en Belgique c. Belgique [1968], paragraphe 27, http://hudoc.echr.coe.int/eng?i=001-62083.
281
Cour européenne des droits de l’homme, Özgür Gündem c. Turquie [2000], 23144/93, paragraphe 43,
http://hudoc.echr.coe.int/eng?i=001-62993 ; Cour européenne des droits de l’homme, Fuentes Bobo c. Espagne
[2000], 39293/98, paragraphe 38, http://hudoc.echr.coe.int/eng?i=001-63608.
282
Cour européenne des droits de l’homme, Manole et autres c. Moldavie, paragraphe 100.
283
Cour européenne des droits de l’homme [GC], Centro Europa 7 S.r.l. et Di Stefano c. Italie [2012], 38433/09,
paragraphe 134, http://hudoc.echr.coe.int/eng?i=001-111396.
284
Cour européenne des droits de l’homme, Dink c. Turquie [2010], 2668/07, 6102/08, 30079/08, 7072/09,
7124/09, paragraphe 137, http://hudoc.echr.coe.int/eng?i=001-100383.
285
Cour européenne des droits de l’homme, Khadija Ismayilova c. Azerbaïdjan [2019], 65286/13, 57270/14,
paragraphe 158, http://hudoc.echr.coe.int/eng?i=001-188993.
286
McGonagle T., « Les obligations positives en matière de liberté d’expression : un simple potentiel ou un
véritable pouvoir ? », in Andreotti O. (éd.) Le journalisme à l’épreuve : menaces, enjeux et perspectives, Conseil de
l’Europe, pp. 9–35.
Page 69
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
du droit positif, elle n’offre pas aujourd’hui de protection contre les risques de l’IA pour la
liberté d’expression.
Bien que le récent rappel, par la Cour européenne des droits de l’homme, de
l’obligation de mettre en place un environnement favorable pourrait ne pas couvrir la
question du recours à l’IA par les médias d’information, ce qui précède montre que les États
sont bien tenus au respect d’obligations positives susceptibles de s’appliquer dans le
contexte de l’IA. Si l’utilisation de l’IA par les médias d’information réduit la diversité de
l’information que les gens reçoivent, alors leurs obligations positives pourraient être
déclenchées. De façon plus concrète, si la personnalisation et la modération automatisée
des contenus prenaient une ampleur telle qu’elles porteraient préjudice à la diversité de
l’information mise à disposition des utilisateurs, les États pourraient avoir une obligation
positive de garantir qu’une information variée soit proposée aux utilisateurs sur les médias
d’information recourant à l’IA. Dans ses lignes directrices sur le pluralisme des médias et la
transparence de leur propriété, le Comité des Ministres du Conseil de l’Europe souligne
également que les États devraient être encouragés à « veiller à ce que la plus grande
diversité possible de contenus médiatiques, y compris d’intérêt général, soit accessible à
tous287 ». Ces lignes directrices s’appliquent également à l’utilisation de l’IA par les médias
d’information en ligne.
De plus, au niveau sociétal, l’utilisation de l’IA par les médias d’information et
d’autres acteurs de l’environnement informationnel pourrait menacer le pluralisme des
médias. Les grands médias d’information et les intermédiaires en ligne ont accès à une
quantité croissante de données d’utilisateurs dont la qualité ne cesse de s’améliorer et à
des technologies d’IA toujours plus puissantes, ce qui leur confère un avantage
concurrentiel sur les médias d’information locaux. L’adoption de l’IA par l’industrie de
l’information à plusieurs stades du processus journalistique pourrait exclure les médias
locaux ou plus petits du marché, avec les risques que cela comporte de nuire au pluralisme
des médias. Les États ont l’obligation positive de garantir le pluralisme des médias face à
la popularité croissante de l’IA dans l’industrie de l’information, en mettant par exemple en
place des règles du jeu équitables encadrant le recours par les médias d’information en
ligne à l’IA et aux technologies fondées sur l’exploitation des données.
3.6. Conclusion
Ce chapitre a examiné les conséquences de l’utilisation de l’IA par les médias d’information
sur le droit fondamental à la liberté d’expression tel que le protège l’article 10 de la
Convention européenne des droits de l’homme. Les quatre contextes dans lesquels les
médias d’information peuvent s’appuyer sur l’IA ont été passés en revue : la collecte
d’informations, la production d’informations, la distribution d’informations et la modération
des commentaires des utilisateurs. Le recours à l’IA par les médias d’information est en
ligne avec les fonctions démocratiques des médias telles que la Cour européenne des droits
Conseil de l’Europe, Annexe à la Recommandation CM/Rec(2018)1, Lignes directrices sur le pluralisme des
287
Page 70
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
Page 71
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
Ces conclusions font écho aux appels des organisations de défense des droits de
l’homme et des droits numériques concernant les implications de l’IA pour la liberté
d’expression. Selon le Rapporteur spécial des Nations Unies sur la liberté d’opinion et
d’expression, les États « devraient adopter des politiques et mesures législatives propres à
créer un cyberespace favorisant le pluralisme et la diversité », ce qui inclut « de prendre
des mesures destinées à promouvoir la concurrence dans le domaine de l’intelligence
artificielle288 ». Le Représentant de l'OSCE pour la liberté des médias289, ainsi que Privacy
International et Article 19290, attirent également l’attention sur les diverses menaces que
fait peser l’IA sur la liberté d’expression.
Le défi qui se pose actuellement pour les médias d’information et les autorités
publiques est l’élaboration de codes de déontologie journalistique, de normes
d’autorégulation, et peut-être même d’une réglementation propre à maîtriser les risques
que soulève l’IA pour la liberté d’expression, tout en lui permettant de contribuer au débat
public, au pluralisme des médias, à la libre circulation de l’information et à d’autres objectifs
sociétaux. Les principes inscrits à l’article 10 de la CEDH posent des orientations concrètes
pour aider les entités publiques et privées à relever ce défi.
288
Kaye D., « Rapport du Rapporteur spécial sur la promotion et la protection du droit à la liberté d’expression
et d’opinion », Nations Unies, paragraphe 64, https://undocs.org/pdf?symbol=fr/A/73/348.
289
Représentant de l'OSCE pour la liberté des médias, Intelligence artificielle & liberté d’expression,
https://www.osce.org/representative-on-freedom-of-media/447829?download=true.
290
Privacy International et Article 19, « Privacy and freedom of expression in the age of artificial
Intelligence », http://privacyinternational.org/report/1752/privacy-and-freedom-expression-age-artificial-
intelligence.
Page 72
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
4.1. Introduction
La diversité des contenus est essentielle à un débat public dynamique, à l’inclusion
culturelle et sociale ainsi qu’à la cohésion. Aussi la diversité culturelle a-t-elle été
longtemps définie comme un objectif réglementaire dans les politiques nationales en
matière de médias et de culture, en particulier en Europe, et le mandat visant à la protéger
et à la favoriser n’a-t-il été renforcé qu’après la Convention de l’UNESCO sur la diversité
culturelle de 2005291. Si la diversité culturelle est restée un objectif clé des politiques
publiques, malgré des mises en œuvre très diverses dans les différentes politiques
nationales, certaines questions fondamentales sont restées sans réponse du fait de
l’évolution profonde de l’environnement technologique. Deux questions critiques doivent
être posées à cet égard : premièrement, dans quelle mesure les affordances du support
numérique ont-elles rendu possible, mais aussi remis en cause, la diversité en ligne – tant
en termes de disponibilité d’un contenu diversifié que de sa consommation
réelle ? Deuxièmement, dans quelle mesure les boîtes à outils de la politique culturelle,
telles qu’elles sont actuellement appliquées, sont-elles adaptées pour traiter et encourager
l’engagement en faveur de contenus culturellement diversifiés ? Cette contribution
montrera que les réponses à ces questions ne sont pas simples et que les décideurs
politiques peuvent devoir accepter des compromis complexes, et se montrer plus innovants
dans la mise en œuvre de leurs politiques culturelles – en gouvernant par le biais
d’intermédiaires et de technologies.
Cette contribution s’intéressera aux affordances des médias numériques et de
l’intelligence artificielle (IA) en particulier et à leurs implications pour les politiques de
contenu. Elle ne s’engagera cependant pas dans les discussions plus générales sur la
créativité à l’ère de l’IA292, ni n’examinera l’intégration de la diversité à l’IA pour réduire les
biais dans son processus de prise de décision293 ou la diversité au sein de l’industrie de l’IA294.
291
Voir, par exemple, Burri M., « The UNESCO Convention on Cultural Diversity: An appraisal five years after its
entry into force. » International Journal of Cultural Property 20, 4, pp. 357–380, novembre 2013.
292
Voir dans ce contexte, Kulesz O., « Culture, machines et plateformes : l’intelligence artificielle et son impact
sur la diversité des expressions culturelles », rapport pour le compte de l’UNESCO, DCE/18/12.IGC/INF.4, 2018.
293
Melendez C., « In IA, Diversity Is a Business Imperative », The Forbes, 14 novembre 2019.
294
Voir, par exemple, Paul K., « “Disastrous” » Lack of Diversity in IA Industry Perpetuates Bias », The Guardian,
17 avril 2019.
Page 73
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
295
Voir, par exemple, Benkler Y., The wealth of networks: How social production transforms markets and freedom.
New Haven: Yale University Press, 2006), Sunstein C. R., Republic.com 2.0. Princeton: Princeton University Press,
2007.
296
Benkler Y., Weinberger D., Everything is miscellaneous: The power of the new digital disorder. New York: Henry
Holt, 2007, Jenkins H., Convergence culture: Where old and new media collide. New York: New York University
Press, 2008.
297
Benkler Y. (2006).
Page 74
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
des applications et du contenu – ces « facilitateurs de choix »298 ou « nouveaux éditeurs »299,
qui utilisent souvent aussi les technologies de l’IA.
Pour comprendre le nouvel espace médiatique, il peut être utile de le comparer au
fonctionnement des médias traditionnels. Ordinairement, dans le monde hors
ligne/analogique, les rôles éditoriaux étaient concentrés sous le toit d’une seule institution.
Les choix éditoriaux étaient basés sur un nombre limité de matériaux, et les produits
éditoriaux étaient soumis aux limites inhérentes à chaque média, telles que les pages d’un
journal imprimé ou la durée d’une émission. En règle générale, on s’adressait aussi au public
visé selon un certain rythme qui influençait l’étendue et la profondeur du contenu – par
exemple, par une diffusion quotidienne ou un hebdomadaire. Les décisions éditoriales
prises quant au contenu et au format se répercutaient sur l’ensemble du public d’une
publication ou d’un programme donné de la même manière – elles n’étaient pas adaptées
à un utilisateur particulier. Selon le format, il existait également un certain équilibre entre
les sujets locaux, nationaux et internationaux, qui étaient présentés de manière
contextualisée et fiable. Il s’agissait des fonctions éditoriales centrales des radiodiffuseurs
et autres médias traditionnels qui, dans de nombreux territoires, avaient également pour
mandat spécifique de présenter des contenus locaux et nationaux ; il existait généralement
des mécanismes pour superviser le respect de certaines exigences en matière de quantité
et de qualité des contenus. Dans l’Union européenne, par exemple, outre l’obligation de
diffuser une majorité d’œuvres européennes sur les chaînes audiovisuelles, des exigences
et des obligations sont imposées au niveau national. Dans l’ensemble, ces fonctions
éditoriales relativement bien définies avaient des conséquences importantes sur la
production et la diffusion des connaissances300. Elles soutenaient également la conviction,
qui est à la base de presque toutes les politiques nationales en matière de médias, que la
diversité de l’offre se reflétera dans la diversité de la consommation.
Le tableau est désormais très différent car les formes de médias numériques
suppriment ces limitations analogiques et entraînent « des changements fondamentaux
dans la composition et la consommation des produits médiatiques »301. Les « nouveaux
éditeurs » sont multiples, désintégrés et dispersés302. Les « nouveaux éditeurs » sont dirigés
par l’IA et ce sont, en fin de compte, les algorithmes303 qui définissent le nouvel espace
médiatique.
298
Helberger N., « Diversity label: Exploring the potential and limits of a transparency approach to media
diversity ». Journal of Information Policy 1. pp. 337–369, 2011, Helberger N., « Diversity by design », Journal of
Information Policy, pp. 441–469, 2011.
299
Miel P. et Farris R., News and information as digital media come of age, Cambridge: The Berkman Center for
Internet and Society, 2008, p. 27.
300
Weinberger D., Too big to know, New York: Basic Books, 2012.
301
Miel et Farris, p. 27. Voir aussi Kleis Nielsen R., Gorwa R., et de Cock Buning M., What can be done? Digital
media policy options for strengthening European democracy, Oxford : Rapport du Reuters Institute, 2019.
302
Ibid., également Latzer M., Hollnbuchner K., Just N., et Saurwein F., « The economics of algorithmic selection
on the Internet » dans Bauer J. M. et Latzer M. (éd.), Handbook on the economics of the Internet. Cheltenham:
Edward Elgar. pp. 395−425, 2016.
303
Pour une définition complète des algorithmes, voir Latzer M., et Just N., « Governance by and of algorithms
on the Internet: Impact and consequences », in Oxford Research Encyclopedia, Communication, Oxford: Oxford
University Press, 2020.
Page 75
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
304
Les algorithmes combinent souvent différents mécanismes et sont commandés par différents facteurs : (1)
la popularité générale de l’article auprès de l’ensemble des utilisateurs est l’approche la plus simple, par
laquelle les utilisateurs obtiennent la même recommandation, ce qui a pour résultat final que les articles
populaires deviennent encore plus populaires et que les articles impopulaires disparaissent ; (2) le filtrage
sémantique recommande les articles qui correspondent à l’article actuellement utilisé ou aux articles
précédemment utilisés par le même utilisateur selon un certain nombre de critères prédéfinis (tels que les
sujets, l’auteur ou la source d’un article) ; (3) le filtrage collaboratif ou le filtrage des informations sociales est
un générateur de recommandations automatisé de « bouche à oreille » – les articles sont recommandés à un
utilisateur en fonction des valeurs attribuées par d’autres personnes ayant des goûts similaires. Ces méthodes
sont généralement appliquées sous des formes hybrides, incluant également d’autres méthodes comme la
pondération des articles en fonction de leur récence ou le push de contenu ayant des caractéristiques
spécifiques comme le contenu payant. Les plateformes ont également accumulé au fil des ans de grandes
quantités de précieuses données basées sur le comportement passé et peuvent en outre appliquer des données
utilisateur telles que l’âge ou la localisation pour calibrer le flux de contenu. Voir Bozdag E., « Bias in algorithmic
filtering and personalization », in Ethics and Information Technology 15. pp. 209–227, 2013.
305
Miel et Farris, p. 30.
306
Conseil de l’Europe, Projet de recommandation sur la protection des droits de l’homme dans le contexte des
moteurs de recherche, Strasbourg, 11 mars 2010.
Page 76
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
307
Sunstein (2007).
308
Miel et Farris, p. 30.
309
Ibid.
310
Voir, par exemple, Sunstein C. R. Going to extremes: How like minds unite and divide, Oxford: Oxford University
Press, 2009., Pariser E., The filter bubble: What the Internet is hiding from you, Londres : Viking, 2011.
311
Latzer et al.
312
Ibid., pp. 29–30.
313
Napoli P. M., « On automation in media industries: Integrating algorithmic media production into media
industries scholarship » in Media Industries Journal 1. pp. 33–38, 2014 ; également Saurwein F., Just N., et Latzer
M., « Governance of algorithms: Options and limitations », info 17. pp. 35–49, 2015.
314
Napoli, ibid., p. 34.
Page 77
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
contenu rapidement et à moindre coût afin de répondre à cette demande. Une telle création
de contenu s’assimile à de la marchandisation et peut nuire à toute fonction d’intérêt public
des médias, y compris dans la sphère culturelle.
Au sens de la consommation de médias, la personnalisation du régime médiatique,
basée sur un profil spécifique ou une expérience antérieure, « favorise un contenu
géographiquement proche ainsi que socialement et conceptuellement familier »315 ... « Cela
maintient les utilisateurs dans des limites familières, alimentant leur curiosité en leur
donnant toujours la même chose. Lorsqu’ils recherchent de nouveaux contenus ou de
nouvelles informations, les opinions existantes sont renforcées, éliminant ainsi
progressivement les points de vue contradictoires »316. On peut bien sûr faire valoir que
c’était également le cas avec les médias traditionnels : les gens sont naturellement attirés
par le contenu qu’ils ont aimé dans le passé – la principale différence dans l’espace actuel
est que les utilisateurs ne voient que ce contenu, et leur choix actif est ainsi diminué ou
manipulé. Hoffman et al. soutiennent que les médias sociaux ne font qu’exacerber cet effet
en combinant deux dimensions de l’homophilie : la similitude des pairs et du contenu317.
Dans ce contexte, nous devons garder à l’esprit que, malgré une légère diminution de leur
utilisation comme point d’accès au contenu et l’existence de variations d’un pays à l’autre318,
les sites de réseaux sociaux restent d’importants contrôleurs d’accès. Cela renforce l’effet
d’homophilie, tout en illustrant clairement le pouvoir de quelques acteurs et l’impact
profond de leurs décisions – par exemple, lorsque Facebook a changé son algorithme en
2018 et déclassé les actualités, la consommation d’actualités a automatiquement
diminué319.
Il convient également de souligner la commercialisation des plateformes et
l’augmentation sensible des « fausses nouvelles » à caractère commercial ou politique320.
Malgré le léger glissement vers des modèles de paiement par les lecteurs pour les
actualités, il est utile de rappeler que la grande majorité de la consommation en ligne se
fait encore par le biais de sites web gratuits, largement soutenus par la publicité. Bien
qu’une partie du contenu agrégé soit tirée des médias traditionnels321, ce qui permet de
balayer certaines des critiques habituelles selon lesquelles les agrégateurs amplifient
l’impact des sources non traditionnelles peu fiables, il n’en reste pas moins vrai que le
contenu n’est pas rendu plus abondant, il est simplement davantage dispersé – en ce sens,
nous n’avons pas un contenu plus abondant et plus diversifié, mais simplement plus de la
315
Hoffman C. P., Lutz C., Meckel M., et Ranzini G., « Diversity by choice: Applying a social cognitive perspective
to the role of public service media in the digital age », International Journal of Communication, 9, 2015, pp. 1360–
1381.
316
Ibid.
317
Ibid.
318
Pour des analyses par pays, voir Reuters Institute for the Study of Journalism, Digital News Report 2018,
Oxford, 2018.
319
Reuters Institute for the Study of Journalism (2018) ; également Tucker J. A. et al. Social media, political
polarization, and political disinformation: A review of the scientific literature, préparé pour la Hewlett Foundation,
mars 2018.
320
Reuters Institute for the Study of Journalism (2018) ; Commission européenne, Lutter contre la
désinformation en ligne : une approche européenne, COM(2018) 236 final, 26 avril 2018.
321
Reuters Institute for the Study of Journalism (2018). Les agrégateurs peuvent être quelque peu limités par le
droit d’auteur, voir Associated Press v. Meltwater U.S. Holdings, Inc. 931 F. Supp. 2d 537, 537 (S.D.N.Y. 2013) et
des initiatives plus récentes dans le domaine de la législation européenne sur le droit d’auteur.
Page 78
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
même chose. Néanmoins, il est juste de noter que les médias traditionnels ont réagi à
l’agrégation rendue possible par la technologie et offrent beaucoup plus de contenu en
ligne que dans leurs versions imprimées ou diffusées. En ce qui concerne plus
particulièrement l’information, le Reuters Institute for the Study of Journalism a constaté
que les organismes de presse privés investissaient massivement dans les médias sociaux et
faisaient état d’un trafic important, d’une portée hors site et/ou de nouveaux abonnés
numériques322. Si cela peut permettre d’accéder à une variété de contenus sur un plus grand
nombre de plateformes, ce qui est également intéressant pour les jeunes, deux
inconvénients doivent être soulignés : le premier concerne la dépendance presque totale
des organisations médiatiques à l’égard de Facebook, d’où un certain « risque de
plateforme » ; le second est que la façon dont les organes d’information traditionnels du
secteur privé abordent les médias sociaux est fortement influencée par des modèles
économiques dépendant du parcours emprunté, orientés vers la publicité et les
abonnements, ou un mélange des deux323. Une fois encore, cela pourrait ne pas conduire à
une offre durable de contenus locaux, régionaux et nationaux diversifiés324. Dans
l’ensemble, bien que la quantité de contenu augmente, le contenu local, régional et
national peut diminuer et devenir très difficile à trouver parce qu’il est – ou devient –
marginalisé sur les plateformes en ligne.
En ce qui concerne le rôle d’intermédiaire joué par les moteurs de recherche, il peut
être généralement dans l’intérêt à long terme des fournisseurs de services de recherche de
répondre aux besoins de leurs utilisateurs – à la fois en tant que consommateurs et en tant
que citoyens. Au vu des recherches menées par l’Ofcom (l’autorité britannique de régulation
des communications et des médias) qui suggèrent que la demande de contenu de service
public national reste forte et il devrait donc continuer à être dans l’intérêt des fournisseurs
de services de recherche de s’assurer que leurs résultats accordent la place proéminente
qu’il mérite à ce contenu325. Une étude comparative récente a également révélé que les
personnes qui trouvent des informations via les moteurs de recherche utilisent en moyenne
davantage de sources d’informations en ligne, sont plus susceptibles d’utiliser des sources
d’informations en ligne de gauche comme de droite, et ont des répertoires d’informations
plus équilibrés326. Cela dit, et comme mentionné précédemment, les résultats de recherche
322
Il identifie trois objectifs stratégiques principaux qui déterminent les différentes manières dont les organes
d’information abordent les médias sociaux : (1) en stimulant le trafic sur le site par des recommandations ; (2)
en stimulant la portée hors site par des formats natifs et des contenus dispersés ; (3) en stimulant les ventes
d’abonnements numériques, souvent en partie par des contenus publicitaires sur Facebook.
323
Cornia A., Sehl A., Levy D. A., et Nielsen R. K., Private sector news, social media distribution, and algorithm
change, Oxford: Reuters Institute for the Study of Journalism, 2018.
324
Une étude des médias locaux américains a montré, par exemple, que seulement 17 % des informations
fournies à une communauté étaient véritablement locales – c’est-à-dire qu’elles concernaient ou avaient eu
lieu dans la municipalité ; moins de la moitié (43 %) des informations étaient originales – c’est-à-dire qu’elles
étaient effectivement produites par le média local. Voir Napoli P. M., Weber M., McCollough K., et Wang Q.,
Assessing local journalism: News deserts, journalism divides, and the determinants of the robustness of local news.
News Measures Research Project, août 2018.
325
Ofcom, Ofcom’s Second Public Service Broadcasting Review, Phase Two: Preparing for the Digital Future, London:
Ofcom, 2008, paragraphe 5.60.
326
Les auteurs font référence à un phénomène de « sérendipité automatisée », qui conduit les gens vers des
sources qu’ils n’auraient pas utilisées autrement. Voir Fletcher R. et Nielsen R. K., « Automated serendipity » in
Digital Journalism 6. pp. 976–989, 2018.
Page 79
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
327
Voir, par exemple, Bradshaw S., « Disinformation optimised: Gaming search engine algorithms to amplify
junk news », in Internet Policy Review 8. pp. 1–24, 2019.
328
Pariser (2011).
329
Sunstein C. R., Infotopia: How many minds produce knowledge. Oxford : Oxford University Press, 2006.
330
Voir aussi le Groupe de haut niveau sur la liberté et le pluralisme des médias, Des médias libres et pluralistes
pour soutenir la démocratie européenne. Rapport préparé pour la Commission européenne p. 27, janvier 2013.
331
Dutton W. H. et al « Search and politics: The uses and impacts of search in Britain, France, Germany, Italy,
Poland, Spain, and the United States », document de travail du Quello Center No 5 pp. 1-17, 18 mai 2017.
332
Fletcher et Kleis Nielsen (2018).
333
Webster J.G. et Ksiazek T. B., « The dynamics of audience fragmentation: Public attention in an age of digital
media », Journal of Communication 62, pp. 39–56, 2012.
334
Ibid., p. 40.
335
Ibid., p. 51.
336
Pour des constatations très intéressantes, voir Pew Research Center, « Political polarization and media habits:
From Fox News to Facebook, how liberals and conservatives keep up with politics », Washington, DC : Pew
Research, 2014.
337
Pour connaître les nouvelles tendances en matière de consommation de médias, voir le Reuters Institute for
the Study of Journalism (2018).
Page 80
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
338
Saurwein et al. (2015), p. 35.
339
Pour une excellente analyse et revue de la littérature, voir Saurwein et al. (2015).
340
Saurwein et al. (2015).
341
Par exemple en ce qui concerne le droit à l’oubli, qui est désormais inscrit dans le régime de protection des
données de l’UE du Règlement général sur la protection des données.
342
Voir la Directive 2019/790 du Parlement européen et du Conseil du 17 avril 2019 sur le droit d’auteur et les
droits voisins dans le marché unique numérique et modifiant les Directives 96/9/CE et 2001/29/CE, JO L (2019)
130/92, https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A32019L0790. Voir aussi Montagnani
M. L. et Trapova A. Y., « Safe harbours in deep waters: A new emerging liability regime for Internet intermediaries
in the digital single market », International Journal of Law and Information Technology 26. pp. 294–310, 2018 ;
Senftleben M., « Institutionalized algorithmic enforcement – The pros and cons of the EU approach to UGC
platform liability », Florida International University Law Review 14, 2020.
Page 81
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
chambres d’écho et les biais ; (3) les contraintes à la liberté d’expression ; (4) la surveillance
et les menaces pour la protection des données et le respect de la vie privée ; (5) la
discrimination sociale ; (6) la violation des droits de propriété intellectuelle ; (7) l’abus de
pouvoir de marché ; (8) les effets sur les capacités cognitives ; et (9) l’hétéronomie
croissante, la perte de la souveraineté humaine et la contrôlabilité de la technologie343.
Nous nous sommes particulièrement intéressés aux points (2), (3) et (9) ci-dessus, car ils
sont directement liés aux objectifs fondamentaux de la diversité culturelle poursuivis dans
le domaine des médias.
Saurwein et al. présentent une analyse minutieuse des différentes options de
gouvernance susceptibles de juguler ces risques : des interventions classiques d’ injonction
et de contrôle à la régulation par le marché, en passant par diverses solutions
d’autorégulation et de corégulation344. Toutefois, les auteurs notent également qu’il n’y a
guère eu jusqu’à présent d’outils conçus pour traiter les risques de biais, d’hétéronomie et
les effets sur les capacités cognitives. Il est vrai, dans le cadre spécifique de notre
discussion, que la plupart de ces plateformes intermédiaires ne relèveront pas du champ
d’application réglementaire des régimes de médias actuels. Napoli a fait valoir dans ce
contexte que nous devrions commencer à considérer les algorithmes comme une forme
particulière d’institution médiatique345. Il estime que les algorithmes devraient être soumis
à des types de réglementation restrictifs – à savoir l’interdiction de certains types d’activités
par les opérateurs de plateformes ou de contenus sur ces plateformes, afin de protéger la
vie privée et de contrer la violence graphique et les discours de haine. Napoli suggère que,
compte tenu du rôle crucial que jouent ces nouveaux intermédiaires, nous devrions
développer des « approches positives dans l’intérêt public »346, comme nous l’avons fait pour
les médias électroniques traditionnels, fondées sur des principes établis en matière de
politique médiatique, tels que la pluralité, la diversité et le localisme – en prescrivant par
exemple certaines quantités ou certains types de contenu347. Cela pourrait, d’une part,
remédier au manque de contenus diversifiés, fiables et locaux qui, malgré l’augmentation
du nombre de contenus en ligne, semblent rares et, d’autre part, accroître la possibilité pour
les utilisateurs d’accéder à ces contenus348.
Il convient de noter dans ce contexte que les discussions sur la réglementation des
algorithmes, bien que relativement récentes, évoluent rapidement. À l’ère des données
massives, des dangers liés à la protection des données à caractère personnel et de la
prolifération des fausses nouvelles, le sujet a attiré l’attention des hommes politiques et du
343
Saurwein et al. (2015), p. 37.
344
Saurwein et al. (2015).
345
Napoli P. M., « The algorithm as institution: Toward a theoretical framework for automated media production
and consumption », article présenté à la conférence Media in Transition, Massachusetts Institute of Technology,
mai 2013 ; Napoli P. M., « Social media and the public interest: Governance of news platforms in the realm of
individual and algorithmic gatekeepers. Document de travail Media + the Public Interest Initiative, 2014.
346
Napoli (2014), ibid.
347
Napoli P. M. « Social media and the public interest: Governance of news platforms in the realm of individual
and algorithmic gatekeepers », Telecommunications Policy 39. pp. 751–760, 2015.
348
Voir Napoli P. M. « Re-evaluating the long tail: Implications for audiovisual diversity on the Internet », in
Albornoz L. A. and Garcia Leiva M. T. (éd.), Audiovisual industries and diversity: Economics and policies in the digital
era. Abingdon : Routledge, 2019, au chapitre 5 ; Napoli P. M., Social media and the public interest: Media regulation
in the disinformation age, New York : Columbia University Press, 2019.
Page 82
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
grand public, et la nécessité d’agir a été reconnue349. Toutefois, la forme de l’action reste à
définir. Jusqu’à présent, les mesures prises ne semblent concerner que les domaines de
l’autorégulation et des approches réglementaires souples, car une intervention en force
pourrait non seulement entraver l’innovation des plateformes et des utilisateurs, mais aussi
faire échouer l’objectif même de promotion de la liberté d’expression sous ses formes active
et passive. Dans ce contexte, et pour tenter de concevoir des outils de gouvernance
appropriés et tournés vers l’avenir, il convient d’étudier attentivement l’expérience acquise
jusqu’à présent dans le domaine de la lutte contre la désinformation en ligne. D’une part,
nous devons examiner dans quelle mesure les entreprises ont répondu à la sensibilisation
accrue du public et aux exigences de confiance et de qualité des utilisateurs, et dans quelle
mesure différentes solutions techniques (par exemple en ajustant les algorithmes) et autres
solutions (par exemple en travaillant avec les utilisateurs et d’autres organisations) ont
effectivement contribué à l’objectif − dans ce cas : limiter la quantité et la diffusion des
fausses nouvelles350. Les efforts de Facebook, à la suite de la campagne présidentielle
américaine de 2016, peuvent en être un bon exemple. En réaction à diverses accusations,
Facebook a soutenu un certain nombre d’initiatives − par exemple, il a diffusé des outils
éducatifs pour la maîtrise de l’information, a lancé le Facebook Journalism Project et a
rejoint la News Integrity Initiative avec plusieurs partenaires universitaires et médiatiques
qui s’efforcent de favoriser des communautés engagées et des médias plus inclusifs, tout
en cherchant à mieux comprendre la désinformation. Concrètement et afin de réduire la
diffusion de « fausses nouvelles », Facebook a conclu des partenariats avec une quarantaine
d’organisations − médiatiques tierces telles que Snopes, PolitiFact, Associated Press et
FactCheck.org. Celles-ci s’efforcent de vérifier les faits des reportages partagés et de les
identifier par un label « disputed » (contesté) s’ils ne passent avec succès un contrôle des
faits. Facebook a également installé un bouton « plus d’infos » qui permet aux utilisateurs
d’obtenir des informations supplémentaires sur les articles de leurs flux d’informations 351.
Malgré ces efforts importants, les recherches et les preuves anecdotiques suggèrent que
les pratiques de Facebook sont peut-être encore insuffisantes pour garantir un espace
médiatique « sain »352.
Le rôle des gouvernements, de la société civile et des autres organisations
d’utilisateurs devrait également être pris en compte. Un bon exemple récent d’efforts
coordonnés et de collaboration sur plusieurs fronts est l’approche européenne en matière
de fausses nouvelles353. La Commission européenne souscrit à l’amélioration de la
349
Voir, par exemple, Balkin J., « Free speech in the algorithmic society: Big data, private governance, and new
school speech regulation », UC Davies Law Review 51. pp. 1149–1210, 2018. De nombreuses actions ont
également été menées au sein de l’UE en matière de protection des données et de fausses nouvelles, par
exemple grâce à l’adoption du RGPD. Voir aussi Commission européenne (2018).
350
Reuters Institute for the Study of Journalism (2018).
351
Le bouton « informations complémentaires » pour les articles d’actualité qui apparaissent dans le fil
d’actualité permet aux utilisateurs de cliquer pour consulter : (1) des informations tirées de la page Wikipédia
concernant l’éditeur ; (2) d’autres articles récemment publiés par l’éditeur ; (3) une carte thermique indiquant
où dans le monde l’article est partagé et quels amis Facebook de l’utilisateur l’ont partagé.
352
Levin S., « They don’t care: Facebook fact-checking in disarray as journalists push to cut ties », The Guardian,
13 décembre 2018. Pour une analyse plus approfondie, voir Saurwein F. et Spencer-Smith C., « Combating
disinformation on social media: Multilevel governance and distributed accountability in Europe », Digital
Journalism, 2020.
353
Commission européenne (2018).
Page 83
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
transparence des informations diffusées, de leur diversité et de leur crédibilité, ainsi qu’à
un effort visant à élaborer des solutions inclusives à long terme à cet effet. Elle a, entre
autres, convoqué un forum multipartite afin de fournir un cadre pour une coopération
efficace entre les parties prenantes concernées, y compris les plateformes en ligne, le
secteur de la publicité et les principaux annonceurs, et d’obtenir un engagement en vue de
coordonner et d’intensifier les efforts pour lutter contre la désinformation. Le premier
résultat du forum a été un code de bonnes pratiques contre la désinformation à l’échelle
de l’UE. Adopté en septembre 2018, le code définit des normes d’autorégulation pour lutter
contre la désinformation ; il vise à atteindre les objectifs de la Commission en fixant un
large éventail d’engagements, allant de la transparence de la publicité à caractère politique
à la fermeture des faux comptes et à la réduction des possibilités de monétisation pour les
fournisseurs de désinformation. Le code comprend également une annexe identifiant les
meilleures pratiques que les signataires s’engagent à appliquer pour mettre en œuvre les
engagements du code354. Des mesures plus décisives en matière de responsabilisation, voire
une évolution vers des approches de corégulation, pourraient toutefois être nécessaires355,
comme le montre le problème aigu des « fausses nouvelles » concernant la pandémie de
Covid-19356.
354
Pour tous les documents, voir https://ec.europa.eu/digital-single-market/en/news/code-practice-
disinformation. Le dernier rapport du Groupe des régulateurs européens des services de médias audiovisuels
(ERGA) sur la désinformation montre certaines limites dans les engagements pris par les plateformes dans le
cadre du code ; voir ERGA Report on Disinformation: Assessment of the Implementation of the Code of Practice,
2020, https://erga-online.eu/?p=732.
355
Saurwein et Spencer-Smith (2020).
356
Voir, par exemple, « Social media firms fail to act on Covid-19 fake news », BBC News, 4 juin 2020.
357
Nous n’abordons pas ici les politiques d’éducation aux médias, qui peuvent également être importantes du
point de vue de l’utilisateur. Voir Helberger (2011), p. 357 ; Burri M., « The global digital divide as impeded
access to content », dans Burri M., et Cottier T. (éd.), Trade governance in the digital age. Cambridge : Cambridge
University Press. pp. 396-420, 2012 ; Groupe de haut niveau sur la liberté et le pluralisme des médias, « Des
médias libres et pluralistes pour soutenir la démocratie européenne », rapport préparé pour la Commission
européenne, janvier 2013.
358
Miel et Farris, p. 3 ; également Goodman E. P., « Public media 2.0 », dans Schejter A. M. (éd.), And
communications for all: A public policy agenda for a new administration. Lanham, MD : Lexington Books, pp. 263-
280, 2009 ; Webster J. G., « User information regimes: How social media shape patterns of consumption »,
Northwestern University Law Review 104, pp. 593–612, 2010.
359
Voir Helberger N., « Media diversity from the user’s perspective: An introduction », Journal of Information Policy
1, pp. 241–245, 2011 ; Napoli P. M., « Exposure diversity reconsidered », Journal of Information Policy 1, pp. 246–
259, 2011.
Page 84
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
Ce projet n’est pas complètement nouveau ni insolite. Le cadre européen pour les
médias, en vertu de la Directive Services de médias audiovisuels (Directive SMA)360, suggère
que la promotion des œuvres européennes peut être liée à une meilleure « mise en valeur »
de ces œuvres361. D’après la consultation des autorités de régulation en 2013362, il apparaît
que beaucoup d’entre elles étaient favorables aux outils de mise en valeur, tout en étant
sceptiques quant à la promotion par le partage des actifs dans les catalogues. Beaucoup
considèrent cette mesure comme la plus efficace (également parce qu’elle concerne une
consommation réelle plus élevée d’œuvres européennes) et la moins lourde pour les
opérateurs363. En Europe, les radiodiffuseurs de service public ont eu le privilège d’occuper
les premiers créneaux horaires des guides électroniques des programmes (GEP) et ont ainsi
bénéficié d’une « mise en valeur particulière »364. Foster et Broughton montrent que les GEP
ont été un outil important permettant aux consommateurs de trouver et de sélectionner
des programmes, et il est prouvé que les chaînes dont les créneaux sont situés près du haut
de chaque section d’un GEP ont été davantage sélectionnées par les utilisateurs et ainsi
avantagées par rapport à celles situées plus bas365. « Cette approche [consistant à
« pousser » les gens à faire les choix que nous espérons qu’ils feront dans leur propre intérêt
et dans celui de la société en général] a jusqu’à présent plutôt bien fonctionné »366. Des
preuves récentes confirment que son positionnement dans les GEP est susceptible d’avoir
un impact significatif sur les résultats d’une chaîne 367. Ces « coups de pouce », bien que
destinés aux médias commerciaux, ont également fonctionné avec les télécommandes des
téléviseurs SMART, les grands acteurs en ligne, tels que Netflix, YouTube et Google Play,
apparaissant comme des boutons permettant un accès direct.
360
La Directive SMA a été révisée pour la dernière fois en 2018 : voir Directive (UE) 2018/1808 du Parlement
européen et du Conseil du 14 novembre 2018 visant à la coordination de certaines dispositions législatives,
réglementaires et administratives des États membres relatives à la fourniture de services de médias audiovisuels
(Directive Services de médias audiovisuels), compte tenu de l’évolution des réalités du marché, JO L (2018)
303/69.
361
Voir les dernières recommandations de l’UE : Communication de la Commission - Lignes directrices en vertu
de l’article 13, paragraphe 7, de la Directive Services de médias audiovisuels concernant le calcul de la part des
œuvres européennes dans les catalogues des services de médias audiovisuels à la demande et la définition
d’une faible audience et d’un chiffre d’affaires peu élevé 2020/C 223/03, JO C (2020) 223/10.
362
Voir, par exemple, Observatoire européen de l’audiovisuel, IRIS Spécial : La vidéo à la demande et la
promotion des œuvres européennes. Strasbourg : Observatoire européen de l’audiovisuel, 2013.
363
Commission européenne (2014), p. 6.
364
Les GEP ont été réglementés au niveau de l’UE par la directive Accès (Directive 2002/19/CE du Parlement
européen et du Conseil du 7 mars 2002 relative à l’accès aux réseaux de communications électroniques et aux
ressources associées, ainsi qu’à leur interconnexion, JO L 108/7 du 24 avril 2002, modifiée par la Directive
2009/140/CE du Parlement européen et du Conseil du 25 novembre 2009, JO L 337/37 du 18 décembre 2009).
La transposition de la directive diffère – par exemple, la réglementation britannique permet un traitement
préférentiel des chaînes de service public, alors qu’en Allemagne, la réglementation des GEP est basée sur
l’égalité de traitement des chaînes publiques et commerciales dans les listes des GEP.
365
Foster R. et Broughton T., « PSB prominence in a converged media world », rapport commandé par la BBC,
Londres : Communications Chambers, p. 12, 2012. Parmi les autres facteurs qui influencent la sélection, citons
le fait d’avoir un numéro de chaîne GEP mémorisable et de se trouver à côté d’une autre chaîne populaire.
366
Foster et Broughton (2012), p. 13-14. Cela a été confirmé par un rapport plus récent.
367
Ofcom, « EPG prominence: A report on the discoverability of PSB and local TV services », Londres : Ofcom,
2018. Les données relatives à l’effet de mise en valeur sur le visionnage de la VOD sont moins complètes mais
suggèrent une corrélation similaire.
Page 85
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
368
Helberger (2011), p. 346. Justifiant également une telle approche, voir Sunstein C. R., « Television and the
public interest », California Law Review 88. pp. 499–563.
369
Ofcom « Ofcom’s Second Public Service Broadcasting Review, Phase Two: Preparing for the Digital Future »,
Londres : Ofcom, 2008, paragraphe 3.95.
370
Ofcom (2008), paragraphe 3.98.
371
Pour une analyse complète, voir Burri (2015).
372
Foster et Broughton op.cit. p. 11.
373
Foster et Broughton op.cit. se prononcent contre la mise en valeur de programmes individuels au motif qu’elle
risque de fragmenter l’expérience de l’utilisateur et de nuire à la marque globale du radiodiffuseur de service
public.
374
Foster et Broughton op.cit.. p. 4.
375
La Directive SMA modifiée contient dans son article 13 une telle règle : « Les États membres veillent à ce
que les fournisseurs de services de médias relevant de leur compétence qui fournissent des services de médias
audiovisuels à la demande proposent une part d’au moins 30 % d’œuvres européennes dans leurs catalogues et
mettent ces œuvres en valeur ». Le considérant 34 précise que : « ...L’identification dans les métadonnées des
contenus audiovisuels qui constituent des œuvres européennes devrait être encouragée, de façon à ce que ces
métadonnées soient disponibles pour les fournisseurs de services de médias. La mise en valeur suppose de
promouvoir les œuvres européennes en facilitant l’accès à celles-ci. La mise en valeur peut être assurée par
différents moyens, comme consacrer aux œuvres européennes une rubrique spécifique accessible depuis la
page d’accueil du service, prévoir un critère de recherche « œuvres européennes » dans l’outil de recherche de
ce service, utiliser des œuvres européennes dans les campagnes promotionnelles de ce service ou promouvoir
un pourcentage minimal d’œuvres européennes du catalogue de ce service, par exemple à l’aide de bannières
ou d’outils similaires ».
Page 86
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
376
Ofcom (2008a). Paragraphes 3.99–3.101.
377
Helberger (2011a). p. 454.
378
Ibid, en référence à Sunstein (2007). pp. 27–28.
379
Pour une expérience sur la promotion de la diversité des contenus par des systèmes de recommandation,
voir Möller J. et al. « Do not blame it on the algorithm: An empirical assessment of multiple recommender
systems and their impact on content diversity », Information, Communication and Society, 2018.
380
Schönbach K. « The own in the foreign: Reliable surprise – An important function of the Media? », Media,
Culture and Society 29. pp. 344–353, 2007.
381
Helberger (2011a), p. 462.
382
Hoffman et al. (2015) affirment que pour faire l’expérience de la diversité en ligne, les utilisateurs doivent
s’efforcer d’atteindre la diversité, être conscients des conditions préalables de la diversité et être en mesure de
garantir l’accès à la diversité.
Page 87
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
prise de décision dans l’intérêt des citoyens, tel que jugé par eux-mêmes, sans introduire
d’autres réglementations ou incitations ou en utilisant des mesures de manipulation »383.
Dans l’ensemble, il est possible d’envisager des mécanismes qui agissent comme de
« bons agrégateurs » et favorisent la visibilité, la disponibilité et la consommation de
contenus locaux, nationaux et régionaux de haute qualité et fiables sur diverses
plateformes. À l’ère de l’IA, on peut supposer que la conception de tels éditeurs intelligents
est réalisable. La question de l’équilibre entre la vertu de l’intervention et ses éventuels
effets secondaires intrinsèques à de telles actions paternalistes demeure et doit être
abordée avec prudence384.
383
Hansen P. G. et Jespersen A. M. « Nudge and the manipulation of choice : A framework for the responsible
use of the nudge approach to behaviour change in public policy », European Journal of Risk Regulation 1, pp. 3–
28, 2013, p. 24. Pour une analyse complète de la diversité des expositions, voir Helberger N., Karppinen K., et
D’Acunto L., « Exposure diversity as a design principle for recommender systems », Information, Communication
and Society, 2017.
384
Helberger N., « Merely facilitating or actively stimulating diverse media choices? Public service media at the
crossroad », International Journal of Communication 9. pp. 1324–1340, 2015 ; Bodo B. et al. « Tackling the
algorithmic control crisis − The technical, legal and ethical challenges of research into algorithmic agents »,
Yale Journal of Law and Technology 19. pp. 133−180, 2017.
Page 88
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
(2) il est important de poursuivre le dialogue entre les créateurs de contenu, les
intermédiaires, les utilisateurs, les annonceurs et les autres parties prenantes
impliquées dans la dynamique de l’espace médiatique et de souligner l’importance
cruciale d’une consommation de médias culturellement diversifiés dans ce
dialogue. La valeur accrue attachée à la disponibilité de choix culturellement
diversifiés, l’accent mis sur la fiabilité et la qualité que les utilisateurs comprennent
et apprécient, pourraient très bien inciter les plateformes à offrir de telles options.
Des mesures ont même déjà été prises dans ce sens - par exemple, en ce qui
concerne le signalement ou le retrait de certains types de contenu ou de certains
utilisateurs, ou l’amélioration de la transparence quant aux sources de contenu.
385
Adomavicius G. et Kwon Y., « Maximizing aggregate recommendation diversity: A graph-theoretic approach »,
Proceedings of the 1st International Workshop on Novelty and Diversity in Recommender Systems. DiveRS 2011.
Chicago, 2011.
386
Helberger N., Pierson J. et Poell T., « Governing online platforms: From contested to cooperative
responsibility », The Information Society, 2017, p. 2.
387
Ibid.
Page 89
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
388
Voir, par exemple, Marda V. et Milan S., « Wisdom of the crowd: Multistakeholder perspective on the fake
news debate », A Report by the Internet Policy Observatory at the Annenberg School, University of Pennsylvania, 21
mai 2018.
389
Helberger et al. (2017).
Page 90
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
Droit d’auteur
L’une des principales craintes que suscite l’IA est celle du remplacement des humains par les
machines. Les gens ont de plus en plus peur de perdre leur emploi au profit de robots, et cette
inquiétude se ressent également dans le secteur audiovisuel. Les exemples d’intervention
créative de l’IA dans la rédaction de scénarios ou la composition de musique se multiplient, pour
ne citer que ces deux domaines. Cette invasion techno-barbare dans le champ créatif reste
toutefois d’une importance plutôt modérée, et les craintes d’une destruction des emplois créatifs
sont ainsi très probablement injustifiées, du moins pour le moment. Et pourtant, le sujet de la
protection par le droit d’auteur des œuvres créées par des machines enflamme le monde
universitaire. Cette question n’est pas sans mérite : si l’on admet que des machines puissent
« créer » des œuvres, peuvent-elles alors détenir des droits d’auteur ? Ou alors, des personnes
ou des entreprises peuvent-elles être titulaires des droits d’auteur sur une œuvre créée par une
machine ? L’état des lieux proposé par Giancarlo Frosio dans sa contribution à cette publication
répond à une série de questions juridiques émergentes concernant l’IA et la créativité. L’IA peut
également servir à lutter contre les ennemis de la créativité en permettant d’identifier et de
retirer d’internet des contenus qui contreviennent au droit d’auteur et de traquer les pirates et
les fuites provenant du secteur. Cependant, en fonction de la manière dont les algorithmes sont
programmés, il existe toujours un risque d’obtenir de faux positifs, ce qui peut avoir un impact
sur la liberté d’expression des utilisateurs d’internet.
Page 91
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
5.1. Introduction
D’aucuns affirment que l’intelligence artificielle (IA) est une révolution porteuse de
transformations radicales pour l’humanité390. Les machines intelligentes prennent des
formes multiples et variées pour servir divers objectifs et ont la capacité de remplacer les
humains pratiquement partout391 ce qui, bien entendu, a aussi bien des effets positifs que
des effets négatifs392. Il semblerait même que l’IA soit en mesure de se substituer à des
activités plus foncièrement humaines. Même si jusqu’à présent, la plupart des créateurs ne
se sentent pas réellement menacés par l’activité des robots393, la créativité est néanmoins
un domaine majeur dans lequel l’IA s’avère de plus en plus compétente. L’IA écrit des
poèmes, des romans et des articles de presse, compose de la musique, édite des
photographies, crée des jeux vidéo et produit des peintures et autres œuvres d’art. La
Page 93
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
plupart des secteurs créatifs seront largement touchés394, depuis l’industrie audiovisuelle395
jusqu’à la musique396 et l’édition397. L’ère de l’(I)Auteur est en marche.
Dans ce contexte, l’évolution du système de propriété intellectuelle (PI) pour
s’adapter à la créativité et à l’innovation générées par l’IA (et aux défis que cela entraîne)
est désormais un thème d’une actualité cruciale398. On assiste actuellement à l’émergence
d’une abondante littérature consacrée à l’IA et la PI399. Il va sans dire que les régimes de
propriété intellectuelle existants, notamment en matière de droit d’auteur, de secret des
affaires et de droit des brevets400, peuvent protéger les logiciels sur lesquels repose la
technologie de l’IA401. Cependant, la protection accordée aux logiciels ne s’étend pas aux
produits éventuellement créés par l’IA. La question reste ouverte quant à savoir si, sur la
base de la configuration actuelle du régime du droit d’auteur, cette protection est
effectivement disponible. Il convient, par ailleurs, de distinguer la créativité assistée par
ordinateur, qui est protégée par le droit d’auteur pour autant que la contribution de
l’utilisateur soit originale, de la créativité proprement générée par ordinateur, où
l’interaction de l’utilisateur avec un ordinateur amène ce dernier à créer sa propre
394
New European Media (2019), AI in media and creative industries,
https://arxiv.org/ftp/arxiv/papers/1905/1905.04175.pdf. Pfeiffer A., op.cit.
395
L’intelligence artificielle dans l’industrie audiovisuelle, résumé de l’atelier de l’Observatoire européen de
l’audiovisuel (en anglais) Strasbourg, 17 décembre 2019, Observatoire européen de l’audiovisuel, Strasbourg,
2019, https://rm.coe.int/summary-workshop-2019-bat-2/16809c992a. Voir aussi Baujard T., Tereszkiewicz R.,
de Swarte A., Tuovinen T., “Entering the new paradigm of artificial intelligence and series”, étude commandée
par le Conseil de l’Europe et, Décembre 2019, https://rm.coe.int/eurimages-entering-the-new-paradigm-
051219/1680995331.
396
Strum B. et al., Artificial Intelligence and Music: Open Questions of Copyright Law and Engineering Praxis, Arts 8,
pp. 115-129. BPI, Music’s smart future: How will AI Impact the Music Industry,
www.musictank.co.uk/wp-content/uploads/2018/03/bpi-ai-report.pdf.
397
Lovrinovic C. et Volland H., The future impact of artificial intelligence on the publishing industry, Gould Finch
and Frankfurter Buchmesse, disponible sur : https://bluesyemre.files.wordpress.com/2019/11/the-future-
impact-of-artificial-intelligence-on-the-publishing-industry.pdf.
398
Cubert J.A. et Bone R.G.A., « The law of intellectual property created by artificial intelligence » dans Barfield
W. and Pagallo U. (éd.), Research Handbook on the Law of Artificial Intelligence, Edward Elgar, Cheltenham, pp.
411-427. OCDE, L’intelligence artificielle dans la société, Éditions OCDE, Paris, pp. 121-122,
https://www.oecd-ilibrary.org/fr/science-and-technology/l-intelligence-artificielle-dans-la-societe_b7f8cd16-
fr. OMPI (2019a), Projet de document de synthèse sur les politiques en matière de propriété intellectuelle et
l’intelligence artificielle OMPI, Genève,
https://www.wipo.int/meetings/fr/doc_details.jsp?doc_id=470053. OMPI (2019b), WIPO Technology Trends 2019
- Artificial Intelligence, WIPO, Geneva, https://www.wipo.int/edocs/pubdocs/en/wipo_pub_1055.pdf.
399
Iglesias M., Shamuilia S. et Anderberg A., Intellectual Property and Artificial Intelligence: A Literature Review,
Office des publications de l’Union européenne, Luxembourg,
https://publications.jrc.ec.europa.eu/repository/bitstream/JRC119102/intellectual_property_and_artificial_intell
igence_jrc_template_final.pdf.
400
Qu’il s’agisse de la protection des logiciels en tant qu’invention mise en œuvre par ordinateur ou en tant que
tels, selon la juridiction.
401
Calvin N. et Leung J., Who owns artificial intelligence ? A preliminary analysis of corporate intellectual property
strategies and why they matter, Future of Humanity Institute, Université d’Oxford,
https://www.fhi.ox.ac.uk/wp-content/uploads/Patents_-FHI-Working-Paper-Final-.pdf.
Page 94
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
À cet égard, le présent chapitre vise à répondre à une série de questions juridiques
émergentes face au dilemme de la créativité artificielle. Comment la créativité artificielle
s’inscrit-elle dans la théorie conventionnelle du droit d’auteur et dans les doctrines
existantes ? En particulier, quelles sont les conditions requises pour la protection des
créations générées par l’IA et les réseaux de neurones profonds dans le cadre des principaux
régimes de droit d’auteur ? Faut-il envisager la création d’une personne morale pour l’IA ?
L’IA est-elle un auteur selon les normes traditionnelles du droit d’auteur ? Une machine
peut-elle être originale ? Ces interrogations - qui ne sont que quelques-unes des
nombreuses questions posées par la créativité artificielle - peuvent se résumer en une
phrase : l’IA peut-elle être un (I)Auteur ? Par ailleurs, deux autres questions fondamentales
dépassent le cadre de la présente analyse et concernent la machine apprenante et le
contrevenant (IA). Elles visent à savoir d’une part, si une IA peut enfreindre les droits
d’auteur par le biais du processus d’apprentissage automatique et d’entraînement qui lui
permet de générer de la créativité, et d’autre part, si une IA peut enfreindre les droits
d’auteur en produisant une contrefaçon. Outre les véritables défis liés aux normes de
paternité de l’IA, le présent rapport envisage la voie à suivre au vu des options politiques
basées sur les différentes approches théoriques, telles que les théories de la personnalité
et les théories utilitaristes/incitatives de la propriété intellectuelle.
5.2. Technologie
Le tout premier livre écrit par ordinateur est The Policeman’s Beard is Half Constructed:
Computer Prose and Poetry de Racter404. C’était en 1984 et la prose de Racter était encore
assez obscure et rudimentaire. Mais depuis, les choses ont changé. La qualité de la
créativité artificielle s’est considérablement améliorée, à tel point qu’un roman écrit par
une machine a franchi les premières étapes de sélection d’un concours littéraire au Japon,
402
Payer Components South Africa Ltd c. Bovic Gaskins [1995] 33 IPR 407. Clark R. and Smyth S., Intellectual
Property Law in Ireland, Butterworths, Dublin. Denicola R., « Ex Machina: Copyright Protection for Computer-
Generated Works », Rutgers University Law Review 69, pp. 269-270.
403
Craglia M., Artificial Intelligence: A European Perspective, Office des publications de l’Union européenne,
Luxembourg, pp. 67-68.
404
Racter, The Policeman’s Beard is Half Constructed: Computer Prose and Poetry by Racter - The First Book Ever
Written by a Computer, Warner Books, New York.
Page 95
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
éliminant dans la foulée des milliers d’auteurs humains405, et que Sunspring, un film de
science-fiction entièrement écrit par une IA, s’est classé dans le top 10 du festival annuel
Sci-Fi London406. L’AIVA - de même que Melodrive ou Amper - gère une IA qui compose de
la musique commercialisée pour accompagner des œuvres audiovisuelles, des publicités ou
des jeux vidéo407. Les Z-Machines, groupe de robots musiciens japonais, interprètent de la
musique en changeant le rythme de leur jeu en fonction de l’intervention du public et des
personnes qui visitent leur site internet408, tandis que le Flow Machine de Sony peut
interagir et co-improviser avec un musicien humain409. Les arts visuels semblent toutefois
être le domaine de création où l’IA est la plus performante. Un tableau généré par IA,
intitulé « Portrait d’Edmond de Belamy », a été vendu chez Christie’s pour la somme
impressionnante de 432 500 dollars410.
Grâce à la disponibilité massive des données, à l’évolution des ressources de calcul
et aux nouvelles architectures basées sur l’apprentissage profond, l’IA a connu des avancées
majeures au cours de la dernière décennie411. L’avènement du Generative Adversarial Network
(réseau antagoniste génératif - GAN), étroitement lié à ces progrès, a entraîné un
développement fondamental de la créativité générée par l’IA412. Il s’agit là d’une évolution
assez récente. En juin 2014, Ian Goodfellow a publié un article intitulé « Generative
Adversarial Networks » et placé le code sur GitHub sous licence BSD413. L’article décrit un
processus génératif qui utilise un modèle antagoniste pour l’apprentissage automatique.
Dans ce scénario, deux réseaux de neurones s’affrontent dans un jeu. Cette technique
apprend à générer de nouvelles données avec les mêmes statistiques que celles de son
module d’entraînement. Cette méthode est devenue très populaire pour entraîner l’IA avec
de grands ensembles de données. La technologie a ensuite évolué vers des systèmes
créatifs de type Creative Adversarial Network (réseau antagoniste créatif - CAN), qui
s’appuient sur des GAN et qui « produisent de l’art en regardant l’art et en apprenant les
fondements du style, puis deviennent créatifs en renforçant la charge interpellatrice de l’art
produit tout en s’écartant des styles appris414 ». Les GAN et les CAN ont été déployés par le
collectif artistique parisien Obvious pour créer le « Portrait d’Edmond de Belamy » et une
série de portraits algorithmiques intitulée « La Famille de Belamy »415.
405
Lewis D., « An AI-Written Novella Almost Won a Literary Prize », Smithsonian Magazine, Washington,
https://www.smithsonianmag.com/smart-news/ai-written-novella-almost-won-literary-prize-180958577.
406
Craig C. et Kerr I., « The Death of the AI Author », Osgoode Legal Studies Research Paper, pp. 1-2.
407
AIVA, https://www.aiva.ai.
408
Bakare L., « Meet Z-Machines, Squarepusher’s new robot band », The Guardian,
https://www.theguardian.com/music/2014/apr/04/squarepusher-z-machines-music-for-robots.
409
Deltorn J.M. et Macrez F. (2018), « Authorship in the Age of Machine Learning and Artificial Intelligence »,
Center for International Intellectual Property Studies Research Paper n° 2018-10, 22-23,
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3261329.
410
Craig C. et Kerr I., op.cit., 3-4.
411
Goodfellow I., Bengio Y. et Courville A., Deep Learning, MIT Press, Cambridge.
412
Svedman M., « Artificial Creativity: A case against copyright for AI-created visual work », IP Theory 9(1), pp.
3-4.
413
Goodfellow I. et al, « Generative Adversarial Networks », arXiv, https://arxiv.org/abs/1406.2661.
414
Elgammal A. et al, « CAN : Creative Adversarial Networks Generating “Art” by Learning About Styles and
Deviating from Style Norms », pp. 1-22, https://arxiv.org/abs/1706.07068.
415
Obvious AI & Art. Disponible sur : https://obvious-art.com.
Page 96
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
416
Cloud Painter. Disponible sur : https://www.cloudpainter.com.
417
Holland-Minkley D., God in the Machine: Perceptions and Portrayals of Mechanical Kami in Japanese Anime,
mémoire de maîtrise, Université de Pittsburgh.
418
Cuthbertson, « Tokyo : Artificial Intelligence ‘Boy’ Shibuya Mirai Becomes World’s First AI Bot to Be Granted
Residency », Newsweek, Washington, https://www.newsweek.com/tokyo-residency-artificial-intelligence-boy-
shibuya-mirai-702382.
Page 97
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
L’idée d’une personnalité juridique propre aux machines intelligentes est également
étayée par une réflexion théorique. Nick Bostrom, par exemple, note que : « les machines
capables de prendre des initiatives autonomes et d’élaborer leurs propres plans ... sont
davantage considérées comme des personnes que comme des machines419. » Certains
auteurs soulignent qu’il n’existe aucun fondement juridique ou théorique pour réfuter la
personnalité des robots IA : la loi devrait pouvoir accorder la personnalité sur la base de
choix rationnels et de données empiriques, plutôt que sur la base de superstitions et de
privilèges420. Par conséquent, des arguments ont été avancés en faveur de l’octroi d’une
personnalité à de futures IA potentiellement performantes qui seraient autonomes
(capables de prendre une décision sans intervention extérieure), intelligentes (capables de
s’auto-programmer et d’intégrer des informations dans un cadre spécifique) et qui auraient
une conscience (capables d’une expérience subjective)421.
Fait notable, le Parlement européen envisage la possibilité de qualifier l’IA et les
robots comme des « personnes électroniques ». Dans une résolution sur les règles de droit
civil en matière de robotique, le Parlement européen se demande si les règles ordinaires
en matière de responsabilité sont suffisantes ou si de nouveaux principes et de nouvelles
règles s’imposent pour encadrer l’IA422. La nature autonome des robots doit-elle être
interprétée à la lumière des catégories juridiques existantes ou faut-il créer une nouvelle
catégorie423 ? La résolution affirme que « plus un robot est autonome, moins il peut être
considéré comme un simple outil contrôlé par un autre acteur (le fabricant, l’opérateur, le
propriétaire, l’utilisateur, etc.)424 ». Aux yeux du Parlement européen, il est évident que le
droit de l’UE ne permet pas de couvrir la responsabilité non contractuelle en cas de
dommages causés par une IA autonome. Les règles traditionnelles suffisent à couvrir les
cas où la cause des actes ou de l’inaction du robot peut être identifiée comme imputable à
un acteur humain précis, tel que le fabricant, l’opérateur, le propriétaire ou l’utilisateur. De
même, les règles actuellement en vigueur en matière de responsabilité s’appliquent aussi
en cas de dysfonctionnement du robot ou si l’agent humain aurait pu prévoir et éviter le
comportement dommageable du robot. Mais que se passe-t-il si la cause de l’acte ou de
l’inaction du robot ne peut être attribuée à un agent humain spécifique ? Qu’en est-il
lorsqu’il n’y a aucun défaut de fabrication ? Ou qu’il n’y a pas eu de dysfonctionnement de
l’IA ? Que faire lorsque la victime n’est pas en mesure d’apporter des preuves des dommages
effectifs, du défaut du produit ou de la relation de cause à effet entre les dommages et le
défaut ? Que peut-on faire si, en fait, l’IA a causé des dommages parce qu’elle a agi de
manière autonome selon sa propre programmation et son propre objectif ? Dans un tel
419
Bostrom N., Superintelligence: Paths, Dangers, Strategies, OUP, Oxford.
420
Solum L.B., « Legal Personhood for Artificial Intelligences », North Carolina Law Review 70, p. 1264.
421
Zimmerman E., « Machine Minds : Frontiers in Legal Personhood », pp. 14-21,
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2563965. Voir aussi Hubbard F.P., « Do Androids Dream?
Personhood and Intelligent Artifacts », Temple law Review 83, pp. 406-474.
422
Cf. Vladeck D., « Machines sans principes: Liability Rules and Artificial Intelligence », Washington Law Review
89, pp. 117-150.
423
Parlement européen (2017), Règles de droit civil sur la robotique : Résolution du Parlement européen du 16
février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la
robotique (2015/2103(INL)), 16 février 2017, https://www.europarl.europa.eu/doceo/document/TA-8-2017-
0051_FR.pdf.
424
Parlement européen (2017), op.cit.
Page 98
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
425
Parlement européen (2017), op.cit. Voir également Commission européenne, Liability for Artificial
Intelligence and other Emerging Technologies: Report from the Expert Group on Liability and New Technologies
– New Technologies Formation, Union européenne, Bruxelles,
https://ec.europa.eu/transparency/regexpert/index.cfm?do=groupDetail.groupMeetingDoc&docid=36608.
426
Parlement européen (2017), op.cit.
427
Parlement européen (2017), op.cit.
428
Pagallo U., « Vital, Sophia, and Co - The Quest for the Legal Personhood of Robots », Information 9(9), pp.
239-240.
429
Banteka N., « Artificially Intelligent Persons », Houston Law Review 58 (à paraître),
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3552269. Mik E., « AI as Legal Person? » dans Hilty R. et
Liu K-C. (éd.), Artificial Intelligence and Intellectual Property, Oxford University Press, Angleterre, à paraître.
Pagallo U., op.cit. pp. 230-240.
430
Pagallo U., op.cit. pp. 237-238.
Page 99
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
entités d’IA431. Cette analyse empirique prouve que, pour accorder la personnalité, les
tribunaux examinent si elle est garantie directement ou indirectement par une loi, si l’entité
artificielle peut poursuivre et être poursuivie en justice, et enfin, si l’entité est un
groupement de personnes physiques432.
Ces considérations permettent également de faire la distinction entre l’IA et les
sociétés ayant le statut de personne morale. Contrairement aux sociétés, les entités d’IA ne
sont ni des entités « fictives », ni des associations de personnes physiques433. Les personnes
morales sont constituées par des personnes physiques qui sont fondamentalement en
mesure d’exploiter des droits. En outre, même si des personnes morales peuvent détenir un
droit d’auteur, ce droit provient d’une œuvre créée par une personne physique qui est
l’auteur de cette œuvre, ladite œuvre remplissant alors les critères de paternité et
d’originalité. Or, il en va tout autrement avec une IA et une œuvre créée par une IA, comme
nous le verrons dans les pages suivantes.
Il est probable que les décideurs politiques ont d’ores et déjà intégré les arguments
s’opposant à la personnalité juridique de l’IA, comme en témoigne la résolution du
Parlement européen de 2017 en excluant, ne serait-ce qu’à court et moyen terme, toute
forme de personnalité juridique de l’IA. En outre, le Parlement européen semble désormais
exclure la personnalité juridique de l’IA en ce qui concerne particulièrement la créativité
artificielle. Dans un récent « Projet de rapport sur les droits de propriété intellectuelle pour
le développement des technologies de l’intelligence artificielle », le Parlement européen
note, dans le cadre d’une proposition de résolution parlementaire, que « l’autonomisation
du processus créatif soulève des questions relatives à la titularité des DPI, [mais] considère
à cet égard qu’il ne serait pas opportun de vouloir doter les technologies d’IA de la
personnalité juridique434. » Plutôt que d’établir la personnalité juridique des machines, le
défi politique consisterait à répartir correctement les responsabilités et obligations de
rendre compte des activités des robots IA lorsque cette répartition s’avère complexe, par
exemple en s’appuyant sur des contrats et sur le droit des affaires435.
431
Banteka N., op. cit.
432
Banteka N., op. cit., pp. 50-52.
433
Banteka N., op. cit . p. 19.
434
Parlement européen (2020), Projet de rapport sur les droits de propriété intellectuelle pour le développement
des technologies liées à l’intelligence artificielle, 2020/2015(INI), 24 avril 2020,
https://europarl.europa.eu/doceo/document/JURI-PR-650527_FR.html.
435
Parlement européen (2017), op.cit. Pagallo U., op.cit. pp. 239-240.
Page 100
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
d’auteur. Cela se résume à la question de savoir si l’existence d’un être humain est une
condition intrinsèque du statut d’auteur. Un auteur peut-il être une machine ou doit-il
impérativement être humain ?
En fait, il n’existe aucune définition dans les traités internationaux qui puisse
apporter une réponse définitive. Toutefois, il semblerait que le libellé de la définition de la
création humaine dans la Convention de Berne436 exclut la possibilité de considérer l’IA
comme un auteur. D’une part, le terme « protection », lié à la vie de l’auteur, semble exclure
les machines du statut d’auteur (Convention de Berne, article 7). De plus, la référence à la
nationalité - ou à la résidence - de l’auteur semble impliquer que la notion de paternité ne
s’applique qu’aux agents humains (Convention de Berne, article 3). D’une façon générale,
d’aucuns affirment que le « modèle humaniste de Berne », ancré dans les théories idéelles
de la personnalité, défend résolument une « conception anthropocentrique de la paternité
telle qu’elle est inscrite dans la Convention de Berne », qui exclut toute paternité extra-
humaine du champ d’application de Berne437.
436
Convention de Berne pour la protection des œuvres littéraires et artistiques (modifiée le 28 septembre 1979),
https://wipolex.wipo.int/fr/treaties/textdetails/12214.
437
Ginsburg J., « People Not Machines: Authorship and What It Mean in the Berne Convention », International
Review of Intellectual Property and Competition Law 49, pp.131-135. Voir également Aplin T. et Pasqualetto G.,
« Artificial Intelligence and Copyright Protection », paragraphe 5.04, in Ballardini R., Kuoppamäki P. et Pitkänen
O.(éd.), Regulating Industrial Internet Through IPR, Data Protection and Competition Law, Kluwer, Alphen aan den
Rijn. Ricketson S., « The Need for Human Authorship - Australian Developments: Telstra Corp Ltd v Phone
Directories Co Pty Ltd (case comment) », E.I.P.R. 34(1), p. 34. Ricketson S. (1991), « People or machines? The
Berne Convention and the changing concept of authorship », Columbia VLA Journal of Law & the Arts 16, p. 34.
438
Deltorn J.M. (2017), « Deep Creations: Intellectual Property and the Automata », Frontiers in Digital Humanities,
p. 8, https://www.frontiersin.org/articles/10.3389/fdigh.2017.00003/full. Deltorn J.M. et Macrez F. (2018), op.cit.,
p. 8.
439
Directive 2009/24/CE du Parlement européen et du Conseil du 23 avril 2009 concernant la protection
juridique des programmes d’ordinateur, JO L111/16.
440
Directive 96/9/CE du Parlement européen et du Conseil, du 11 mars 1996, concernant la protection juridique
des bases de données JO L077/20.
441
Directive 2006/116/CE du Parlement européen et du Conseil du 12 décembre 2006 relative à la durée de
protection du droit d’auteur et de certains droits voisins, J.O. L372/12.
Page 101
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
qui crée l’œuvre » et à « la personne physique [qui] conservera tout au moins le droit
inaliénable de revendiquer la paternité de son œuvre442. » La proposition initiale de
directive relative à la protection des programmes d’ordinateur concluait ainsi : « [l]’apport
humain en ce qui concerne la création de programmes générés par des machines peut être
relativement modeste et le sera de plus en plus à l’avenir. Néanmoins, un "auteur" humain
au sens le plus large est toujours présent et doit avoir le droit de revendiquer la paternité
du programme443. » Dans l’affaire jugée par la CJUE, Painer, l’avocate générale Verica
Trstenjak a également souligné ce point en ces termes : « C’est donc uniquement le résultat
d’une activité créatrice humaine qui est protégé, activité créatrice qui n’est pas exclue du
seul fait que l’auteur se serve d’un moyen technique tel qu’un appareil photo444. »
La législation nationale des États membres de l’UE confirme cette approche. Par
exemple, l’article L.111-1 du Code français de la propriété intellectuelle445 exige que
l’œuvre protégée soit une « création de l’esprit ». L’article 5 de la loi espagnole sur le droit
d’auteur énonce clairement que « l’auteur d’une œuvre est la personne physique qui l’a
créée »446. Bien que l’article 7 de la loi allemande sur le droit d’auteur ne limite pas
spécifiquement la paternité d’une œuvre aux personnes physiques, l’article 11 ancre cette
paternité dans une approche fondée sur la personnalité en protégeant « l’auteur dans ses
relations intellectuelles et personnelles avec l’œuvre »447.
En outre, le droit de l’UE - ainsi que de nombreuses législations nationales (par
exemple, la loi néerlandaise sur le droit d’auteur, art. 4, paragraphe 1, le Code français de
la propriété intellectuelle, article L113-1, la loi espagnole sur le droit d’auteur, art. 6.1, la
loi italienne sur le droit d’auteur, art. 8)448 - adopte une approche anthropocentrique en
prévoyant une présomption de paternité pour la personne dont le nom est indiqué dans
l’œuvre, en l’absence de preuve du contraire (Directive sur l’application des droits de
propriété intellectuelle, article 5). Certains tribunaux nationaux ont même établi que cette
présomption n’était applicable qu’aux personnes physiques qui ont créé l’œuvre, et non à
442
Ramalho A., « Will Robots Rule the (Artistic) World? A Proposed Model for the Legal Status of Creations by
Artificial Intelligence Systems », Journal of Internet Law 21, pp. 17-18.
443
Commission européenne, Exposé des motifs de la proposition de directive sur la protection des programmes
d’ordinateur, COM (88) 816 final, 17 mars 1989, p. 21.
444
Avis de l’avocat général Trstenjak (12 avril 2011), C-145/10 Eva-Maria Painer c. Standard VerlagsGmbH,
ECLI:EU:C:2011:239.
445
Code de la propriété intellectuelle de 1912. Disponible sur :
https://www.wipo.int/edocs/lexdocs/laws/en/fr/fr467en.pdf (France).
446
Loi sur la propriété intellectuelle de 1996. Disponible sur :
https://www.wipo.int/edocs/lexdocs/laws/en/es/es177en.pdf (Espagne).
447
Urheberrechtsgesetz (loi sur le droit d’auteur et les droits voisins - UrhG ) 1965. Disponible sur :
https://www.gesetze-im-internet.de/englisch_urhg/englisch_urhg.html (Allemagne).
448
Auteurswet (loi sur le droit d’auteur) 1912, disponible sur :
https://wetten.overheid.nl/BWBR0001886/2012-01-01 (Pays-Bas) ; Code de la propriété intellectuelle de 1912,
disponible sur : https://www.wipo.int/edocs/lexdocs/laws/en/fr/fr467en.pdf (France) ; loi de 1996 sur la
propriété intellectuelle, disponible sur :
https://www.wipo.int/edocs/lexdocs/laws/en/es/es177en.pdf (Espagne) ; loi sur la protection du droit d’auteur
et des droits voisins de 1941, disponible sur :
https://www.wipo.int/edocs/lexdocs/laws/en/it/it211en.pdf (Italie).
Page 102
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
une personne morale qui aurait pu obtenir les droits patrimoniaux449. Théoriquement, cette
présomption de paternité pourrait s’appliquer aux œuvres générées par l’IA en considérant
que la ou les personnes dont le nom est indiqué dans l’œuvre en sont l’auteur ou les auteurs.
Bien entendu, cette solution n’offre aucune protection réelle contre les infractions, puisque
la présomption peut être réfutée en prouvant que ce n’est pas la personne désignée qui est
l’auteur, mais une IA.
Un rapide tour d’horizon des autres grandes juridictions nous mène à des
conclusions similaires concernant l’application de la notion de paternité à l’IA.
5.3.2.2. Australie
La loi australienne fixe un cadre statutaire très clair pour les auteurs non humains en
définissant l’auteur comme une « personne qualifiée », aux termes de l’article 32,
paragraphe 1 de la loi australienne sur le droit d’auteur, ce qui, en vertu de l’article 32,
paragraphe 4, désigne un citoyen australien /une personne résidant en Australie450. Par
ailleurs, les tribunaux australiens inscrivent l’originalité parmi les conditions préalables à
la protection de la paternité. Dans l’affaire Acohs c. Ucorp, qui concerne l’application du droit
d’auteur à des fiches techniques produites électroniquement, le tribunal spécifie qu’une
œuvre doit « résulter des efforts originaux d’un auteur humain unique »451. La décision
rendue dans l’affaire des annuaires téléphoniques renforce ce point en soulignant que le
droit d’auteur « ne s’applique que s’il émane d’un individu »452. Enfin, dans l’affaire IceTV c.
Nine Network Australia, qui portait sur le droit d’auteur attaché à la création par ordinateur
de programmes télévisés hebdomadaires, le tribunal a conclu que seuls les auteurs, c’est-
à-dire les personnes correspondant à la définition légale, pouvaient faire preuve
d’originalité453.
5.3.2.3. États-Unis
449
Herlitz PBS AG c. Realister OÜ, Cour suprême estonienne (7 février 2012) affaire n° 3-2-1-155-11 (Estonie).
Voir également Vasamae E., « Presumption of authorship : only natural persons », Kluwer Copyright Blog,
Amsterdam, disponible sur : http://copyrightblog.kluweriplaw.com/2012/03/19/presumption-of-authorship-
only-natural-persons/?doing_wp_cron=1594514535.1866068840026855468750.
450
Copyright Act 1968, disponible sur : https://www.legislation.gov.au/Details/C2019C00042 (Australie).
451
Acohs Pty Ltd c. Ucorp Pty Ltd (2010) 86 IPR 492 (AUS).
452
Phone Directories Co Pty c. Telstra Corporation Ltd (2010) 194 FCR 142 (AUS) Voir aussi McCutcheon J., « The
Vanishing Author in Computer-Generated Works » : A Critical Analysis of Recent Australian Case Law »,
Melbourne University Law Review 36(3), pp. 941-969,
https://www.researchgate.net/publication/289409001_The_vanishing_author_in_computer-
generated_works_A_critical_analysis_of_recent_Australian_case_law.
453
IceTV Pty Ltd c. Nine Network Australia Pty Ltd [2009] HCA 14, 239 CLR 458 (AUS).
454
Milde K.F., « Can a Computer Be an "Author" or an "Inventor" ? », Journal of the Patent Office Society 51, pp.
378-406.
Page 103
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
pouvaient être des auteurs dont la production était éligible à une protection au titre du
droit d’auteur. En 1978, la National Commission on New Technological Uses of Copyrighted
Works (Commission nationale sur les nouvelles utilisations technologiques des œuvres
protégées par le droit d’auteur - Commission CONTU) a déclaré que les ordinateurs n’étaient
que des « outils de création inertes qui ne produisaient pas encore d’œuvres de manière
autonome ». La Commission CONTU n’a pas discuté de la protection au titre du droit
d’auteur des œuvres automatisées dépourvues de paternité humaine, car à l’époque, cela
relevait de la pure spéculation455. En 1986, le Congress Office of Technology Assessment
(Bureau d’évaluation technologique du Congrès - OTA) a publié un rapport affirmant que
même si les ordinateurs sont davantage que des « outils de création inertes », il est
impossible de déterminer les droits d’auteur relatifs aux œuvres créées par ordinateur456.
La loi américaine sur le droit d’auteur ne comporte pas de définition juridique
formelle de la paternité, de sorte que, dans un premier temps, les auteurs ont fait valoir
que la loi ne limitait pas littéralement la paternité aux auteurs humains457. Néanmoins, tant
les références doctrinales complémentaires que la jurisprudence excluent manifestement
la possibilité de considérer les agents non humains comme des auteurs au sens de la loi.
En particulier, l’article 101 de la loi sur le droit d’auteur458 définit les œuvres anonymes
comme étant « celles dont la paternité n’est imputable à aucune personne physique »,
désignant ainsi les personnes physiques comme auteurs potentiels. De plus, il est clair que
dans l’histoire constitutionnelle, le terme « copyright » privilégie les humains en tant que
seuls « auteurs » possibles459. Les tribunaux américains ont toujours soutenu cette
interprétation. La Cour suprême établit clairement qu’« en règle générale, l’auteur est [...]
la personne qui traduit une idée en une expression fixe et tangible relevant de la protection
du droit d’auteur »460. Dans l’affaire Feist c. Rural, la Cour suprême des États-Unis analyse en
détail la notion de paternité et d’auteur en examinant le concept d’originalité qui, selon
elle, se réfère à des spécificités intrinsèquement humaines, telles que « l’étincelle créative »
ou « la production intellectuelle, la pensée et la conception »461. Les affaires plus anciennes
mènent à la même conclusion. L’examen des affaires relatives aux marques commerciales
révèle que la loi sur le droit d’auteur ne protège que « les fruits du travail intellectuel » qui
455
National Commission on New Technological Uses of Copyrighted Works (CONTU), Final Report, États-Unis, p.44.
Voir aussi Bridy A. (2012), « Coding Creativity: Copyright and the Artificially Intelligent Author », Stanford
Technology Law Review 5, 22-24, paragraphe 53-60. Miller A.R., « Copyright Protection for Computer Programs,
Databases, and Computer Generated Works: Is Anything New Since CONTU ? », Harvard Law Review 977, pp.
977-1072.
456
US Office of Technology Assessment, Intellectual Property Rights in an Age of Electronics and Information, États-
Unis.
457
Bridy A. (2012), op.cit., 20, paragraphe 49. Denicola R. (2016), op.cit., pp. 275-283. Miller A.R., op.cit. pp. 1042-
1072, Samuelson P. (1986), « Allocating Ownership Rights in Computer-Generated Works », University of
Pittsburg Law Review 47(4), pp. 1200-1204.
458
Copyright Act de 1976. Disponible sur : https://www.copyright.gov/title17/title17.pdf (US).
459
Butler T., « Can a computer be an author? Copyright aspects of artificial intelligence », (Comm/Ent), A Journal
of Communications and Entertainment Law 4(4), pp. 733-734. Clifford, R.D. (1996), « Intellectual Property in the
Era of the Creative Computer Program: Will the True Creator Please Stand up », Tulane Law Review 71, 1682-
1686. Kasap A., « Copyright and Creative Artificial Intelligence (AI) Systems: A Twenty-First Century Approach
to Authorship of AI-Generated Works in the United States », Wake Forest Intellectual Property Law Journal 19(4),
p. 358, https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3597792. Milde K.F., op.cit. pp. 391-392.
460
Community for Creative Non-Violence c. Reid, 490 U.S. 730 (1989).
461
Feist Publications c. Rural Telephone Service, 499 U.S. 340 (1991) (États-Unis).
Page 104
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
« sont fondés sur la force créative de l’esprit »462. Dans l’affaire Burrow-Giles, la Cour
suprême des États-Unis rappelle que le droit d’auteur se limite à la « concepion
intellectuelle originale de l’auteur »463.
Une affaire récente a permis d’apporter quelques éclaircissements supplémentaires
sur la question. En l’occurrence, c’est un singe macaque, Naruto, qui a contribué à clarifier
la situation. Dans l’affaire Naruto contre Slater, deux « selfies de singes » mondialement
connus ont donné lieu à une polémique sur la question de savoir si les animaux pouvaient
être titulaires de droits d’auteur. Les autoportraits ont été réalisés par le macaque huppé
« Naruto », âgé de sept ans, alors que le photographe David Slater avait laissé son appareil
photo sans surveillance lors d’un séjour en Indonésie. Peu de temps après, Wikimedia
Commons a publié les photos sur son site internet en partant du principe que les selfies du
singe n’avaient pas d’auteur humain et, partant, appartenaient au domaine public.
Wikimedia a systématiquement refusé de retirer les photos. Revenant sur ses déclarations
initiales selon lesquelles les selfies avaient été réalisés intégralement par les singes sans
aucune intervention humaine, David Slater a expliqué par la suite qu’il avait au préalable
effectué quelques réglages sur l’appareil pour sélectionner le bon angle et l’éclairage
approprié, qu’il avait optimisé les paramètres et fait en sorte d’attirer les singes pour qu’ils
appuient sur le bouton de l’appareil photo.
Même si en dernier ressort, la question de savoir si les selfies appartiennent au
domaine public n’a pas été examinée, les tribunaux ont pu, à cette occasion, déterminer si
Naruto était en mesure de détenir un droit d’auteur pour son selfie. En 2014, les selfies du
singe ont été publiés dans un livre par Blurb Inc., qui a désigné Slater et Wildlife
Personalities Ltd comme étant les titulaires des droits d’auteur. En 2015, l’association
People for the Ethical Treatment of Animals (pour une éthique dans le traitement des
animaux - PETA) a déposé une plainte pour violation des droits d’auteur en qualité de
proche et de représentant de Naruto contre Slater, Wildlife Personalities Ltd et Blurb Inc.
devant le tribunal d’instance de Californie. Le tribunal d’instance a fait droit à la demande
de rejet déposée par les défenderesses au motif que Naruto n’avait pas qualité à agir en
vertu de la loi sur le droit d’auteur, tout en précisant : « Si les humains qui prétendent agir
au nom de la demanderesse souhaitent que le droit d’auteur fasse partie des domaines du
droit où les animaux non humains ont qualité pour agir, ils devraient soumettre cette affaire
contestable au Congrès - et non aux tribunaux fédéraux464. » La décision a fait l’objet d’un
appel et, bien que les parties aient convenu d’un accord, la cour d’appel a refusé de rejeter
l’appel et a confirmé la décision de la juridiction inférieure. La majorité des juges a constaté
que si les animaux disposent de l’art. III pour leur défense, ils n’ont pas qualité à agir en
vertu de la loi sur le droit d’auteur465. Le tribunal s’est appuyé sur la décision du neuvième
circuit dans l’affaire Cetacean Community. c. Bush, dont il ressort que les animaux n’ont un
statut légal que si la loi le stipule clairement466. En outre, les termes « enfants », « petits-
enfants », « légitime », « veuve » et « veuf » utilisés dans la loi impliquent nécessairement
que la loi sur le droit d’auteur exclut les animaux qui « ne se marient pas et n’ont pas
462
Trade-Mark Cases, 100 U.S. 82 (1879) (États-Unis).
463
Burrow-Giles Lithographic Co. c. Sarony, 111 U.S. 53 (1884) (États-Unis).
464
Naruto c. David Slater, 15-cv-04324-WHO (N.D. Cal. 2016) (États-Unis) (« Naruto 2016 »).
465
Naruto c. David Slater, F.3d 418 (9e cir. 2018) (États-Unis) (« Naruto 2018 »).
466
Cetacean Community. c. Bush, 386 F.3d 1169 (9e cir. 2004) (États-Unis).
Page 105
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
d’héritiers ayant capacité à recevoir des biens en vertu de la loi »467. Les conclusions de
l’arrêt Naruto peuvent facilement être étendues à toute créativité non humaine et générée
par l’IA.
La «Third Edition of the Compendium of U.S. Copyright Office Practices » (troisième
édition du recueil des pratiques du Bureau du droit d’auteur des États-Unis), qui a été
publiée en décembre 2014, après le début de l’affaire Naruto, formule à titre consultatif des
recommandations d’experts qui excluent la paternité non humaine468. Le recueil fait
systématiquement référence à des personnes ou à des êtres humains lorsqu’il est question
de la paternité des œuvres. En particulier, l’article 306, intitulé The Human Authorship
Requirement (Exigences en matière de paternité humaine), limite l’enregistrement des
demandes aux « conceptions intellectuelles originales de l’auteur » créées par un être
humain. Comme le précise l’article 313.2, Works that Lack Human Authorship (Œuvres dont
l’auteur n’est pas un être humain), les œuvres produites par la nature, les animaux ou les
plantes et, de même, les œuvres créées par une machine ou par un procédé mécanique sans
l’intervention d’un auteur humain, ne sont pas protégées par le droit d’auteur. En se référant
aux affaires des marques commerciales et à Burrow-Giles, le Copyright Office a conclu qu’il
refuserait d’enregistrer une demande dès lors qu’il est établi qu’aucun être humain n’a créé
l’œuvre469.
5.3.2.4. La Chine
467
Naruto c. David Slater, F.3d 418 (9e cir. 2018) (États-Unis) (« Naruto 2018 »).
468
U.S. Copyright Office, Compendium of U.S. Copyright Office Practices, 3e édition,
https://www.copyright.gov/comp3/comp-index.html.
469
U.S. Copyright Office, op.cit., paragraphe 313.2.
470
Beijing Feilin Law Firm c. Baidu Corporation (26 avril 2019), Tribunal de Beijing chargé des affaires en ligne,
(2018) Beijing 0491 Minchu n° 239. He K. (2020b), « Feilin c. Baidu: Beijing Internet Court tackles protection of
AI/software-generated work and holds that copyright only vests in works by human authors », The IPKat,
http://ipkitten.blogspot.com/2019/11/feilin-v-baidu-beijing-internet-court.html.
Chen M., « Beijing Internet Court denies copyright to works created solely by artificial intelligence », Journal of
Intellectual Property Law & Practice 14(8), pp. 14-18.
Page 106
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
471
Shenzhen Tencent c. Yinxun, tribunal d’instance populaire de Nanshan, Shenzhen, Province de Guangdong
[2019] n° 14010 (Chine), disponible sur :
https://mp.weixin.qq.com/s/jjv7aYT5wDBIdTVWXV6rdQ. He K. (2020a), « Another decision on AI-generated
work in China : Is it a Work of Legal Entities », The IPKat, http://ipkitten.blogspot.com/2020/01/another-
decision-on-ai-generated-work.html.
Page 107
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
472
Frosio G., Reconciling Copyright with Cumulative Creativity: The Third Paradigm, Edward Elgar, Cheltenham, p.
16.
473
Fichte J., « Proof of the illegality of reprinting: a rationale and a parable », Berlinische Monatsschrift 21,
p. 447. Hegel G.H., Philosophy of rights, Thomas Knox, Clarendon Press, Oxford, paragraphe 69. Kant I. (1785),
«Von der Unrechtmäßigkeit des Büchernachdrucks » [De l’illégitimité de la contrefaçon des livres], Berlinische
Monatsschrift 5, pp. 403-417. Voir également Fisher W., « Theories of intellectual property », in Munzer S. (éd.)
New essays in the legal and political theory of property, Cambridge University Press, Cambridge, pp. 168-200.
474
Voir par exemple International News Service c. Associated Press, 248 U.S. 215 (1918) (États-Unis). Jeweler’s
Circular Publishing Co. c. Keystone Publishing Co., 281 F. 83 (2e circ. 1922) (États-Unis). Voir également Rahmatian
A., « Originality in UK Copyright Law The Old ‘‘Skill and Labour’’ Doctrine Under Pressure », IIC 44, pp. 4-34.
475
Voir sur ce point l’argumentation de Rosati E., Originality in EU Copyright - Full Harmonization through Case
Law, Edward Elgar, Cheltenham.
476
Infopaq International A/S c. Danske Dagblades Forening, C-5/08 (2009) ECLI:EU:C:2009:465.
Page 108
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
À travers ces différents choix, l’auteur d’une photographie de portrait est ainsi en mesure
d’imprimer sa « touche personnelle » à l’œuvre créée478. Enfin, dans l’affaire Football Dataco,
la CJUE rejette toute doctrine se référant à la « sueur du front » et établit que le travail et
le savoir-faire significatifs requis de la part de l’auteur ne sauraient, en tant que tels,
justifier une protection au titre du droit d’auteur s’ils n’expriment aucune originalité dans
le choix ou la disposition479. Les œuvres produites uniquement sur la base de règles ou de
contraintes techniques n’ont pas la liberté créatrice requise pour bénéficier d’une paternité.
La jurisprudence américaine a également entériné cette approche de l’originalité
fondée sur la personnalité. Depuis les premières affaires telles que l’affaire Burrow-Giles c.
Sarony qui portait sur la possibilité de protéger les droits d’auteur d’une photographie de
portrait d’Oscar Wilde, la Cour suprême des États-Unis a établi que l’originalité découlait
des choix créatifs libres de l’auteur qui imprègnent l’œuvre de sa personnalité480 « de telle
sorte que le produit final reproduit sa conception et sa vision » de ce que l’œuvre devrait
être481. En particulier, dans l’affaire Burrow-Giles, le tribunal a jugé que les photographies
étaient protégées par le droit d’auteur parce qu’elles portaient l’empreinte de la « propre
conception mentale originale » du photographe482. Plus tard, dans l’affaire Feist c. Rural, la
Cour suprême des États-Unis a clairement établi que seules les œuvres dotées d’un
minimum de créativité représentant la personnalité de l’auteur pouvaient être originales et
que le travail et les efforts fournis à eux seuls pour créer une œuvre ne sauraient prétendre
à une protection au titre du droit d’auteur483. À partir de ces considérations systémiques, il
a été établi que les produits tels qu’un code informatique484 ou un inventaire de pièces
matérielles numérotées automatiquement et créées à l’aide de systèmes logiciels n’avaient
pas l’originalité requise pour être protégés par le droit d’auteur485.
En fait, P. Samuelson et plusieurs autres auteurs affirment qu’il n’y a pas de barrières
légales aux États-Unis empêchant de traiter une machine comme un auteur, car « [l]e
niveau d’originalité requis pour le droit d’auteur est suffisamment bas pour que les œuvres
générées par ordinateur, même si elles sont créées exclusivement par une machine,
puissent bénéficier de cette protection »486. En réponse, je dirais qu’au vu de l’affaire Feist,
la question de l’originalité ne se pose pas seulement en termes quantitatifs. Aux fins de
477
Eva-Maria Painer c. Standard VerlagsGmbH et autres, C-145/10 (2011) ECLI:EU:C:2011:798.
478
Eva-Maria Painer c. Standard VerlagsGmbH et autres, C-145/10 (2011) ECLI:EU:C:2011:798.
479
Football Dataco Ltd et autres c. Yahoo! UK Ltd et autres, C-604/10 (2012) ECLI:EU:C:2012:115.
480
Burrow-Giles Lithographic Co. c. Sarony, 111 U.S. 53 (1884) (États-Unis).
481
Lindsay c. The Wrecked and Abandoned Vessel R.M.S. Titanic, 52 U.S.P.Q.2d 1609 (S.D.N.Y. 1999) (États-Unis).
482
Burrow-Giles Lithographic Co. c. Sarony, 111 U.S. 53 (1884) (États-Unis).
483
Feist Publications c. Rural Telephone Service, 499 U.S. 340 (1991) (États-Unis).
484
Brief English Systems c. Owen, 48 F.2d 555 (2e circ. 1931) (États-Unis).
485
Southco, Inc. c. Kanebridge Corporation, 390 F.3d 276 (3e circ. 2004) (États-Unis).
486
Samuelson P. (1986), op.cit., pp. 1199-1200. Voir également Brown N., « Artificial Authors: A case for
copyright in computer-generated works », Columbia Science and Technology Law Review 9, pp. 24-27. Kaminski
M., « Authorship, Disrupted: AI Authors in Copyright and First Amendment Law » , UC Davis Law Review 51, p.
601. Pour un avis contraire, voir Clifford, R.D. (1996), op.cit., pp. 1694-1695.
Page 109
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
l’appréciation de la créativité artificielle, peu importe que le niveau d’originalité soit faible
ou élevé. La norme que l’IA n’est pas en mesure d’atteindre est d’ordre qualitatif et non pas
quantitatif. L’IA ne peut pas exprimer de « soi ». La créativité qu’elle génère ne peut pas
exprimer la personnalité de l’auteur puisque l’IA est dénuée de personnalité. À cet égard,
l’adhésion des États-Unis à la Convention de Berne en 1988 et l’affaire Feist en 1991
marquent la cristallisation d’une vision globale, plus harmonisée, du droit d’auteur. Cet
alignement des États-Unis sur le modèle européen implique également une conception de
l’originalité fondée sur la théorie personnaliste487.
Plus récemment, quelques juridictions encore divergentes - majoritairement dans
les pays de common law - ont rejoint cette approche de l’originalité fondée sur la
personnalité. C’est le cas de l’Australie488, de l’Inde489 et du Royaume-Uni490, qui ont
finalement rejeté les approches précédentes fondées sur le « travail, le savoir-faire et
l’effort ». Seuls quelques pays, dont l’Afrique du Sud491 et la Nouvelle-Zélande492, suivent
encore les doctrines de la « sueur du front » et rejettent les approches de l’originalité
fondées sur la personnalité.
Pour résumer, il semble y avoir une interprétation internationale extrêmement
cohérente de la notion d’originalité qui met l’accent sur une vision anthropocentrique selon
laquelle une œuvre est originale si elle est une représentation de « soi », c’est-à-dire une
représentation de la personnalité de l’auteur. Ce n’est que si ce lien intime entre l’auteur et
l’œuvre est présent que la condition d’originalité est remplie et que la protection est
accordée. Bien entendu, seul un être sensible et conscient de soi-même est capable de
produire une représentation de « soi » à travers une œuvre. En revanche, même si l’on fait
abstraction de toute interprétation doctrinale anthropocentrique de la paternité, en
l’absence de conscience de soi du créateur, l’exigence d’originalité qui réside dans la
représentation de la personnalité de l’auteur n’est jamais satisfaite. Par conséquent, à moins
que l’on puisse affirmer que les machines ont développé une conscience de soi, ce qui
pourrait être le cas avec une IA futuriste potentiellement performante mais certainement
pas de nos jours493, la créativité artificielle n’est pas en mesure de répondre à l’exigence
d’originalité inscrite dans le cadre juridique actuel494.
Conformément aux dires de certains, seule une nouvelle approche, peut-être plus
formelle et plus objective - par opposition à l’approche subjective actuelle - du concept
d’originalité pourrait inclure dans le champ d’application de la protection du droit d’auteur
les œuvres créées par des robots créatifs ainsi que les œuvres d’art générées par des outils
487
Price M.E: & Pollack M., The Author in Copyright: Notes for the Literary Critic, 10 Cardozo Arts &
Entertainment Law Journal 703 (1992), pp. 717-720, https://larc.cardozo.yu.edu/faculty-articles/123.
488
IceTV Pty Ltd c. Nine Network Australia Pty Ltd [2009] HCA 14, 239 CLR 458 (AUS).
489
Eastern Book Co. & Ors c. D.B. Modak & Anr (2008) 1 SCC 1 (Inde).
490
Temple Island Collections c. New English Teas (n° 2) [2012] EWPCC 1. Rahmatian A., op.cit. pp. 4-34
491
Appleton c. Harnischfeger Corp . 1995 (2) SA 247 (AD), pp. 43-44 (Afrique du Sud).
492
Henkel KgaA c. Holdfast [2006] NZSC 102, [2007] 1 NZLR 577 (NZ).
493
Zimmerman E., op.cit. pp. 14-21.
494
Clifford, R.D. (1996), op.cit., 1694-1695. Deltorn J.M. (2017), op.cit., p. 7. Deltorn J.M. et Macrez F. (2018), op.cit.,
p. 8. Gervais D.J., « The Machine as Author », Iowa Law Review, vol. 105, pp. 1-60. Mezei P., From Leonardo to the
Next Rembrandt - The Need for AI-Pessimism in the Age of Algorithms,
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3592187. Ramalho A., op.cit. pp. 22-24.
Page 110
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
495
Yanisky-Ravid S. et Velez-Hernandez L.A., « Copyrightability of Artworks Produced by Creative Robots, Driven
by Artificial Intelligence Systems and the Originality Requirement The Formality-Objective Model », Minnesota
Journal of Law, Science & Technology 19(1), pp. 40-48.
496
Bonadio E. et McDonagh L., « Artificial Intelligence as Producer and Consumer of Copyright Works: Evaluating
the Consequences of Algorithmic Creativity », Intellectual Property Quarterly, 2, pp. 112-137,
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3617197.
497
Cf. Boden M., The Creative Mind: Myths And Mechanisms, Routledge, Londres, p. 32.
498
Fisher W., op.cit. pp. 177-180.
499
Kaminski M., op.cit., p. 599.
500
Hristov K., « Artificial Intelligence and the Copyright Dilemma », IDEA: The Intellectual Property Law Review 57,
p. 444. Voir également Brown N., op.cit., 20-21.
501
Hristov K., op.cit., 438-439. Miller A.R., op.cit., 1067.
502
Bridy A. (2012), op.cit., 1-27. Butler T., op.cit., p. 735. Farr E.H., « Copyrightability of Computer-Created
Works », Rutgers Computer & Technology Law Journal 15, pp. 73-74. Kasap A., op.cit. pp. 361-364, ; Abbott R., «I
Think, Therefore I Invent: Creative Computers and the Future of Patent Law”, 57 B.C.L. Rev. 1079 (2016),
http://lawdigitalcommons.bc.edu/bclr/vol57/iss4/2. Milde K.F., op.cit., p. 390.
503
Brown N., op.cit., p.37. Denicola R., op.cit., p. 283. Ralston W.T., « Copyright in Computer-Composed Music:
HAL Meets Handel », Journal of the Copyright Society of the USA 52, pp. 303-304. Samuelson P. (1986), op.cit. pp.
1224-1228.
Page 111
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
l’octroi d’une certaine forme de protection des produits générés par IA, qu’il s’agisse d’une
protection au titre du droit d’auteur ou du droit de la concurrence, ou d’une protection sui
generis504, puisque le processus de création du produit – que ce soit par l’humain ou par
l’ordinateur – n’a pas d’incidence sur sa contribution au bien-être public505.
Néanmoins, la plupart des juridictions de droit civil ne sont pas tant imprégnées des
considérations liées au bien-être et à l’incitation et peuvent privilégier l’équilibre
systémique, préférant suivre l’approche théorique fondée sur la personnalité qui détermine
la perspective du droit d’auteur dans le droit civil et, de facto, la notion d’originalité en
vigueur dans la grande majorité des juridictions. Par conséquent, bien que les créations
générées par IA puissent justifier des incitations pour soutenir l’innovation et la
commercialisation, la nécessité de telles incitations est discutable si l’on considère l’impact
qu’elles peuvent avoir sur les créations humaines506. Par exemple, étant donné le grand
nombre de créations automatisées, le fait d’accorder une protection à ces œuvres pourrait
dévaloriser la paternité humaine et les emplois existants dans ce domaine et entraver la
créativité507, car cela risque de décourager les artistes de publier leurs créations par crainte
de porter atteinte aux œuvres protégées508 ou d’encombrer l’écosystème créatif avec des
productions standardisées et uniformisées générées par l’IA, ce qui aurait un impact sur la
politique en matière d’identité et de diversité culturelle.
Il reste à déterminer s’il est utile d’étendre la protection actuelle du droit d’auteur
aux œuvres générées par ordinateur. Le cadre juridique en vigueur offre d’ores et déjà une
protection suffisante par le biais du droit des brevets et du droit d’auteur pour les logiciels
sous-jacents, de la protection sui generis des bases de données ou d’autres dispositifs
juridiques, tels que le droit de la concurrence, pour protéger les œuvres automatisées, sans
qu’il soit nécessaire d’étendre le régime actuel du droit d’auteur aux auteurs non humains509.
Il convient d’aborder les différents aspects du problème dans une perspective juridique et
économique avant de se prononcer en faveur de l’une ou l’autre des solutions 510. Ginsburg
et Budiardjo insistent bien sur ce point : « [n]ous pouvons évoquer toute une série de
scénarios pour soutenir ou contester l’appel à une protection sui generis, mais en l’absence
de preuves empiriques, il serait imprudent (et prématuré) de chercher à concevoir un régime
couvrant les productions sans auteur511. »
504
Milde K.F., op.cit. pp. 400-403.
505
Butler T., op.cit., p. 735. Denicola R., op.cit., p. 273. Kaminski M., op.cit., p. 599.
506
Craglia M., op.cit. pp. 67-68.
507
Bonadio E. et McDonagh L., op.cit.
508
Deltorn J.M. (2017), op.cit.
509
Deltorn J.M. et Macrez F. (2018), op.cit., p. 24.
510
Craglia M., op.cit., p. 68.
511
Ginsburg J. et Budiardjo L.A., op.cit., p. 448. Voir également Ginsburg J., op.cit. pp. 131-135.
Page 112
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
512
Aplin T. et Pasqualetto G., op.cit., paragraphe 5.01-09. Clifford, R.D. (2018), « Creativity Revisited », IDEA The
IP Law Review, 59, pp. 26-29. Clifford, R.D. (1996), op.cit., 1700-1702. Huson G., « I, Copyright », Santa Clara High
Technology Law Journal 35, pp. 72-78. Mezei P., op.cit. Palace V.M., « What if Artificial Intelligence Wrote This:
Artificial Intelligence and Copyright Law », Florida Law Review 71(1), pp. 238-241. Saiz Garcia C., « Las obras
creadas por sistemas de inteligencia artificial y su protección por el derecho de autor » InDret 1, pp. 38-39,
https://ssrn.com/abstract=3365458. Gervais D.J., op.cit. pp. 1-60. Ramalho A., op.cit. pp. 22-24. Svedman M.,
op.cit. pp. 1-22 ;
513
Selvadurai N. et Matulionyte R., « Reconsidering creativity: copyright protection for works generated using
artificial intelligence », Journal of Intellectual Property Law & Practice jpaa062, p. 539.
514
Gervais D.J., op.cit. pp. 51-60. Selvadurai N. et Matulionyte R., op.cit., p. 538.
515
Ginsburg J. et Budiardjo L.A., « Authors and Machines », Berkeley Technology Law Journal 34(2), pp. 404-445.
516
Gervais D.J., op.cit., p. 54.
517
Boyden B., « Emergent Works », Columbia Journal of Law and the Arts 39, pp. 377-394.
Page 113
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
et de leur conception de celle-ci. Si ce test est mis en œuvre, la législation sur le droit
d’auteur devrait s’orienter vers un déplacement de la charge de la preuve traditionnelle, en
ce sens que le demandeur devra prouver la paternité humaine de certains produits générés
par IA en établissant que le produit est conçu en amont pour intégrer un sens ou un message
que l’auteur souhaite transmettre à son public518.
518
Boyden B., op.cit., 393-394.
519
Wu A.J., « From Video Games to Artificial Intelligence: Assigning Copyright Ownership to Works Generated by
Increasingly Sophisticated Computer Programs », AIPLA Quarterly Journal, pp. 173-174.
520
Express Newspapers Plc c. Liverpool Daily Post & Echo Plc [1985] 1 WLR 1089 (Royaume-Uni).
521
Burk D.L., « Thirty-Six Views of Copyright Authorship, By Jackson Pollock », Houston Law Review 58, pp. 1-38.
Voir aussi Hedrick S.F., « I ‘Think’, Therefore I Create: Claiming Copyright in the Outputs of Algorithms », NYU
Journal of Intellectual Property & Entertainment Law 8(2), pp. 324-375, et Grimmelmann J., «There is No Such
Thing as a Computer-Authored Work And It is a Good Thing, Too »,, Columbia Journal of Law and the Arts 39, pp.
403-416.
522
Guadamuz A., « Do Androids Dream of Electric Copyright? Comparative Analysis of Originality in Artificial
Intelligence Generated Works », Intellectual Property Quarterly, pp. 169-186.
Page 114
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
- CDPA)523 spécifie que pour les œuvres générées par ordinateur, l’auteur est la personne
qui prend les dispositions nécessaires à la création de l’œuvre. En outre, l’article 178
dispose que « la production par ordinateur, en relation avec une œuvre, signifie que l’œuvre
est produite par ordinateur dans des circonstances telles qu’il n’y a pas d’auteur humain de
l’œuvre. » Dans le cadre de ce régime, la durée de protection des œuvres générées par
ordinateur serait de 50 ans à compter du moment où l’œuvre a été produite. Peu après,
d’autres pays de common law, dont Hong Kong, l’Inde, l’Irlande, Singapour et la Nouvelle-
Zélande, ont adopté des dispositions juridiques similaires524.
Il y a toutefois deux problèmes qui remettent en cause ce dispositif. Le premier est
d’ordre fondamental et systémique. Cette approche serait-elle viable dans un cadre
juridique qui s’appuie sur la notion d’originalité en tant qu’expression de la personnalité de
l’auteur, telle qu’elle est adoptée par le droit de l’UE ainsi que par la plupart des juridictions
internationales ? Il est clair que la programmation, l’entraînement et la transmission
d’instructions ne seraient probablement pas en mesure de satisfaire à l’exigence d’une
contribution originale émanant des humains, puisque toute « expression » serait en
définitive le résultat du processus créatif de l’IA. Tant que la norme subjective actuelle en
matière d’originalité sera en vigueur, toute théorie d’un auteur humain fictif s’effondrera
devant le défaut d’originalité de la créativité artificielle. L’œuvre elle-même, dont la
paternité fictive est attribuée à un agent humain, resterait en fait sans originalité, donc sans
protection. Il convient de noter que la « théorie de l’auteur humain fictif » et les approches
basées sur la prise en charge des « dispositions nécessaires » ont été adoptées au Royaume-
Uni et dans d’autres pays de common law alors que les normes d’originalité fondées sur la
« la sueur du front » ou « le savoir-faire et le travail » étaient encore largement en vigueur
dans ces juridictions. Depuis lors, comme indiqué précédemment, des changements sont
intervenus, le critère de la personnalité pour établir l’originalité remplaçant totalement ou
partiellement toute autre approche525 et remettant en cause l’approche systémique de
l’article 9, paragraphe 3 de la CDPA.
La deuxième question est d’ordre plus concret et pointe le fait que, dans une telle
approche, il est compliqué d’établir quelle est la personne responsable des dispositions
nécessaires526. L’œuvre créée par IA appartient-elle à la personne qui a produit le système,
comme le développeur du logiciel, le fabricant, la personne qui l’a entraîné, ou à la
personne qui lui a fourni des entrées spécifiques, telle que l’utilisateur527 ? Selon M.
Guadamuz, l’ambiguïté du système devrait en fait être considérée comme un élément positif
523
Copyright, Designs and Patents Act 1988 (loi de 1988 sur le droit d’auteur, les dessins et modèles et les
brevets). Disponible sur : https://www.legislation.gov.uk/ukpga/1988/48/contents (Royaume-Uni)
524
Copyright Ordinance cap 528, section 11(3), https://www.elegislation.gov.hk/hk/cap528 (Hong Kong) ;
Copyright Act 1957, section 2(d)(vi), https://www.wipo.int/edocs/lexdocs/laws/en/in/in122en.pdf (Inde) ;
Copyright and Related Rights Act 2000, section 21(f),
http://www.irishstatutebook.ie/eli/2000/act/28/enacted/en/html (Irlande) ; Copyright Act 1987, chapitre 63,
section 7A, https://sso.agc.gov.sg/Act/CA1987#pr27- (Singapour) ; Copyright Act 1994, section 5(2),
http://www.legislation.govt.nz/act/public/1994/0143/latest/DLM345634.html (Nouvelle-Zélande).
525
Temple Island Collections c. New English Teas (n° 2) [2012] EWPCC 1. Guadamuz A., op.cit. pp. 178-180 ;
Rahmatian A., op.cit. pp. 4-34.
526
Dorotheu E., « Reap the benefits and avoid the legal uncertainty : who owns the creations of artificial
intelligence ? », Computer and Telecommunications Law Review 21, p. 85.
527
Bonadio E. et McDonagh L., op.cit. pp. 117-119. Kasap A., op.cit. pp. 364-376.
Page 115
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
qui estompe la dichotomie utilisateur/programmeur et permet une analyse au cas par cas528.
En tout état de cause, la question visant à savoir « qui est responsable des dispositions
nécessaires » a reçu de multiples réponses, tant par la jurisprudence que par la doctrine.
Une première réponse possible à cette question nous a été fournie par l’affaire Nova
Productions c. Mazooma Games, dans laquelle l’article 9, paragraphe 3 de la CDPA a été
appliqué. L’affaire concernait les droits d’auteur liés à des images générées par un
programme informatique utilisant des fichiers bitmap, qui s’affichaient à l’écran lorsque les
utilisateurs jouaient à un jeu vidéo de billard. Le tribunal a refusé d’accorder la paternité
des images à l’utilisateur au motif que sa contribution n’avait aucune dimension artistique :
L’apparence d’un écran particulier dépend dans une certaine mesure de la manière dont le
jeu est joué. Par exemple, lorsqu’on tourne le bouton, la queue de billard tourne autour de
la boule. De même, la puissance du coup est déterminée par le moment précis où le joueur
choisit d’appuyer sur le bouton « play ». Cependant, le joueur n’est l’auteur d’aucun des
dessins artistiques qui composent les cadres successifs (frames). Son apport n’est pas de
nature artistique et il n’a fourni aucun savoir-faire, ni aucun travail de nature artistique. Il
n’a pas, non plus, pris les dispositions nécessaires pour la création des cadres visuels. Son
intervention se limite à jouer au jeu529.
528
Guadamuz A., op.cit. p. 177.
529
Nova Productions Ltd c. Mazooma Games Ltd & Ors Rev 1 [2006] EWHC 24 (Ch) (20 janvier 2006) (Royaume-
Uni). Voir également Farr E.H., op.cit., 75-78.
530
Nova Productions Ltd c. Mazooma Games Ltd & Ors Rev 1 [2006] EWHC 24 (Ch) (20 janvier 2006) (Royaume-
Uni). Voir également Farr E.H., op.cit., 73-74.
531
Guadamuz A., op.cit., p. 177.
532
Wu A.J., op.cit. pp. 173-174.
Page 116
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
propriétaires des technologies d’IA, tels que les entreprises et les investisseurs - constitue
de toute évidence une erreur533. En fait, il ne semble pas, tout au moins dans la créativité
basée sur les réseaux neuronaux de pointe (GAN et CAN), y avoir de lien de causalité direct
entre les développeurs de logiciels et le produit final généré par l’IA, car l’expression
inhérente au produit est le résultat de l’apprentissage de la machine et des instructions
données pour créer ce produit particulier. Tout d’abord, à la lumière de ce qui précède et
d’un point de vue systémique, on pourrait faire valoir que ce dispositif induit une
incohérence fondamentale. En fait - comme l’a également souligné le tribunal de Beijing
chargé des affaires en ligne dans une affaire mentionnée plus haut - le développeur de
logiciels a déjà été rétribué par des droits exclusifs sur le logiciel qui génère les œuvres534.
En outre, étant donné que cette fiction juridique est précisément censée être une incitation
à créer des œuvres générées par l’IA, sachant que le statut d’œuvre relevant du domaine
public n’aurait probablement pas cet effet incitatif, toute analyse économique sérieuse ne
saurait que dissuader de faire un choix politique consistant à rétribuer deux fois le même
acteur du marché. Enfin, d’un point de vue plus concret, cette orientation politique mettrait
les développeurs en position de défense agressive de leurs droits d’auteur en faisant valoir
ces derniers sur une multitude d’éléments de créativité,535 ce qui saperait toute motivation
de la part des programmeurs d’origine pour créer davantage de logiciels536.
La jurisprudence américaine semble également confirmer la conclusion selon
laquelle les logiciels et les produits sont deux entités très distinctes, et que la propriété
des premiers ne saurait impliquer de droits sur les seconds. Dans deux affaires, les
tribunaux ont décidé que le produit créé à l’aide de la copie illicite d’un logiciel ou d’un
programme n’était pas considéré comme une œuvre dérivée illicite. Dans l’affaire Design
Data c. Unigate Enterprises, la cour d’appel a confirmé la décision du tribunal d’instance et
jugé que les droits d’auteur de la demanderesse sur le programme informatique ne
s’étendaient pas aux produits créés par ledit programme (dessins et données pour des
bâtiments en acier)537. Dans l’affaire Rearden c. Walt Disney Co., les films créés au moyen
d’une copie (illicite) du logiciel de la demanderesse ne sont pas considérés comme des
œuvres dérivées du logiciel car, en dépit du fait que le logiciel a fourni une somme de
travail substantielle, la majeure partie de l’expression créative présente dans le film est
imputable à la défenderesse538.
533
Abbott R., « Artificial Intelligence, Big Data and Intellectual Property: protecting computer generated works
in the United Kingdom » dans Aplin T. (éd.), Research Handbook on intellectual property and digital
technologies, Edward Elgar, Angleterre, pp. 323-324. Svedman M., op.cit., 10-11. Bridy A. (2016), « The Evolution
of Authorship: Work made by Code », Columbia Journal of Law and the Arts 39, pp. 400-401. Bridy A. (2012), op.cit.,
24-25, paragraphe 62. Samuelson P. (1986), op.cit., pp. 1207-1212.
534
Beijing Feilin Law Firm c. Baidu Corporation (26 avril 2019), Tribunal de Beijing chargé des affaires en ligne,
(2018) Beijing 0491 Minchu n° 239.He K. (2020b), op.cit. Voir également Bonadio E. et McDonagh L., op.cit., p.
117. Chen M., op.cit., pp. 14-18. Samuelson P. (1986), op.cit., pp. 1207-1212.
535
Svedman M., op.cit., p. 14.
536
Huson G., op.cit., p. 74.
537
Design Data Corp. c. Unigate Enterprise, n° 14-16701 (9e circ. 2017) (États-Unis).
538
Rearden c. Walt Disney Co, n° 17-cv-04006-JST (N.D. Cal. 2018).
Page 117
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
L’attribution des droits sur un produit créé par IA à l’utilisateur du programme générateur
pourrait être une solution plus judicieuse539. La récente décision de Beijing exposée plus
haut s’appuie sur la même conclusion540. P. Samuelson fait valoir que l’utilisateur constitue
la raison même pour laquelle une œuvre créée par IA voit le jour, et qu’il n’est donc pas
« injuste, dans ces conditions, d’accorder certains droits à une personne qui utilise l’œuvre
dans le but de créer des œuvres supplémentaires541 ». Cette solution n’est pas une
nouveauté au regard des normes en matière de droits d’auteur. Aux États-Unis, par exemple,
les droits d’auteur - et la paternité - sont accordés aux utilisateurs au motif qu’ils sont
l’instrument de fixation542, au même titre qu’une personne qui enregistre une interprétation
d’un morceau de jazz sur bande magnétique543. Dans un tel scénario, l’auteur de
l’enregistrement sonore serait l’utilisateur et non pas les musiciens de jazz. De la même
façon, l’utilisateur pourrait être considéré comme l’auteur de la fixation de l’œuvre générée
par IA. Bien entendu, il conviendrait d’intégrer à cette fin une disposition spécifique, telle
que l’article 9, paragraphe 3 de la CDPA. Il est probable que dans certains cas exceptionnels,
comme, par exemple, lorsque l’utilisateur n’a pas d’autre contrôle sur le logiciel que de
lancer son exécution, l’attribution du droit d’auteur à l’utilisateur serait un choix politique
inopportun et en contradiction avec la théorie incitative du droit d’auteur544. En ce cas, une
co-paternité entre les utilisateurs et les programmeurs pourrait éventuellement être une
solution545, en fonction du régime juridique de co-paternité mis en place par les différentes
juridictions.
Dans un « Projet de rapport sur les droits de propriété intellectuelle pour le
développement des technologies de l’intelligence artificielle », le Parlement européen
partage manifestement le même point de vue et propose de confier aux utilisateurs de l’IA
les droits d’auteur sur les œuvres générées par l’IA. Le projet de rapport « considère que la
protection des créations techniques et artistiques générées par l’IA doit être envisagée afin
d’encourager cette forme de création ; considère que certaines œuvres générées par l’IA
sont assimilables à des œuvres de l’esprit et que, dès lors, elles pourraient être protégées
par le droit d’auteur546. » Par conséquent, le projet de rapport « recommande que la titularité
des droits revienne à la personne qui édite et rend publique l’œuvre de manière licite à
condition qu’un tel usage n’ait pas été expressément réservé par le concepteur de la
technologie547. » Apparemment, cette proposition implique que la propriété des droits soit
également cédée aux utilisateurs, puisque le projet de rapport fait référence à la protection
539
CONTU, op.cit., p. 45. Voir également Ralston W.T., op.cit., pp. 303-304.
540
Beijing Feilin Law Firm c. Baidu Corporation (26 avril 2019), Tribunal de Beijing chargé des affaires en ligne,
(2018) Beijing 0491 Minchu n° 239. He K. (2020b), op.cit.
541
Samuelson P. (2020), « AI Authorship? » Communications of the ACM 63(7), pp. 20-22. Samuelson P. (1986),
« Allocating Ownership Rights in Computer-Generated Works », University of Pittsburg Law Review 47(4), pp.
1200-1204.
542
17 U.S.C. article 114.
543
Samuelson P. (1986), op.cit., pp. 1200-1204. Cependant, la plupart des pays sont favorables à une protection
des enregistrements sonores au titre des droits voisins, et non pas du droit d’auteur comme aux États-Unis.
544
Ralston W.T., op.cit., pp. 304-305.
545
Par exemple, Bonadio E. et McDonagh L., op.cit., 117-118.
546
Parlement européen (2020), op.cit.
547
Parlement européen (2020), op.cit.
Page 118
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
du droit d’auteur et non pas à une protection sui generis, en spécifiant qu’« il est proposé
d’évaluer l’opportunité d’attribuer les droits d’auteur d’une telle "œuvre créative" à la
personne physique qui l’édite et la publie licitement [...]548 ».
548
Parlement européen (2020), op.cit.
549
En vertu de la législation américaine sur le droit d’auteur, le travail sur commande constitue une exception
à la règle selon laquelle seul l’auteur (ou ceux qui en tirent des droits) peut revendiquer un droit d’auteur sur
une œuvre protégeable. Selon cette doctrine, l’employeur est considéré comme l’auteur d’une œuvre même si
c’est un employé qui a créé l’œuvre. Cette disposition est visée à l’article 101 du Copyright Act (loi sur le droit
d’auteur). Une œuvre créée par un employé dans le cadre de son emploi ou commandée ou commissionnée
spécialement pour être utilisée par l’employeur est une œuvre sur commande si les parties en conviennent ainsi
dans un accord signé (United States Copyright Office, « Works Made for Hire ». Disponible sur :
copyright.gov/circs/circ09.pdf).
550
Bridy A. (2016), op.cit., pp. 400-401. Bridy A. (2012), op.cit., 26, paragraphe 66. Hristov K., op.cit., 431-454.
Kaminski M., op.cit. Voir également Pearlman R., « Recognizing Artificial Intelligence (AI) as Authors and
Inventors under U.S. Intellectual Property Law », Richmond Journal of Law & Technology 24,
pp. 1-38. Yanisky-Ravid S. (2017), « Generating Rembrandt: Artificial Intelligence, Copyright, and Accountability
in the 3A Era, The Human-Like Authors are Already Here: A New Model », Michigan State Law Review, pp. 659-
726.
551
Yanisky-Ravid S., op.cit., pp. 659-726.
552
Samuelson P. (2020), op.cit., pp. 20-22 ; Samuelson P. (1986), op.cit., pp. 1200-1204.
553
Brown N., op.cit., p.39. Kaminski M., op.cit., 602.
Page 119
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
sous forme de contrat de travail ou de mandat entre un être humain et une machine554.
L’application de la doctrine WMFH serait problématique en particulier dans des juridictions
telles que celle de la France, où les transferts de paternité aux employeurs ou aux
commanditaires doivent être explicitement prévus dans le contrat de travail ou de mandat
et ne sauraient être implicites. Il semble évident que pour pouvoir appliquer la doctrine
WMFH aux œuvres générées par l’IA, il faut impérativement procéder au préalable à une
révision législative et jurisprudentielle substantielle de la notion d’« employeur » et
d’« employé »555.
554
Bonadio E. et McDonagh L., op.cit., pp. 114-115. Bridy A. (2012), op.cit., p. 27, paragraphe 68. Butler T., op.cit.,
pp. 739-742. Huson G., op.cit., pp. 73-75. Ramalho A., op.cit., pp. 18-19.
555
Hristov K., op.cit., pp. 445-447.
556
Par exemple, Bonadio E. et McDonagh L., op.cit., p. 116. Farr E.H., op.cit., p. 79. Ralston W.T., op.cit., pp. 302-
303. Samuelson P. (1986), op.cit., pp. 1199-1200.
557
Ihalainen J., « Computer creativity : artificial intelligence and copyright », Journal of Intellectual Property Law
& Practice 13(9), pp. 724-728.
558
Abbott R., p. op.cit.
559
Pearlman R., op.cit., p. 1-38.
560
Yanisky-Ravid S. et Velez-Hernandez L.A., op.cit., pp. 40-48.
Page 120
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
serait inopportun de modifier la loi avant même que l’on puisse construire des machines
véritablement intelligentes, dont la matérialisation et l’évolution restent à ce jour une
simple spéculation hypothétique561.
561
Huson G., op.cit., pp. 77-78. Liebesman Y., « The Wisdom of Legislating for Anticipated Technological
Advancements », J. Marshall Rev. Intell. Prop. L. 10, p. 172.
562
Ciani J., « Learning from Monkeys: Authorship Issues Arising From AI Technology » dans Moura Oliveira P.,
Novais P., Reis L. (éd.), Progress in Artificial Intelligence EPIA 2019, Lecture Notes in Computer Science vol. 11804,
Springer, Cham.
563
McCutcheon J., op.cit., pp. 965-966.
564
Ricketson S. (2012), « The Need for Human Authorship - Australian Developments: Telstra Corp Ltd v Phone
Directories Co Pty Ltd (case comment) », E.I.P.R. 34-1, 54.
565
Intellectual Property Strategic Program 2016, pp. 10-11,
http://www.kantei.go.jp/jp/singi/titeki2/kettei/chizaikeikaku20160509_e.pdf.
566
Intellectual Property Strategic Program 2016, op.cit., p. 11.
567
Intellectual Property Strategic Program 2016, op.cit.
568
Bonadio E. et McDonagh L., op.cit., 136-137.
Page 121
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
5.5. Conclusion
L’anthropocentrisme et l’approche fondée sur le droit de la personnalité influencent
fortement le cadre juridique actuel du droit d’auteur et, en particulier, la notion d’originalité,
de la Convention de Berne jusqu’aux grandes juridictions. De ce fait, la créativité de l’IA ne
satisfait pas à tous les prérequis fondamentaux pour l’octroi d’une protection au titre du
droit d’auteur, notamment en ce qui concerne la personnalité juridique, la paternité et
l’originalité.
Les approches utilitaristes/incitatives poussent à l’adoption de fictions juridiques
qui ne sont pas en mesure de traiter ou de pallier de manière satisfaisante les incohérences
systémiques internes. Néanmoins, même si la loi prétend de manière fictive que l’œuvre est
réalisée par l’humain et non par l’IA, l’œuvre elle-même reste dénuée d’originalité, car les
machines sont intrinsèquement incapables d’originalité selon un critère lié à la
personnalité. Seule une refonte fondamentale du système des droits d’auteur mettant de
côté l’approche anthropocentrique actuelle pourrait offrir une protection intégrale des
droits d’auteur à la créativité de l’IA en tant que telle, en l’absence de toute intervention
humaine pouvant être considérée comme une expression originale. Cette mesure serait
pour le moins inconsidérée, surtout au vu du stade primitif du développement
technologique dans ce domaine. Des approches sui generis rémanentes sont également
envisageables et constituent probablement la meilleure option si les décideurs politiques
569
The Intellectual Property Act 1996, article 6, disponible sur :
https://www.wipo.int/edocs/lexdocs/laws/en/es/es177en.pdf (Espagne) ; Code de la propriété intellectuelle
1912, L113-6, disponible sur : https://wipolex.wipo.int/fr/text/537285 (France) ; Law for the Protection of
Copyright and Neighbouring Rights 1941, article 9, disponible sur :
https://www.wipo.int/edocs/lexdocs/laws/en/it/it211en.pdf (Italie) ; Act on Copyright in Literary and Artistic
Works 1960, article 7, disponible sur : wipo.int/edocs/lexdocs/laws/en/se/se124en.pdf (Suède).
570
Ramalho A., op.cit., pp. 22-24.
571
Ramalho A., op.cit.
Page 122
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
572
Par ex., Frosio G., op.cit.
573
Par ex., Bonadio E. et McDonagh L., op.cit., 122-123. Svedman M., op.cit, pp. 13-14.
574
Borel É., « Mécanique statistique et irréversibilité », J. Phys. (Paris) 5(3), pp. 189–196.
Page 123
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
Les inquiétudes suscitées par l’IA sont dans une certaine mesure nourries par la littérature et les
films de science-fiction. Et pourtant, la science-fiction tend à anticiper l’avenir. Prenez par
exemple la scène du film « Minority Report » de Steven Spielberg575 dans laquelle un homme
marche le long de l’allée d’un centre commercial. Ses yeux sont scannés par une multitude de
caméras équipées de logiciels de reconnaissance des yeux. Immédiatement, les vitrines des
magasins s’illuminent d’écrans criards proposant des publicités conçues sur mesure pour lui. Est-
ce vraiment là de la science-fiction ? Ce n’est pas si loin de ce que vous vivons déjà aujourd'hui.
À l’ère de l’internet, des téléviseurs connectés et des « deuxièmes écrans », les possibilités
d’obtenir les données personnelles des utilisateurs des médias de façon légale ou illégale se sont
multipliées de façon exponentielle. Ces données, qui peuvent être utilisées de façon à proposer
des publicités individuellement ciblées sur les services en ligne et toutes sortes de terminaux
connectés, ont une valeur capitale pour les annonceurs. De plus, les données personnelles
obtenues à partir des moteurs de recherche, des médias sociaux et des appareils connectés
peuvent aussi être exploitées afin d’améliorer l’expérience des utilisateurs de services en ligne.
Dans sa contribution à cette publication, Justina Raižytė rappelle que « la création d’un cadre
durable de l’intelligence artificielle en matière de publicité et l’utilisation des données et des
nouvelles technologies à bon escient sont dans l’intérêt de l’industrie publicitaire elle-même »,
puisque c’est là le seul moyen de gagner la confiance des consommateurs, ce qui « est et restera
toujours un élément incontournable en matière de publicité ».
575
https://www.imdb.com/title/tt0181689/.
Page 125
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
6.1. Introduction
L’intelligence artificielle, dont la présence se cantonnait autrefois aux scénarios des films
futuristes et aux récits de fiction, a depuis un certain temps pris place dans nos salons, nos
voitures, nos poches et sacs de courses. Il n’a en effet pas fallu attendre bien longtemps
pour que la publicité, toujours débordante de créativité et avide d’innovation, perçoive le
potentiel des technologies automatisées et fasse de l’intelligence artificielle son cheval de
bataille, capable d’orienter les consommateurs dans leur vie quotidienne pour en faire de
fidèles clients et utilisateurs.
Les nouvelles technologies d’apprentissage automatique permettent aux
annonceurs d’analyser plus rapidement encore les données relatives aux centres d’intérêts
des utilisateurs, à leurs préférences, à leur localisation et à leurs caractéristiques
socioéconomiques, et même de prévoir leurs désirs, d’élaborer des stratégies de ciblage
personnalisé et de leur adresser des publicités plus pertinentes. Ce processus permet de
réduire le coût de la publicité, tout en augmentant son degré de réactivité et d’efficacité.
Les consommateurs sont également censés être plus satisfaits et même se laisser divertir
par ces publicités personnalisées, qui comportent moins de messages commerciaux
ennuyeux ou irritants.
De nombreuses personnes ’s’inquiètent toutefois de ces flux massifs de données qui
permettent aux spécialistes du marketing de segmenter les différents publics et de cibler
576
Décharge de responsabilité : les opinions exprimées dans le présent document sont celles de l'auteur et ne
reflètent pas nécessairement la politique officielle ou la position de toute autre organisation, entreprise ou
personne mentionnée dans le texte.
Page 127
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
Page 128
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
577
Lee K. F., AI Superpowers: China, Silicon Valley, and the New World Order, Houghton Mifflin Harcourt, Boston.
578
Rask O., What is Programmatic Advertising? The Ultimate 2020 Guide, Match2One,
https://www.match2one.com/blog/what-is-programmatic-advertising/.
579
IAB (2019), Artificial Intelligence in Marketing Report, IAB Data Center of Excellence,
https://www.iab.com/insights/iab-artificial-intelligence-in-marketing/.
Page 129
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
580
Marshall J., WTF is real-time bidding?, Digiday, https://digiday.com/media/what-is-real-time-bidding/.
581
SMAATO, Real-Time Bidding (RTB): The Complete Guide, SMAATO, https://www.smaato.com/real-time-
bidding/.
582
IAB Europe (2017), The advent of RTB, IAB Europe, https://iabeurope.eu/blog/laypersons-programmatic/.
583
Rask O., op.cit.
584
Wang J., Zhang W. et Yuan S., Display Advertising with Real-Time Bidding (RTB) and Behavioural Targeting, ArXiv,
https://arxiv.org/abs/1610.03013.
Page 130
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
Bien que la publicité programmatique soit surtout utilisée par des chaînes numériques en
ligne, parmi lesquelles les formats display, la téléphonie mobile, la vidéo et les médias
sociaux, l’achat de publicités programmatiques a également trouvé sa place dans les
médias traditionnels, y compris la télévision586, et même sur les panneaux d’affichage
publicitaire en extérieur et la signalisation numérique587, où de puissants algorithmes
associés à des données de géolocalisation mobile et à des capteurs visuels permettent le
placement de publicités sur des écrans numériques aux arrêts de bus, qui peuvent
désormais cibler des groupes de personnes spécifiques - les jeunes usagers aux heures de
pointe du matin, par exemple. Error! Reference source not found.
585
Rask O., op.cit.
586
Bien qu'avancées, au-delà des questions de mesure d'audience basées sur la démographie au sens large, ces
questions figurent toujours parmi les principaux défis à relever pour transformer l'achat de publicités télévisées
linéaires traditionnelles en programmes, certains groupes de chaînes commencent néanmoins à adopter l'achat
de publicité télévisée basé sur la perception, certaines sociétés s'efforçant de normaliser les segments
d'audience télévisée avancés et d’offrir un inventaire télévisé plus accessible. Voir Blustein A., The programmatic
TV dream is edging closer to reality, The Drum, Carnyx Group Ltd.
https://www.thedrum.com/news/2020/02/19/the-programmatic-tv-dream-edging-closer-reality.
587
Côté R., What is programmatic DOOH?, Broadsign, 2020. https://broadsign.com/blog/what-is-programmatic-
digital-out-of-home/.
Page 131
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
588
IAB (2019), op.cit.
589
Schmelzer R., « AI Makes A Splash In Advertising », Forbes,
https://www.forbes.com/sites/cognitiveworld/2020/06/18/ai-makes-a-splash-in-advertising/#24c0287c7682.
590
Rowan R., «The Impact of Artificial Intelligence in Advertising », AW360,
https://www.advertisingweek360.com/the-impact-of-artificial-intelligence-in-advertising/.
591
Schmelzer R., op.cit.
Page 132
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
592
Deloitte, State of AI in the Enterprise, 2nd edition, the Deloitte AI Institute, Deloitte,
https://www2.deloitte.com/us/en/insights/focus/cognitive-technologies/state-of-ai-and-intelligent-
automation-in-business-survey.html.
593
Kaput M., AI for Advertising: Everything You Need to Know, Marketing AI Institute,
https://www.marketingaiinstitute.com/blog/ai-in-advertising.
594
Basé sur Shazam Entertainment Ltd - une application mobile qui peut identifier de la musique, des films, de
la publicité et des émissions de télévision, sur la base d'un court échantillon audio joué ; d'autres types
d'applications qui s’appuient sur la reconnaissance d'image ont fait l'objet de prototypes dans l'industrie,
comme Smartify (disponible sur : https://smartify.org/about-us) – Shazam pour l'art et les musées.
Page 133
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
capables de générer des « modèles artificiels » de plus en plus difficiles à distinguer des
personnes réelles595, et peuvent ainsi créer des visages pour les campagnes publicitaires
d’un professionnel du marketing, qui peuvent aisément s’adapter aux différents publics et
catégories de la population.
De plus, bien que les clics de souris soient un élément essentiel du marketing
numérique, l’intelligence artificielle semble faire apparaître une nouvelle tendance
publicitaire : l’ère de la Voix596. Selon les données de 2019, 89 % des professionnels du
secteur du marketing interrogés estimaient que les assistants vocaux constitueraient un
important canal du marketing au cours des trois à cinq prochaines années, et plus d’un tiers
d’entre eux les qualifiaient de « canal extrêmement important »597. Alexa, Siri, Google Home
et d’autres dispositifs et assistants vocaux ont démocratisé les interfaces vocales
interactives et préparé la voie à la publicité vocale interactive. Alimentés par l’intelligence
artificielle et exploitant la reconnaissance vocale et la compréhension du langage naturel,
ces dispositifs offrent de nouveaux formats publicitaires aux spécialistes du marketing, aux
éditeurs et aux consommateurs.
Selon Charlie Cadbury, le PDG de Say It Now598, les cinq tendances les plus
intéressantes en matière de voix sont : les divers fournisseurs de services permettant aux
assistants vocaux d’interagir, par exemple la gestion de la livraison de produits
alimentaires ; l’amélioration de la détection de compétences tierces et la reconnaissance
de compétences sans nom dans les assistants vocaux ; le commerce vocal ; l’engagement
audio interactif numérique ; ainsi que des services vocaux géolocalisables, disponibles dans
les voitures ou les écouteurs. Interrogé sur une campagne « coup de poing » pour une
application de publicité vocale, Cadbury a indiqué que « l’indice se trouve dans « l’assistant
vocal » », dans lequel il espère voir les consommateurs considérer leurs assistants
numériques comme un véritable atout pour leur vie quotidienne, faire entièrement
confiance à leurs conseils et leur déléguer un certain nombre de tâches concrètes.
595
Gonfalonieri A., Integration of Generative Adversarial Networks in Business Models, A Medium, Towards Data
Science,
https://towardsdatascience.com/integration-of-generative-adversarial-networks-in-business-models-
47e60263aec4.
596
Tushinskiy S., Voice is the New Click: Why Voice Commands Will Replace the Click as the Standard Measure for
Brands, Medium, Instreamatic, https://medium.com/@instreamatic/voice-is-the-new-click-why-voice-
commands-will-replace-the-click-as-the-standard-measure-for-61225e4e7caa.
597
Kinsella B. et Mutchler A., The State of Voice Assistants as a Marketing Channel Report, Voicebot.ai, 2019
https://voicebot.ai/the-state-of-voice-assistants-as-a-marketing-channel-report/.
598
Charlie Cadbury de Say It Now (disponible sur : https://www.sayitnow.ai/) a été interviewé le 19 juin 2020
pour les besoins du présent article.
Page 134
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
des marques et des agences publicitaires, présentés dans le tableau 2, offrent une sélection
de cas de figure dans lesquels des outils de l’intelligence artificielle ont été utilisés à des
fins commerciales créatives et ont abouti à la production de contenus publicitaires conçus,
au moins partiellement, par des technologies automatisées. Kerry Richardson, l’un des
cofondateurs de Tiny Giant599 estime que les consommateurs verront sous peu davantage
d’applications créatives en matière d’intelligence artificielle, et davantage de collaboration
entre des personnes physiques et des applications créatives pour l’élaboration de
campagnes publicitaires, où les professionnels du secteur de la création imagineront une
idée ou un concept, puis utiliseront la technologie de l’intelligence artificielle pour y
parvenir.
◼ Lexus en partenariat avec Watson d’IBM, The & Partnership London et Visual Voice600
◼ Cette publicité spécifique pour la marque Lexus est la première publicité télévisée
dont le scénario a été entièrement conçu au moyen de l’intelligence artificielle. En
utilisant un certain nombre de paramètres, dont 15 années de publicités
récompensées par les Lions de Cannes et 10 années des meilleures publicités du
secteur du « luxe », ainsi que des éléments relatifs à « l’intuition » et à la manière
dont les individus prennent des décisions, la technologie IBM Watson a identifié
des éléments communs aux publicités récompensées601. Un moteur d’intelligence
artificielle a ensuite élaboré la trame et les grandes lignes du scénario. Les
créateurs eux-mêmes ont fait part de leur surprise sur le fait qu’au lieu du résultat
« délirant et bizarre » auquel ils s’attendaient, ils ont obtenu un scénario avec une
note de bas de page à chaque ligne, accompagnée d’un commentaire expliquant
pourquoi telle décision avait été prise602. Le résultat s’est traduit par une histoire
plutôt déroutante d’un ingénieur Lexus mettant la touche finale à un nouveau
modèle, une voiture consciente de ses propres capacités et un crash test télévisé,
mais cela a démontré que la version créative conçue par une machine est bien plus
qu’une éventuelle possibilité.
599
Kerry Richardson de Tiny Giant (disponible sur : https://www.tinygiant.io/) a été interviewé le 22 juin 2020
pour les besoins du présent article.
600
La campagne publicitaire peut être visionnée sur Variety.com. Disponible sur :
https://variety.com/2018/digital/news/lexus-ai-scripted-ad-ibm-watson-kevin-macdonald-1203030693/.
601
Spangler T., First AI-Scripted Commercial Debuts ; Réalisé par Kevin Macdonald pour Lexus, Variety,
https://variety.com/2018/digital/news/lexus-ai-scripted-ad-ibm-watson- kevin-macdonald-1203030693/.
602
Faull J., Lexus reveals ad ‘created by AI’. Is it a gimmick? No. Will it win any awards? Probably not, The Drum,
Carnyx Group Ltd, https://www.thedrum.com/news/2018/11/16/lexus-reveals-ad-created-ai-it-gimmick-no-
will-it-win-any-awards-probably-not.
Page 135
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
◼ Dans la campagne « Malaria Must Die » (« Il faut éradiquer la malaria »), David
Beckham prête sa voix à la lutte contre le paludisme de l’organisation à but non
lucratif Malaria No More, dans sa bataille pour éradiquer la maladie transmise par
les moustiques. Cette campagne innovante présente David Beckham parlant
apparemment couramment neuf langues et invitant les auditeurs à se mobiliser
pour cette cause604. Alors qu’il passe d’une langue à l’autre, les différentes voix de
David Beckham sont en fait celles de survivants du paludisme dont les
caractéristiques ont été cartographiées numériquement sur celle du célèbre sportif
à l’aide de la technologie de synthèse vidéo assistée par l’intelligence artificielle605.
603
La campagne publicitaire peut être visionnée sur TheDrum.com. Disponible sur :
https://www.thedrum.com/news/2019/04/09/david-beckham-lends-his-voice-malaria-ai-petition.
604
Butcher, M., The startup behind that deep-fake David Beckham video just raised $3M, TechCrunch,
https://techcrunch.com/2019/04/25/.
605
Glenday J., David Beckham lends his voice to Malaria AI petition, The Drum, Carnyx Group Ltd.,
https://www.thedrum.com/news/2019/04/09/david-beckham-lends-his-voice-malaria-ai-petition.
606
La campagne publicitaire peut être visionnée sur wersm.com. Disponible sur : https://wersm.com/how-
deutsche-bahn-increased-sales-by-24-thanks-to-instagram/.
607
Desreumaux G., How Deutsche Bahn Increased Sales By 24% Thanks To Instagram, Wersm,
https://wersm.com/how-deutsche-bahn-increased-sales-by-24-thanks-to-instagram/.
608
La campagne publicitaire peut être visionnée sur TinyGiant.io. Disponible sur :
https://www.tinygiant.io/case-study-one-aida.
Page 136
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
conférences potentielles pour le festival609. Les propositions d’AIDA ont fait l’objet
d’un sondage sur Twitter pour que le monde entier puisse participer à la sélection
d’un gagnant. La conférence « Introvert Narwhals » (« Les narvals introvertis ») a
été diffusée lors de l’événement par l’AIDA, dont la voix audio a été créée à l’aide
d’un apprentissage en profondeur pour transformer le texte saisi en une voix
nuancée et à consonance humaine. AIDA a connu un vif succès et a ensuite fait
l’objet d’une diffusion sur BBC Radio, et a également reçu le prix d’or de
l’association Data & Marketing pour la meilleure utilisation de l’intelligence
artificielle en 2019610.
Lil Miquela est une chanteuse qui diffuse de la musique en streaming sur Spotify, une
styliste propriétaire de sa marque de vêtements, un mannequin travaillant avec des grandes
enseignes de vêtements de luxe et une star des médias sociaux avec plus de 2,4 millions
d’abonnés sur son compte Instagram613. Elle se définit elle-même comme « une musicienne,
609
Tiny Giant, AI Festival curator Cheltenham Science Festival, Tiny Giant,
https://www.tinygiant.io/case-study-one-aida.
610
Data & Marketing Association, Gold Best Use of AI, Data & Marketing Association Awards,
https://dma.org.uk/awards/winner/2019-gold-best-use-of-ai.
611
Persado, JPMorgan Chase Announces Five-Year Deal with Persado For AI-Powered Marketing Capabilities,
Persado, https://www.persado.com/press-releases/jpmorgan-chase-announces-five-year-deal-with-persado-
for-ai-powered-marketing-capabilities/.
612
Business Wire, JPMorgan Chase Announcement Concerning Preferred Stock, Business Wire,
https://www.businesswire.com/news/home/20191031005537/en/JPMorgan-Chase-Announcement-Preferred-
Stockl.
613
Au 1er juillet 2020.
Page 137
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
Malgré leur caractère virtuel, les êtres numériques suscitent de véritables préoccupations,
au premier rang desquelles figure la transparence. Rupa Shah, fondatrice de Hashtag Ad
Consulting618, observe que le déploiement de technologies avancées signifie qu’il devient
de plus en plus difficile de distinguer les influenceurs virtuels d’un simple coup d’œil. Le
souci du détail dans le rendu de chaque image leur permet d’apparaître dans n’importe quel
contexte ou scène et à n’importe quel endroit, afin de réaliser le récit souhaité par la
marque, et le traitement naturel du langage (NLP) confère à leurs discours un caractère
naturel et vivant.
Les codes d’autorégulation de la publicité, appliqués par les organismes de
régulation de la publicité à travers l’Europe, exigent déjà que toutes les communications
614
Alexander J., Virtual creators aren’t AI — but AI is coming for them, The Verge, Vox Media,
https://www.theverge.com/2019/1/30/18200509/ai-virtual-creators-lil-miquela-instagram-artificial-
intelligence.
615
Bradley S., Even better than the real thing? Meet the virtual influencers taking over your feeds, The Drum, Carnyx
Group Ltd, https://www.thedrum.com/news/2020/03/20/even-better-the-real-thing-meet-the-virtual-
influencers-taking-over-your-feeds.
616
Scott Guthrie, consultant, analyste indépendant en marketing d’influence et blogger. Disponible sur :
https://sabguthrie.info/. Interviewé le 22 juin 2020 pour les besoins du présent article.
617
Guthrie S., « Virtual Influencers: More Human Than Human », chapitre 15, S. Yesilogl et J. Costello, (sous la
direction de), Influencer Marketing: Building Brand Communities and Engagement, Routledge, London.
618
Rupa Shah de Hashtag Ad Consulting. Disponible sur : https://www.hashtagad.co.uk/). Interviewé le 22 juin
2020 pour les besoins du présent article.
Page 138
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
619
Alliance européenne pour l’éthique en publicité, Best Practice Recommendation on Influencer Marketing, EASA,
disponible en anglais sur :
https://www.easa-alliance.org/products-services/publications/easa-best-practice-guidance.
620
Les commentaires de Dudley Neville-Spencer, directeur et responsable de l'analyse des données de la Virtual
Influencer Agency et directeur de la stratégie et des idées à Live & Breath, sont extraits d'un webinaire en ligne
organisé par Persollo le 30 juin 2020, voir Persollo, Ethics, Influencers and Growth, Persollo Webinar 3, 30 juin
2020,
https://www.blog.persollo.com/post/persollo-webinar-3-ethics-influencers-and-growth.
621
Persollo, op.cit.
622
Bradley S., op.cit.
623
Influencer Marketing Hub, The State of Influencer Marketing 2020: Benchmark Report, Influencer Marketing
Hub, https://influencermarketinghub.com/influencer-marketing-benchmark-report-2020/.
Page 139
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
des représentants du service clientèle (c’est-à-dire des êtres virtuels fonctionnant comme
des agents conversationnels (chatbots), mais avec des émotions et une apparence corporelle
semblables à celles d’un être humain) ; et des influenceurs virtuels, à savoir des
influenceurs humains virtuels appartenant à la marque d’un sponsor ou opérant de leur
propre chef.
Enfin, dans la mesure où les influenceurs virtuels continuent à évoluer, il reviendra
au public de décider de la fréquence à laquelle il sera prêt à adopter des avatars numériques
dans son fil d’actualités sur les médias sociaux et à interagir avec eux. La conviction de
certains experts, selon laquelle toutes les marques disposeront d’une sorte de représentant
virtuel, deviendra peut-être réalité dans un futur proche624.
624
Persollo, op.cit.
625
Li H., « Special Section Introduction: Artificial Intelligence and Advertising », Journal of Advertising,
août/septembre 2019, Volume 48, n 4, pp. 333-337.
626
Chen G. et al., « Understanding Programmatic Creative: The Role of AI », Journal of Advertising,
août/septembre 2019, Volume 48, n° 4, pp. 347-355.
Page 140
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
sur les habitudes et les préférences de chaque utilisateur, permettant ainsi de diffuser un
contenu commercial personnalisé et « soigneusement sélectionné »627. Un tel processus
d’optimisation pose bien entendu un certain nombre de défis éthiques et juridiques,
notamment en matière de confidentialité et d’algorithmes biaisés. Ce chapitre examinera
donc les garanties juridiques existantes qui visent à protéger les citoyens et les
consommateurs contre tout éventuel préjudice en matière de protection des données et de
prise de décision automatisée. Bien que cette partie se limite au cadre européen, il convient
de noter qu’il existe ailleurs dans le monde d’autres politiques relatives à la confidentialité
et à la protection des données qui pourraient également faire l’objet d’une analyse
similaire628.
Les experts ont estimé qu’une législation efficace de protection de la vie privée à
l’ère de l’intelligence artificielle devrait protéger les consommateurs contre la
discrimination, l’absence de consentement et l’utilisation illicite des données obtenues par
le recours à l’intelligence artificielle, et qu’elle devrait comporter plusieurs éléments
essentiels, à savoir une exigence de transparence, afin que l’intelligence artificielle puisse
disposer d’un véritable droit sur les informations qu’elle recueille ; une option de refus pour
les consommateurs ; les données collectées et l’objectif de la limitation de l’intelligence
artificielle par finalité ; ainsi que la possibilité d’une suppression des données à la demande
du consommateur629. Les groupes de la société civile ont également demandé « des lignes
rouges précises pour les utilisations non autorisées, un contrôle démocratique et une
stratégie de réglementation de l’intelligence artificielle véritablement axée sur les droits
fondamentaux », de manière à élaborer un- système d’intelligence artificielle parfaitement
fiable630. Bien que le présent document se limite à l’utilisation de la technologie
automatisée dans le secteur du marketing, il importe également de tenir compte de la
question des droits de l’homme, et tout particulièrement du droit au respect de la vie privée
et à la protection des données (article 8, Convention européenne des droits de l’homme) et
de l’interdiction de la discrimination (article 14 de la même Convention), et notamment la
manière dont les données à caractère personnel sont collectées, les modalités de leur
réutilisation et comment des algorithmes conçus avec des biais intentionnels et
involontaires pourraient conduire à une segmentation et à un traitement différencié des
627
Lee K. F. , op.cit.
628
Par exemple, la California Consumer Privacy Act (CCPA), qui prévoit de nouveaux droits des consommateurs
au sujet de l'utilisation, la suppression, le retrait et l'accès des entreprises aux informations à caractère
personnel (voir A. Paka, How Does The CCPA Impact Your AI?, Forbes Technology Council, Forbes,
https://www.forbes.com/sites/forbestechcouncil/2020/02/20/how-does-the-ccpa-impact-your-
ai/#7d27ce7c43c7), ou la loi relative à la protection des informations à caractère personnel au Japon, qui devrait
être à nouveau modifiée en 2020 avec l’insertion et la promotion de données pseudonymisées pour alimenter
l’intelligence artificielle, voir GLI, AI, Machine Learning & Big Data Laws and Regulations Japan, Global Legal
Insights, https://www.globallegalinsights.com/practice-areas/ai-machine-learning-and-big-data-laws-and-
regulations/japan. Voir également le chapitre 2 de la présente publication.
629
Intel AI, Rethinking Privacy For The AI Era, Forbes, Insight team,
https://www.forbes.com/sites/insights-intelai/2019/03/27/rethinking-privacy-for-the-ai-era/#693cda737f0a.
630
EDRi, Can the EU make AI “trustworthy”? No – but they can make it just, EDRi,
https://edri.org/can-the-eu-make-ai-trustworthy-no-but-they-can-make-it-just/.
Page 141
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
groupes sociaux (ou de consommateurs) ciblés631. Enfin, les experts ont également mis en
garde contre « le déséquilibre de pouvoir entre ceux qui développent et appliquent les
technologies de l’intelligence artificielle et ceux qui interagissent avec et y sont soumis »632.
Compte tenu de ces problèmes, la partie suivante examinera les mécanismes existants en
matière de responsabilité et d’obligation de rendre des comptes afin de faire face à ces
risques et de les atténuer.
631
Wagner B., Étude sur les dimensions des droits humains dans les techniques de traitement automatisé des données
(en particulier les algorithms) et éventuelles implications réglementaires, Conseil de l’Europe, Comité d’expert sur
les intermédiaires d’internet (MSI-NET), https://rm.coe.int/study-hr-dimension-of-automated-data-processing-
incl-algorithms/168075b94a.
632
Yeun K., Responsabilité et IA, Étude du Conseil de l’Europe DGI(2019)05, Conseil de l’Europe, Comité d’experts
sur les dimensions des droits de l’homme dans le traitement des données et des différentes formes
d’intelligence artificielle (MSI-AUT), https://rm.coe.int/responsability-and-ai-fr/168097d9c6.
633
Commission européenne, Livre blanc – Intelligence artificielle – Une approche européenne axée sur l’excellence
et la confiance, Bruxelles, 19 février 2020, COM(2020) 65, https://ec.europa.eu/info/publications/white-paper-
artificial-intelligence-european-approach-excellence-and-trust_en.
634
Commission européenne, op.cit.
635
Comité européen de la protection des données, EDPB Response to the MEP Sophie in't Veld's letter on unfair
algorithms, EDPB, disponible en anglais sur : https://edpb.europa.eu/our-work-tools/our-
documents/letters/edpb-response-mep-sophie-int-velds-letter-unfair-algorithms_en.
636
Zaccaria E., Artificial Intelligence: addressing the risks to data privacy and beyond, PrivSec Report,
https://gdpr.report/news/2020/06/01/artificial-intelligence-addressing-the-risks-to-data-privacy-and-beyond/.
Page 142
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
637
Comité européen de protection des données, op.cit.
638
Service de recherche du Parlement européen (2020), The impact of the General Data Protection Regulation
(GDPR) on artificial intelligence, Étude du Service de recherche du Parlement européen, Unité de prospective
scientifique (STOA), PE 641.530, disponible en anglais sur :
https://www.europarl.europa.eu/RegData/etudes/STUD/2020/641530/EPRS_STU(2020)641530_EN.pdf.
639
Geraldine Proust de la FEDMA. Disponible sur : https://www.fedma.org/. Interviewée le 7 juillet 2020 pour
les besoins du présent article.
Page 143
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
et rappelle qu’il importe que les responsables du traitement et les personnes concernées
« ne soient pas abandonnés » et « puissent être informés sur la manière dont l’intelligence
artificielle s’applique à leurs données personnelles, conformément au RGPD »640. Les
auteurs du rapport préconisent une action à plusieurs niveaux et invitent les institutions à
s’engager activement dans de vastes débats de société avec l’ensemble des parties
prenantes, y compris les responsables du traitement, les sous-traitants et la société civile,
afin d’élaborer des réponses appropriées et des suggestions pertinentes « fondées sur des
valeurs communes et des technologies efficientes »641. À cette fin, plusieurs éléments
d’orientation intéressants ont déjà été publiés par les institutions européennes, y compris
la Commission européenne, le Conseil de l’Europe et le comité européen de la protection
des données642, ainsi que par des professionnels du secteur 643. De nombreuses autres
recommandations sont encore susceptibles d’être adoptées au cours des prochaines années
et, accompagnées d’instruments de régulation et d’autorégulation, elles constitueront,
espérons-le, de précieux outils en faveur du succès global de l’adoption de l’intelligence
artificielle, de la protection des consommateurs et de leur confiance dans les nouvelles
technologies.
640
Service de recherche du Parlement européen, op.cit.
641
Service de recherche du Parlement européen, op.cit.
642
Par exemple, les Lignes directrices sur l'intelligence artificielle et la protection des données (2019) du Comité
consultatif de la Convention pour la protection des personnes à l'égard du traitement des données à caractère
personnel (Convention 108). Disponibles sur : https://rm.coe.int/lignes-directrices-sur-l-intelligence-artificielle-
et-la-protection-de/168091ff40. Conseil de l'Europe, Lignes directrices en matière d’éthique pour une IA digne
de confiance (2019), établies par le Groupe d’experts de haut niveau sur l'intelligence artificielle, Commission
européenne. Disponibles sur : https://ec.europa.eu/futurium/en/ai-alliance-consultation/guidelines#Top);
Lignes directrices 4/2019 sur l'article 25 de la protection des données par conception et par défaut (2019),
établies par le comité européen de la protection des données. Disponible sur : https://edpb.europa.eu/our-work-
tools/public-consultations-art-704/2019/guidelines-42019-article-25-data-protection-design_en).
643
Par exemple, High Level Principles on Artificial Intelligence (2020) de la European Tech Alliance (EUTA).
Disponible sur http://eutechalliance.eu/wp-content/uploads/2020/02/EUTA-High-Level-Principles-on-AI.pdf);
The Seven-Step Ad Tech Guide (2020) de la Data & Marketing Association (DMA) et Incorporated Society of
British Advertisers (ISBA) addressing privacy challenges of RTB in programmatic advertising. Disponible sur :
https://dma.org.uk/uploads/misc/seven-step-ad-tech-guide-v9.pdf).
Page 144
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
644
Yamakage Y. et Okamoto S., «Toward AI for human beings: Human centric AI », Zinrai. Fujitsu scientific &
technical journal. , janvier 2017, Vol.53. no., pp. 38-44.
645
Selon une enquête de l'EDAA sur la manière dont les citoyens de l'UE perçoivent la publicité numérique
depuis l'adoption du RGPD : 97 % des consommateurs savent que les données sont utilisées pour la publicité
en ligne, 62 % ont une certaine compréhension de son fonctionnement et 72 % aimeraient en savoir davantage
sur la manière dont les informations les concernant sont utilisées en ligne. Voir European Interactive Digital
Advertising Alliance, Consumer Research – How EU citizens perceive digital advertising since GDPR, EDAA,
https://www.edaa.eu/consumer-research-how-eu-citizens-perceive-digital-advertising-since-gdpr/.
Page 145
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
646
L'AESA compte parmi ses membres 28 organismes de régulation de la publicité de ce type en Europe et 13
associations sectorielles représentant l'ensemble de la chaîne de valeur de la publicité (c'est-à-dire les marques,
les agences publicitaires, les médias, les éditeurs et les plateformes numériques).
647
Alliance européenne pour l’éthique en publicité, Best Practice Recommendation on Digital Marketing
Communications, EASA, disponible en anglais sur : https://www.easa-alliance.org/products-
services/publications/easa-best-practice-guidance.
648
IAB Europe (2020), AB Europe AdEx Benchmark 2019 Study, IAB Europe,
https://iabeurope.eu/knowledge-hub/iab-europe-adex-benchmark-2019-study/.
649
Alliance européenne pour l’éthique en publicité, Press Release: Easa’s Best Practice Awards 2019, EASA,
disponible en anglais sur : https://easa-alliance.org/news/easa/press-release-best-practice-awards-2019.
Page 146
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
650
Alliance européenne pour l’éthique en publicité, 2018 European Trends in Advertising Complaints, Copy Advice
and Pre-clearance, EASA, disponible en anglais sur : https://www.easa-alliance.org/products-
services/publications/easa-statistics.
651
Autorité britannique des normes publicitaires (2019), ASA monitoring report on HFSS ads appearing around
children's media, The Advertising Standards Authority Ltd, disponible en anglais sur :
https://www.asa.org.uk/resource/asa-monitoring-report-on-hfss-ads-appearing-around-children-s-media.html.
652
Les produits et services Botox ne peuvent pas faire l'objet de publicité auprès du public au Royaume-Uni.
653
Autorité britannique des normes publicitaires (2020), Annual Report 2019, Autorité britannique des normes
publicitaires (ASA) et Commission des pratiques publicitaires (CAP), disponible en anglais sur :
https://www.asa.org.uk/news/using-technology-for-good-our-annual-report.html.
654
Guy Parker de l’ASA. Disponible sur : http://https://www.asa.org.uk. Interviewé le 23 juin 2020 pour les
besoins du présent article.
Page 147
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
655
Mansouri M., Intelligence artificielle et représentation féminine/masculine dans la publicité audiovisuelle. Après
les visages et le genre : la voix et l’âge !, blog de l’ARPP, ARPP, https://blog.arpp.org/2020/03/05/intelligence-
artificielle-et-representation-feminine-masculine-dans-publicite-audiovisuelle-visages-genre-voix-age/.
656
Mohamed Mansouri de l’ARPP. Disponible sur : https://www.arpp.org/. Interviewé le 24 juin 2020 pour les
besoins du présent article.
Page 148
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
M. Mansouri estime que le terme Invenio, qui signifie « j’ai trouvé » en latin, est
parfaitement approprié pour ce projet, puisqu’il permet de gagner un temps considérable
pour identifier d’éventuels manquements et s’attaquer à davantage d’infractions. Ce projet
présente par ailleurs un intérêt sur le plan éducatif et permet à divers acteurs de la chaîne
de valeur publicitaire de vérifier le flux de leurs programmes.
Il explique que les prochaines étapes de déploiement d’Invenio impliquent : la
détection d’autres types d’infractions fréquentes dans des domaines tels que la publicité
pour les produits cosmétiques et les cigarettes électroniques ; l’absence de divulgation des
collaborations commerciales et autres formes de publicité concernant le marketing
d’influence et les publicités vidéo. Il ajoute par ailleurs qu’Invenio englobera dans sa
stratégie d’avenir la dimension européenne, « qui est plus que jamais essentielle pour
démontrer la validité de l’autorégulation au niveau européen ».
Lorsqu’on lui a demandé s’il s’inquiétait du fait que les outils d’intelligence
artificielle pourraient à l’avenir être trop largement utilisés et qu’ils pourraient mal évaluer
et surveiller de manière excessive les publicités, M. Mansouri s’est voulu rassurant et a
déclaré que « le facteur humain est fondamental dans le système » et que rien n’est décidé
sans une analyse juridique préalable et l’aval des experts. « L’intelligence artificielle permet
de traiter avec une grande efficacité un volume considérable de données, mais sur la base
de critères très élémentaires. Même si les modèles améliorent sa précision à l’usage, le
syllogisme juridique ne peut à l’heure actuelle pas être automatisé ».
657
Pour davantage d’informations sur Sicara, voir : https://www.sicara.fr/.
Page 149
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
658
Otto van der Harst du SRC. Disponible sur : https://www.reclamecode.nl/. Interviewé le 20 juin 2020 pour les
besoins du présent article.
659
Nathalie Post de DEUS. Disponible sur : https://deus.ai/. Interviewée le 22 juin 2020 pour les besoins du
présent article.
Page 150
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
660
Spencer S., Stopping bad ads to protect users, Google Ads, Google,
https://blog.google/products/ads/stopping-bad-ads-to-protect-users.
661
Une équipe d'experts de Google (disponible sur: https://about.google/) a été interrogée le 8 juillet 2020 pour
les besoins du présent document, et a fourni la réponse de l'entreprise sur les sujets abordés dans ce chapitre.
Page 151
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
dénominateurs communs sur la manière dont elles échappent à nos systèmes de contrôle,
qui nous ont permis d’améliorer nos outils pour les contrer », déclare l’équipe de Google.
Les nouvelles technologies permettent en effet à Google de détecter d’éventuelles
infractions, mais seule la combinaison de ces technologies et de ces compétences
permettra une application effective de la loi. « Nous avons des milliers de personnes chez
Google qui se consacrent à la lutte contre les publicités frauduleuses, les sites frauduleux
et les escrocs en ligne », observe l’équipe. « Nous examinons en permanence les publicités,
les sites et les comptes des utilisateurs pour nous assurer qu’ils respectent nos conditions
d’utilisation. La mise en place de l’intelligence artificielle et d’autres technologies
d’apprentissage automatique permet à Google de poursuivre son action de contrôle
24 heures sur 24 et 7 jours sur 7 et d’évaluer de multiples critères lorsqu’il décide de
procéder au retrait d’une publicité.
Interrogée sur le fait que de plus en plus de publicités frauduleuses sont supprimées
chaque année, l’équipe de Google a répondu que l’augmentation du nombre était
révélatrice de plusieurs facteurs essentiels, notamment la nature dynamique et la
dimension évolutive de l’écosystème de la publicité numérique, ainsi que les améliorations
constantes dans l’adaptation aux différentes méthodes qu’utilisent les escrocs en ligne pour
déjouer les systèmes de contrôle. Les experts de Google précisent que : « Aucun système
ne sera jamais parfait à 100 %, mais nous sommes vigilants et nous nous efforçons en
permanence de perfectionner nos outils ».
Page 152
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
Page 153
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
Page 154
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
6.6. Remerciements
Tout comme les algorithmes d’intelligence artificielle, qui nécessitent un volume
considérable de données pour pouvoir être exploités, le présent article n’aurait pas pu être
rédigé sans les observations des experts interrogés qui ont aimablement accepté de
partager leur expertise, leurs connaissances et leurs prévisions futures au sujet de
l’utilisation de l’intelligence artificielle dans la publicité. Je tiens à remercier Kerry
Richardson de Tiny Giants, Charlie Cadbury de Say It Now et Nathalie Post de DEUS pour
avoir partagé leur expertise sur les interactions entre l’intelligence artificielle et la
créativité, sur les nouveaux formats publicitaires utilisant les nouvelles technologies et sur
le développement d’une approche de l’intelligence artificielle au service de l’humain. Un
grand merci aux consultants indépendants en marketing d’influence Scott Guthrie et Rupa
Shah de Hashtag Ad Consulting pour avoir partagé leurs observations sur le développement
des influenceurs virtuels, l’éthique et l’avenir probable des humains virtuels comme canaux
de marketing. Je tiens également à remercier Geraldine Proust de la FEDMA qui a eu la
gentillesse de me guider à travers les cadres juridiques applicables à l’utilisation de
l’intelligence artificielle dans la publicité et de me faire part de ses points de vue sur les
principaux défis que poseront à l’avenir les applications d’apprentissage automatique dans
le secteur de la publicité. Un immense merci à l’équipe d’experts de Google qui m’a apporté
des conseils et des éclaircissements supplémentaires sur les efforts déployés par
l’entreprise pour utiliser les technologies de pointe et l’expertise humaine afin de supprimer
les publicités frauduleuses et protéger ses plateformes. Enfin, et surtout, je suis
particulièrement reconnaissante à l’égard de mes collègues des organismes
d’autorégulation de la publicité – Guy Parker de l’ASA, Otto van der Harst du SRC et
Mohamed Mansouri de l’ARPP – d’avoir pris des mesures stimulantes pour adopter
l’intelligence artificielle et d’autres technologies d’apprentissage automatique, afin de
continuer à garantir des normes éthiques élevées dans la publicité, et de m’avoir permis de
les accompagner dans ce voyage passionnant, d’apprendre en cours de route et de discuter
avec eux des évolutions à venir en recherchant des solutions innovantes et en mettant
l’accent sur une solide collaboration européenne.
L’intelligence artificielle dans la publicité est en quelque sorte un labyrinthe dont
il est impossible de visiter tous les recoins. Toutefois, grâce aux conseils de l’ensemble des
experts interrogés, j’espère avoir trouvé plusieurs parcours possibles pour y parvenir. Les
parcours analysés dans ce chapitre illustrent ma propre perception de l’intelligence
artificielle dans la publicité et ne sauraient être attribués à une organisation ou à une
personne en particulier mentionnée dans le texte. Enfin, il convient que l’Observatoire
européen de l’audiovisuel ne soit tenu responsable d’aucune des citations et opinions
Page 155
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
Page 156
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
Droits de la personnalité
L’IA peut être réellement créative, et son apport peut aller bien au-delà d’une simple contribution
à l’élaboration d’un scénario. Après tout, le scénario ne constitue que la première étape du
processus créatif. L’histoire et les idées du scénario doivent être mises en image. Dans la plupart
des cas, ces histoires parlent de gens. Des gens incarnés par des acteurs. L’IA n’est pas seulement
capable d’écrire un scénario et de jouer une musique, elle peut également fournir les acteurs, ou
du moins transformer n’importe quel acteur en l’acteur idéal pour votre film. Elle peut, par
exemple, le rajeunir ou le vieillir. Des films très récents en témoignent : dans « Gemini Man », le
personnage incarné par Will Smith doit se battre contre un clone plus jeune. Une procédure de
rajeunissement similaire a également été appliquée aux personnages principaux du film de
Martin Scorsese, « The Irishman ». Dans Rogue One : A Star Wars Story, Carrie Fisher semble
plus jeune que jamais, et Peter Cushing, décédé en 1994, y connaît également un moment de
gloire post mortem. Mais généralement, après l’engouement vient l’hystérie. Si vous lisez les
journaux du moment, vous pouvez tomber sur des gros titres tels que : « À l’ère des deepfakes,
les acteurs virtuels peuvent-ils mettre les humains au chômage662 « ? Imaginez en effet un film
de gangsters avec comme acteur un Marlon Brando numérique, délesté de son comportement
notoirement difficile sur le plateau. Quel metteur en scène refuserait cela ? Il vous faut juste,
pour ce faire, disposer des bons matériels et logiciels… et d’un acteur fantôme, c’est-à-dire d’un
acteur dont le visage est remplacé par celui de l’acteur plus connu : moins cher, et, dans le cas
de Brando, probablement plus facile à diriger. En outre, l’IA simplifie de manière substantielle la
création de figurants numériques. Comme vous pouvez l’imaginer, ces innovations tant
technologiques qu’artistiques soulèvent des questions de droits de la personnalité. Ces questions
juridiques sont régies par la loi et réglées par contrat. Mais un contrat peut être injuste pour la
partie qui dispose d’un pouvoir de négociation plus faible, par exemple un acteur inconnu ou
une personne décédée. Par ailleurs, cette pratique a également une facette plus sombre : les
deepfakes. Ceux-ci peuvent être utilisés de diverses manières préjudiciables. Tout d’abord,
l’exploitation commerciale illicite : les deepfakes peuvent servir à de faux parrainages de
produits. Et il y a un autre problème : l’abus d’identité (le plus souvent dans des films
pornographiques). Dans sa contribution à cette publication, Kelsey Farish souligne qu’ « en
particulier en ce qui concerne les technologies novatrices telles que les deepfakes et le cinéma
fantôme, […] les droits de la personnalité nécessitent une prise en compte minutieuse du
contexte. »
662
Kemp L., « In the age of deepfakes, could virtual actors put humans out of business » », The Guardian,
https://www.theguardian.com/film/2019/jul/03/in-the-age-of-deepfakes-could-virtual-actors-put-humans-
out-of-business.
Page 157
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
7. Droits de la personnalité :
d’Hollywood aux deepfakes
Kelsey Farish, DAC Beachcroft LLP
7.1. Introduction
Les juristes se tournent rarement vers les acteurs et actrices d’Hollywood pour obtenir un
avis professionnel, mais lorsqu’il s’agit de technologies susceptibles de nuire à l’image
publique d’un individu, l’éclairage apporté par Scarlett Johansson représente une exception
notable. Lors d’une interview avec le Washington Post, Johansson, l’une des stars de cinéma
les plus reconnaissables et les mieux payées du monde a expliqué : « il n’y a rien qui puisse
empêcher quelqu’un de copier-coller mon image ou celle de n’importe qui sur un autre
corps et d’obtenir un effet aussi réaliste qu’angoissant663 ». Bien que les effets spéciaux
générés par ordinateur ne datent pas d’hier, Johansson faisait alors référence à une pratique
assez peu connue à l’époque, consistant à surimposer des visages de célébrités à ceux
d’acteurs de vidéos pornographiques, grâce à un système sophistiqué d’intelligence
artificielle. Aujourd’hui, ce type de vidéos où des visages sont échangés, qu’elles soient ou
non de nature pornographique, sont connues sous le nom de deepfakes.
Interrogée alors qu’elle se lançait dans une procédure judiciaire, Johansson a admis
qu’il s’agissait probablement d’une « entreprise vaine, du point de vue légal » dans la
mesure où « chaque pays a son propre jargon juridique sur le droit à disposer de son
image ». Elle ajoutait : « et donc même s’il est peut-être possible d’obtenir le retrait de sites
qui utilisent votre image aux États-Unis, l’Allemagne n’a peut-être pas de dispositions
663
Harwell, D., « Scarlett Johansson on fake AI-generated sex videos: ʻNothing can stop someone from cutting
and pasting my imageʼ », The Washington Post,
www.washingtonpost.com/technology/2018/12/31/scarlett-johansson-fake-ai-generated-sex-videos-nothing-
can-stop-someone-cutting-pasting-my-image/.
Page 159
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
similaires664 ». Ces règles, qui visent à protéger la manière dont l’image d’un individu peut
apparaître dans des publications ou des vidéos, sont souvent appelées collectivement les
droits de la personnalité. Cependant, ceux-ci se composent en fait de nombreuses lois
différentes qui comportent des exceptions et nuances complexes. Il est difficile d’en tirer
des généralisations et souvent de prévoir l’issue des procédures judiciaires et, comme le
souligne à raison Johansson, ces lois diffèrent considérablement selon les pays.
Ce chapitre a pour ambition de dissiper quelque peu la confusion qui entoure les
droits de la personnalité, et de proposer un commentaire pratique sur les risques et les
bénéfices dont les deepfakes et les acteurs fantômes s’accompagnent pour les industries du
film, de la télévision, de la radiodiffusion et des médias de divertissement. La section « L’IA
plante le décor » présente les technologies en question, et la section suivante sur les
« droits de la personnalité et leurs implications » couvre le cadre juridique sous quatre
angles différents, exemples concrets à l’appui. La section « Législation dans différents
pays » revient sur le cadre juridique et décrit de quelle reconnaissance les droits de la
personnalité bénéficient en Allemagne, en France, en Suède, à Guernesey, au Royaume-
Uni665 et en Californie. Enfin, la dernière section « Quel avenir pour le secteur audiovisuel
européen ? » s’interroge sur certaines carences importantes de ces lois ainsi que sur
d’éventuelles tendances.
664
Harwell D., op.cit.
665
Le droit du Royaume-Uni est évoqué tout au long de ce chapitre, mais le pays dispose de systèmes juridiques
différents pour l’Écosse, l’Angleterre et le pays de Galles, et l’Irlande du nord. Sauf mention contraire, les
références à des lois du Royaume-Uni font référence à celles qu’appliquent les tribunaux d’Angleterre et du
pays de Galles, c’est-à-dire le « droit anglais ».
666
Sanders R., « Human faces are so variable because we evolved to look unique », Berkeley News, Université de
Californie à Berkeley, https://news.berkeley.edu/2014/09/16/human-faces-are-so-variable-because-we-
evolved-to-look-unique/.
667
Mori M., « The Uncanny Valley : The Original Essay by Masahiro Mori », IEEE Spectrum, traduit par K. F.
MacDorman et N. Kageki [Japanese orig. 不気味の谷 (Bukimi No Tani) 1970]. Traduction anglaise disponible
sur : orig. 不気味の谷 (Bukimi No Tani) 1970]. English translation available at:
www.spectrum.ieee.org/automaton/robotics/humanoids/the-uncanny-valley.
668
Han J., « Ian Goodfellow : Invented a Way for Neural Networks to Get Better by Working Together », MIT
Technology Review, www.technologyreview.com/lists/innovators-under-35/2017/inventor/ian-goodfellow.
Page 160
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
7.2.1. Deepfakes
Les deepfakes ont commencé à gagner en notoriété lorsque des utilisateurs du site web
Reddit ont partagé des vidéos pornographiques hyperréalistes de Scarlett Johansson, Gal
Gadot et Emma Watson669, entre autres. Aujourd’hui, les deepfakes prospèrent au-delà de
l’univers de la mise en image d’abus sexuels, et sont à la portée de tous en tant que forme
de divertissement. Le logiciel de création de deepfakes est disponible en téléchargement
gratuit sur des sites de partages de fichiers tels que BitTorrent et GitHub, des tutoriels sur
YouTube expliquent son fonctionnement étape par étape et des créateurs freelance
proposent même des deepfakes sur mesure pour à peine 5 euros par vidéo sur des sites de
prestation de services tels que Fivver. Des applications mobiles telles que ZAO, Doublicat
et AvengeThem peuvent générer des vidéos dans lesquelles les visages ont été échangés
en se basant sur un seul selfie670, et même les applications grand public tels que Snapchat
et Instagram ont des « filtres » qui peuvent facilement être utilisés à cet effet. La
technologie continuera sans nul doute de progresser, et pour l’instant, la plupart des
deepfakes qui ont été réalisés de façon rapide ou désinvolte sont souvent facilement
identifiables lorsqu’on y regarde de plus près. Ils restent néanmoins un phénomène
populaire parce qu’ils n’exigent aucune connaissance technique. De plus, leurs
incohérences ou défauts mineurs ne dissuadent pas vraiment ceux qui les font seulement
par curiosité ou pour s’amuser.
669
Cole S., « AI-Assisted Fake Porn Is Here and We’re All Fucked », Motherboard Tech by VICE,
www.vice.com/en_us/article/gydydm/gal-gadot-fake-ai-porn.
670
Équipe Beebom, « 8 Best Deepfake Apps and Websites You Can Try for Fun », Beebom,
www.beebom.com/best-deepfake-apps-websites.
671
Parke F. I., « Computer generated animation of faces », Association for Computing Machinery '72 Proceedings
of the ACM Annual Conference, 1: 451–457.
672
Cosker D., Eisert P, et Helzle V., Facial Capture and Animation in Visual Effects, pp. 311-321 in Digital
Representations of the Real World : How to Capture, Model, and Render Visual Reality, Université de Bath,
département des sciences informatiques, http://cs.bath.ac.uk/~dpc/papers/VFX_2015.pdf.
Page 161
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
673
Robinson J., « Star Wars : The Last Jedi—What Happened to Leia ? », Vanity Fair,
www.vanityfair.com/hollywood/2017/12/star-wars-the-last-jedi-does-leia-die-carrie-fisher-in-episode-ix.
674
Dalla c. Autovox SpA Pret. Di Roma, 18 avril 1984, Foro It. 1984, I, 2030, Giur. It. 1985, I, 2, 453.
Page 162
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
sombre, dans laquelle les lois portant sur la propriété intellectuelle, le marketing et la
publicité, la gestion de la réputation, la liberté d’expression, la détresse émotionnelle et la
protection du consommateur danseraient ensemble sur la même piste, mais pas forcément
en harmonie. Le reste de cette section cherche à mettre un peu d’ordre dans cette danse,
en abordant les droits de la personnalité sous quatre angles différents.
675
Hughes J., « The Philosophy of Intellectual Property », Centre du droit de l’Université de Georgetown et
Georgetown Law Journal, 77 Geo. L.J. 287.
Page 163
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
droits relatifs aux images originales peut être difficile, voire impossible. De plus, certains
usages de matériel protégé par le droit d’auteur sont licites en dépit de l’absence
d’autorisation. Ces exceptions incluent notamment la satire et la parodie, tandis qu’aux
États-Unis, la transformation d’une œuvre créative pour générer une signification ou des
expressions nouvelles peut également être acceptable.
676
Robyn Rihanna Fenty c. Arcadia Group Brands Ltd (t/a Topshop), Court of Appeal (Civil Division) - [2015] EWCA
Civ 38.
677
Nena, BGH, Urt. V. 14 octobre 1986 VI ZR 10/86 Oberlandesgerichtsbezirk Celle, Landgericht Lüneburg.
Page 164
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
678
Convention européenne des droits de l’homme (formellement Convention pour la sauvegarde des droits de
l’homme et des libertés fondamentales), www.echr.coe.int/Documents/Convention_FRA.pdf.
679
Michael Douglas, Catherine Zeta-Jones & Ors c. Hello! Ltd. & Ors [2005] EWCA Civ 595.
680
Premier amendement à la Constitution des États-Unis,
www.constitution.congress.gov/constitution/amendment-1/.
Page 165
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
681
Buitelaar, J.C., « Post-mortem privacy and informational self-determination », Ethics and Information
Technology, 19(2), pp.129–142, https://link.springer.com/article/10.1007/s10676-017-9421-9.
Page 166
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
contractuel »682. Cette reconnaissance explicite de la dignité est inscrite dans la constitution
d’après-guerre de l’Allemagne et dans la législation et la jurisprudence de la plupart des
pays européens. Il est donc raisonnable d’avancer que ces lois ont été inspirées par le
souhait de protéger l’intégrité, l’individualité et l’autodétermination des personnes683. À titre
d’exemple, l’affaire no 2 von Hannover c. Allemagne684, souvent citée en matière de vie privée,
concernait la Princesse Caroline de Hanovre, la fille aînée du Prince Rainier III de Monaco.
La Princesse Caroline tentait depuis longtemps de se protéger contre la publication de
photos d’elle par la presse allemande. Lorsque des photographies d’elle et de sa famille ont
été publiées sans son accord, l’affaire a fini par atterrir devant la Cour européenne des droits
de l’homme. Dans sa décision, la Cour a déclaré que « l’image d’un individu est l’un des
attributs principaux de sa personnalité, du fait qu’elle exprime son originalité et lui permet
de se différencier de ses pairs. Le droit de la personne à la protection de son image
constitue ainsi l’une des conditions essentielles de son épanouissement personnel ».
Évidemment, internet a considérablement facilité la publication de contenus
audiovisuels susceptibles d’embarrasser et d’humilier. La nature discursive des médias
sociaux rend ces contenus encore plus visibles, ajoutant encore à l’embarras subi. En plus
de porter préjudice à l’estime de soi et à la santé mentale de la personne représentée, de
telles vidéos pourraient avoir un effet domino important sur ses partenaires à l’écran ou ses
partenaires commerciaux. Bien qu’il s’agisse là d’un domaine émergent du droit, les
arguments en faveur d’une solution juridique centrée sur la dignité mettent en avant une
vision plus globale de l’identité. En temps utile, la reconnaissance légale de cette facette
de la personnalité pourrait amener à moderniser les droits de la personnalité, et ainsi
protéger les individus des préjudices découlant de l’abus de ces technologies685.
Il est néanmoins quelque peu frustrant que, lors des procès qui mettent en jeu
l’honneur et la tranquillité d’un individu, la notion de dignité soit souvent simplement
abordée comme un principe générique se référant à un idéal abstrait. Même lorsque la loi
souligne l’importance de la dignité humaine, il n’est pas rare que les universitaires et les
juristes en exercice peinent à définir des règles cohérentes pour le fonctionnement pratique
de ce droit. La résolution de nombreuses affaires, y compris von Hannover, dépend au bout
du compte des lois en matière de diffamation ou de respect de la vie privée. Comme nous
l’avons vu ci-dessus, il faudra, dans ces affaires, que les droits de l’individu ayant subi un
préjudice prévalent sur le droit à la liberté d’expression des éditeurs.
Il reste toutefois un mince espoir pour ceux qui travaillent dans les arts du spectacle.
Tandis que le droit d’auteur cherche à protéger les intérêts de l’auteur ou du créateur d’une
œuvre, les droits voisins portent sur la nécessaire contribution des musiciens, danseurs ou
682
Préambule de la Convention de Genève, Convention (IV) relative à la protection des personnes civiles en
temps de guerre. Genève, 12 août 1949,
https://ihl-
databases.icrc.org/applic/ihl/dih.nsf/Comment.xsp?action=openDocument&documentId=7B16B56E1A89C8CC
C12563BD002CEEB3.
683
Abraham, K. et White E., « The Puzzle of the Dignitary Torts », Cornell Law Review 104 (2), pp.317–380,
www.core.ac.uk/download/pdf/228302795.pdf.
684
Von Hannover c. Allemagne (no 2) 40660/08 [2012] Cour européenne des droits de l’homme 228.
685
Dunn S., Identity Manipulation : Responding to advances in artificial intelligence and robotics, document de
travail présenté à la conférence WeRobot d’avril 2020. Le document a été fourni à Kelsey Farish dans le cadre
d’une correspondance privée en juillet 2020 et est cité ici avec l’aimable autorisation de son auteur.
Page 167
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
acteurs lors d’une performance enregistrée. Ces droits voisins sont ainsi nommés car ils sont
proches de la notion de droit d’auteur (ils sont également connus sous le nom de « droit
des artistes-interprètes » pour les distinguer du « droit d’auteur »). Les droits voisins ont
généralement pour but d’assurer la reconnaissance de la contribution d’un artiste, ainsi que
d’empêcher une modification d’un enregistrement susceptible de porter préjudice aux
intérêts intellectuels ou personnels de l’artiste-interprète. Par essence, les droits voisins
traitent des problèmes découlant de la copie ou de la diffusion pirate d’émissions sans
compensation appropriée des interprètes impliqués.
Malgré leur importance évidente en ce qui concerne les performances diffusées par
un média audiovisuel, les droits voisins sont très rarement abordés dans le contexte des
droits de la personnalité. Généralement, les litiges en matière de droit de la personnalité
portent sur l’usage abusif de photographies statiques, qui peuvent facilement être altérées
pour obtenir un effet réaliste, plutôt que sur des performances enregistrées. Mais comme
nous l’avons vu, les avancées de la VFX et de l’intelligence artificielle font que des vidéos
manipulées sont désormais davantage susceptibles d’être prises pour des vidéos
authentiques. Cette ère nouvelle, où sont créées des œuvres audiovisuelles qui imitent des
performances réelles, pourrait justifier une mise à jour de la définition d’une
« performance » traditionnellement retenue par la législation en matière de droits voisins.
Il existe en Californie des précédents en matière de reconnaissance de
performances virtuelles non consenties, dans lesquels des tribunaux ont indemnisé des
individus pour leur « asservissement » numérique dans des jeux vidéo. Les musiciens du
groupe No Doubt ont par exemple gagné un procès contre les créateurs de Band Hero, un
jeu qui permet aux joueurs de choisir un avatar numérique hyperréaliste pour simuler une
participation à la performance d’un groupe de rock686. Si les deepfakes ou le cinéma fantôme
étaient considérés comme des « performances » dans le cadre de la loi, alors l’image d’une
personne qui aurait été contrainte de se plier à une performance numérique contre son gré
pourrait être protégée. C’est pourquoi, afin d’avoir une vue complète de ces questions, les
droits voisins devraient être pris en compte au même titre que tous les autres droits à
l’image ou au respect de la vie privée qui composent le dispositif en matière de droits de la
personnalité.
686
No Doubt c. Activision Publishing, Inc., 122 Cal.Rptr.3d 397 (Cal. Ct. App. 2001).
Page 168
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
vie privée (angle 3 ci-dessus). La dignité en tant qu’aspect de la personnalité a peu retenu
l’attention des spécialistes des droits de la personnalité, et les droits voisins encore moins
(angle 4 ci-dessus). La question de savoir si ces droits s’appliquent après le décès d’un
individu donne lieu à diverses réponses, mais les droits post mortem seront généralement
considérés comme une forme de propriété qu’un individu peut transmettre à ses héritiers.
Il reste à voir comment les prochains litiges sur les deepfakes et le « jeu fantôme »
seront soldés. S’agissant du moins des pays choisis dans cette section 3, ce sont les lois
relatives à la réputation et à la reconnaissance de marque qui seront vraisemblablement
les plus pertinentes. Les droits à la dignité et les droits voisins pourraient également
s’appliquer, et pourraient même peut-être constituer un cadre plus moderne pour la
protection d’un personnage. Par ailleurs, les droits de propriété intellectuelle et au respect
de la vie privée sont peut-être moins importants lorsqu’il s’agit d’images détournées
d’individus figurant dans des contenus audiovisuels. Dans tous les cas, l’image, la vie privée
et la dignité d’un individu nécessitent une analyse au cas par cas, ce qui impliquera toujours
de trouver un équilibre entre ces droits et les droits concurrents en matière de liberté
d’expression.
7.4.1. Allemagne
L’Allemagne abrite le plus grand marché audiovisuel d’Europe, et son secteur des médias
atteignait une valeur de 23 milliards d’euros en 2018687 et employait plus de 520 000
personnes en 2017688. La reconnaissance des droits de la personnalité y est large et ancrée
dans la Constitution allemande. Celle-ci fournit un exemple presque parfait des protections
en matière de dignité évoquées sous l’angle 4 ci-dessus, en affirmant que « la dignité
humaine est inviolable » et que « chacun a droit au libre épanouissement de sa
personnalité » (Grundgesetz, articles 1 et 2)689. Ces protections fondamentales sont
complétées par le Code civil, selon lequel toute personne qui porte abusivement préjudice
aux droits de la personnalité d’un individu est responsable des dommages qui en résultent
(BGB, §823)690. En Allemagne, la dignité d’une personne peut subsister après la fin de sa vie
687
Observatoire européen de l’audiovisuel, Annuaire 2019/2020 Tendances clés – Cinéma, télévision, vidéo et
services audiovisuels à la demande – le paysage paneuropéen. Observatoire européen de l’audiovisuel,
http://yearbook.obs.coe.int/s/document/key-trends/2019.
688
Weidenbach B., « Beschäftigte in der Medienbranche in Deutschland 2017 », Statista.
689
Grundgesetz, formellement Grundgesetz für die Bundesrepublik Deutschland [loi fondamentale de la
République fédérale d’Allemagne]. Traduction anglaise disponible sur : www.gesetze-im-
internet.de/englisch_gg/englisch_gg.html.
690
BGB, formellement Bürgerliches Gesetzbuch [Code civil allemand] dans sa version promulguée le
2 janvier 2002 (Journal officiel fédéral, page 42, 2909 ; 2003 page 738) amendé en dernier lieu par l’article 4,
paragraphe 5 de la loi du 1er octobre 2013. Traduction anglaise disponible sur :
www.gesetze-im-internet.de/englisch_bgb/englisch_bgb.html.
Page 169
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
naturelle, et les proches peuvent ainsi protéger une personne disparue contre un discrédit
porté à son image691.
Tous les aspects de l’identité d’une personne sont couverts par le droit allemand
consolidé de la personnalité, mais les images et photographies d’un individu font l’objet de
protections renforcées. La loi allemande relative au droit d’auteur prévoit que, lorsque des
images incluent un individu identifiable, elles « ne sauraient être distribuées ou exposées
publiquement qu’avec le consentement de la personne en question » (UrhG, §19a et §22)692.
Le caractère identifiable porte non seulement sur des représentations du visage, mais aussi
d’autres caractéristiques distinctives, sur des dessins humoristiques ou même des sosies
(doppelgängers) . Il faut souligner que la notion de distribution est interprétée de façon
large, et donc même un photographe amateur est théoriquement censé obtenir un
consentement avant de poster l’image d’une personne sur les médias sociaux, ou de la
partager avec des amis sur une application de messagerie. Le consentement est également
requis d’un artiste-interprète avant la diffusion ou toute autre communication de la
performance enregistrée (Section III, UrhG).
Le consentement n’est toutefois pas nécessaire dans le cadre de la représentation
de personnes de l’histoire contemporaine, ou d’images dans lesquelles les individus ne
figurent que de manière accessoire, ou lorsque la publication est au service d’un intérêt
supérieur artistique ou culturel (KunstUrhG, §23)693. Mais cet exercice d’équilibrage a
récemment évolué en faveur de la protection du détenteur des droits sur l’image694. Et en
ce qui concerne les images particulièrement intimes, par exemple de quelqu’un dans son
domicile, le code pénal interdit de prendre, transmettre ou utiliser des images qui portent
atteinte à la vie intime d’autrui, et les violations sont passibles d’une amende ou d’un
maximum de deux ans de prison (StGB, §201a).695
S’agissant de la question du droit à l’image dans le cadre des droits de la
personnalité, les tribunaux allemands sont de plus en plus disposés à protéger les individus
contre une exploitation commerciale indésirable de leur image696. Au contraire de
l’approche constatée au Royaume-Uni, une commercialisation préalable du personnage d’un
691
Seyfert C., Regional Court Frankfurt am Main : Postmortem personality right of a Holocaust survivor prevails over
publications by a British history professor (Affaire 2-03 O 306/19), cabinet d’avocats Zeller & Seyfert,
www.zellerseyfert.com/en/litigationblog-detail/items/regional-court-frankfurt-am-main-postmortem-
personality-right-of-a-holocaust-survivor-prevails-over-publications-by-a-british-hi.html.
692
UrhG, formellement Urheberrechtsgesetz [loi sur les droits d'auteur et les droits voisins] du 9 septembre
1965 (Journal officiel fédéral I, p. 1273) amendée en dernier lieu par l’article 1 de la loi du 28 novembre 2018
(Journal officiel fédéral I, p. 2014). Traduction anglaise disponible sur : www.gesetze-im-
internet.de/englisch_urhg/englisch_urhg.html.
693
KunstUrhG, formellement Gesetz betreffend das Urheberrecht an Werken der bildenden Künste und der
Photographie [loi sur le droit d’auteur dans les œuvres de beaux-arts et de photographie] du 9 janvier 1907
(RGBl. I p. 7) amendée en dernier lieu par la loi du 16 février 2001 (BGBl. I, p. 266), 1er août 2001, www.gesetze-
im-internet.de/kunsturhg/__23.html.
694
Coors C., « Image Rights of Celebrities vs. Public Interest – Striking the Right Balance Under German Law »,
Journal of Intellectual Property Law & Practice (2014) 9 (10): 835-840, www.ssrn.com/abstract=2738514.
695
StGB, formellement Strafgesetzbuch [Code pénal] dans sa version promulguée au 13 novembre 1998 (Journal
officiel fédéral I p. 3322) amendé en dernier lieu par l’article 3 de la loi du 2 octobre 2009 (Journal officiel
fédéral I p. 3214). Traduction anglaise disponible sur : www.gesetze-im-internet.de/englisch_stgb/.
696
Peters M., « The Media and Entertainment Law Review – Germany », The Law Reviews,
www.thelawreviews.co.uk/edition/the-media-and-entertainment-law-review-edition-1/1211744/germany.
Page 170
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
individu n’est pas une condition expresse pour pouvoir faire valoir un droit à l’image.
S’agissant de la représentation d’une personne disparue, un consentement des proches est
requis pendant les dix ans suivant son décès. Dans une affaire concernant des photos de la
star de cinéma Marlene Dietrich (décédée plusieurs années auparavant), la Cour fédérale
de justice a estimé que toute exploitation non autorisée d’images ouvrait un droit à
compensation pour le détenteur du droit à l’image, et ce, quelle que soit la gravité de la
violation697.
7.4.2. France
Généralement considérée comme le berceau du cinéma, la France dispose, selon de
nombreux indicateurs, de l’industrie cinématographique la plus prolifique d’Europe : près
de 300 films par an ou plus ont été réalisés en France chaque année depuis 2015698. Les
droits de la personnalité en France, connus sous le nom de droit à l’image ou à son image,
incluent des lois relatives à la protection de la vie privée qui ont pour but de protéger les
individus d’une exposition non souhaitée, ainsi que des droits commerciaux qui permettent
à l’image d’être exploitée en tant qu’actif commercial699. En règle générale, le consentement
de la personne doit être obtenu avant que son image soit communiquée au public. Comme
d’autres pays, la France définit l’image de façon large pour englober l’apparence, la voix, la
photographie, le portrait ou la vidéo. Les tribunaux français ont confirmé que le floutage
du visage d’un modèle ne saurait en lui-même résoudre une atteinte au droit de l’image,
lorsque d’autres parties du corps sont encore visibles700.
Cette philosophie est largement ancrée dans la forte protection garantie en France
de la vie privée, intime ou familiale des personnes. Le Code civil affirme que chacun a droit
au respect de sa vie privée et, surtout, il confère aux tribunaux la possibilité de recourir à
toute mesure appropriée pour empêcher ou faire cesser une atteinte à l’intimité de la vie
privée (Code civil, article 9)701. Ainsi, les juges français ont progressivement développé au
cas par cas des droits de la personnalité plus protecteurs pour les plaignants702. La nature
du consentement constitue une question centrale, mais elle n’est pas toujours facile à
déterminer. Le tribunal de grande instance de Paris a récemment estimé qu’un mannequin
professionnel participant à une séance photo à des fins publicitaires n’avait pas consenti à
toute forme d’exploitation commerciale de ces images703.
697
Marlene Dietrich, BGH 1er décembre 1999 - 1 ZR 49/97 - Kammergericht LG Berlin.
698
Lemercier F., « 301 feature films produced by France in 2019 », Cineuropa - the best of European cinema,
https://cineuropa.org/en/newsdetail/387425/.
699
Logeais E. et Schroeder J-B., « The French Right of Image : An Ambiguous Concept Protecting the Human
Persona », 18 Loyola University Entertainment Law Review 511,
https://digitalcommons.lmu.edu/cgi/viewcontent.cgi?article=1366&context=elr&httpsredir=1&referer= .
700
M. X c. Umanlife, TGI de Paris, décision du 16 novembre 2018.
701
Code civil français, www.legifrance.gouv.fr/.
702
Sullivan C. L. et Stalla-Bourdillon S., « Digital Identity and French Personality Rights – A Way Forward in
Recognizing and Protecting an Individual's Rights in His/Her Digital Identity », Computer Law & Security Review
(2015), www.ssrn.com/abstract=2584427.
703
Mme X c. SARL Denim, TGI de Paris, 17ème chambre, décision du 21 novembre 2018.
Page 171
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
7.4.3. Suède
Pour un pays qui compte une population relativement faible, la Suède a donné naissance à
un nombre remarquable de stars internationales de la télévision et du film, notamment
Greta Garbo, Ingrid Bergman, Max von Sydow, Stellan Skarsgård, et Alicia Vikander. En plus
d’être un haut lieu du genre du film noir scandinave, la Suède est à l’origine de plusieurs
programmes qui ont connu un large succès dans d’autres marchés, tels que Wallander, The
Bridge, ou la saga Millenium. Le fait que le pays ne dispose pas d’un droit de la personnalité
distinct en tant que tel semble donc quelque peu surprenant.
Contrairement à ce qu’on observe en Allemagne ou en France, les droits de la
personnalité sont pour ainsi dire absents du droit suédois706. Lorsque les médias
d’information font un usage abusif d’une image, la loi sur la liberté de la presse s’applique,
mais la Suède a tendance à faire prévaloir la liberté d’expression sur le droit à la vie privée
des individus. Cette approche est quelque peu inhabituelle par rapport à celles de
nombreux autres pays européens, et découle peut-être du fait que le droit suédois met au
premier plan la transparence et l’ouverture, et donc également l’accès du public à
l’information. Cette approche est illustrée par la Utgivningsbevis, un type controversé de
licence de publication qui permet à des entreprises de publier ouvertement des
informations personnelles relatives à des individus707. Dans le même ordre d’idée, le revenu
704
Code pénal français, www.legifrance.gouv.fr/.
705
CPI, formellement Code de la propriété intellectuelle, www.legifrance.gouv.fr/.
706
Ondreasova E., Personality Rights in Different European Legal Systems : Privacy, Dignity, Honour and Reputation
The Legal Protection of Personality Rights, pp. 24–70. Brill | Nijhoff,
https://brill.com/view/book/edcoll/9789004351714/B9789004351714_004.xml.
707
Herlin-Karnell E., « Corona and the Absence of a Real Constitutional Debate in Sweden », Verfassungsblog on
Matters Constitutional, www.verfassungsblog.de/corona-and-the-absence-of-a-real-constitutional-debate-in-
sweden/.
Page 172
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
7.4.4. Guernesey
Le bailliage de Guernesey est une île située au large des côtes du nord de la France, et bien
qu’il s’agisse d’une dépendance de la couronne britannique, elle dispose d’un système
juridique distinct de celui du Royaume-Uni. Bien qu’elle ne compte que 63 000 habitants,
son système fiscal avantageux pour les sociétés, ses paysages pittoresques et sa langue
anglaise ont contribué à l’éclosion d’un secteur de la production cinématographique et du
financement du film713. Dans le contexte qui nous retient ici, il est intéressant de souligner
que c’est Guernesey qui a mis en place le premier régime d’enregistrement du droit à
l’image au monde, avec son ordonnance sur les droits à l’image de 2012714. D’une façon
708
Marçal, K., « Sweden shows that pay transparency works », The Financial Times,
www.ft.com/content/2a9274be-72aa-11e7-93ff-99f383b09ff9.
709
Lag om namn och bild i reklam (1978:800) [loi sur les noms et les images en publicité]. Traduction anglaise
disponible sur : www.kb.se/Dokument/Bibliotek/biblioteksjuridik/names_pictures.pdf.
710
Skadeståndslag (1972:207) [loi sur la responsabilité délictuelle suédoise]. Disponible sur :
www.riksdagen.se/sv/dokument-lagar/dokument/svensk-forfattningssamling/skadestandslag-1972207_sfs-
1972-207.
711
Brottsbalken, SFS 1962:700 [Code pénal suédois] Traduction anglaise disponible sur :
www.legislationline.org/download/id/1700/file/4c405aed10fb48cc256dd3732d76.pdf.
712
Ondreasova E., op.cit.
713
Tustin B., « Guernsey Film : More Than You Might Think », Mondaq, www.mondaq.com/guernsey/film-
television/171220/guernsey-film-more-than-you-might-think.
714
Ordonnance sur les droits à l’image (bailliage de Guernesey), 2012.
Page 173
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
7.4.5. Royaume-Uni
Au moment où nous écrivons, le gouvernement en place au Royaume-Uni a souligné
l’importance de désolidariser le pays de l’écosystème politique et économique de l’Union
européenne. Mais malgré le Brexit, les films et émissions de télévision britanniques font
partie intégrante du marché audiovisuel de l’Europe au sens large, et le public les apprécie
partout sur le continent. En dépit de cela, le Royaume-Uni, comme la Suède, ne reconnaît
pas formellement les droits de la personnalité dans sa législation. Et contrairement à bon
nombre de leurs homologues européens, les tribunaux anglais se sont gardés de
reconnaître ce droit au moyen de la jurisprudence.
Pour citer la décision dans l’affaire Rihanna mentionnée plus haut : « il n’existe pas
aujourd'hui en Angleterre un droit autonome général pour une personne connue (ou toute
autre personne) de contrôler la reproduction de son image ». Plutôt que de tenter de
formuler un droit de la personnalité distinct, les juges du Royaume-Uni préfèrent
habituellement s’appuyer sur les instruments juridiques plus traditionnels à leur
disposition. Dans ce cadre, il existe plusieurs voies qui permettent à un individu de protéger
www.lexology.com/library/detail.aspx?g=9829178f-e93d-4ead-94d0-bfbfaa81f8b7.
Page 174
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
son image, contre des atteintes qui concernent généralement la divulgation de faits privés,
et le préjudice porté à la réputation ou aux intérêts commerciaux d’une personne.
En raison de la façon dont la common law s’est développée au Royaume-Uni, et du
fait que le pays ne dispose pas d’une constitution écrite, le droit à la vie privée n’est pas
considéré comme un droit distinct. Les juges s’appuient donc plutôt sur le fait que le droit
au respect de la vie privée constitue une valeur sociale importante qui sous-tend à son tour
les lois spécifiques relatives à l’abus de confiance ou à l’usage abusif d’informations
particulièrement sensibles. À partir de la fin des années 1990, les tribunaux ont abordé les
protections de la vie privée dans le cadre de la loi du Royaume-Uni sur les droits de l’homme
de 1998, qui reflète la Convention européenne des droits de l’homme. Cela étant, dans les
affaires plutôt rares dans lesquelles les tribunaux anglais ont dû se pencher sur des
questions de respect de la vie privée liées à des images, les juges ont généralement fait
prévaloir la protection de la liberté d’expression et des autres libertés de la presse. Il existe
des exceptions notables s’agissant des images qui présentent des informations
confidentielles, ou sur lesquelles figurent des enfants ou des scènes à caractère
particulièrement intime.
Lorsque le droit à l’image est protégé en tant qu’actif commercial, l’option la plus
pertinente consiste souvent à s’appuyer sur le délit d’« imitation frauduleuse », mais le
succès dépendra en premier lieu de l’importance de la « réputation ou de la notoriété » de
la célébrité en question716. Du point de vue de la dignité et de la réputation, un usage non
autorisé de l’image d’une personne peut constituer en Common law le délit de mensonge
préjudiciable, mais uniquement lorsqu’il consiste en des déclarations mensongères donnant
lieu à un préjudice monétaire quantifiable717. Les déclarations mensongères qui portent
atteinte à la réputation d’un individu identifiable peuvent constituer une diffamation, mais
depuis une réforme de la loi sur la diffamation de 2013718, uniquement lorsqu’elles
débouchent sur un « préjudice sérieux » pour l’individu représenté.
Ce qui précède doit également être lu à la lumière de la loi de 1988 relative à la
propriété intellectuelle en matière de droit d'auteur, de modèles et de brevets (CDPA)719 qui
permet à un artiste-interprète, dans certaines circonstances, de « s’opposer à un traitement
dérogatoire de la performance, par une distorsion, une mutilation ou d’autres modifications
préjudiciables à la réputation de l’interprète » (CDPA, s. 205). Avant d’utiliser une
performance enregistrée, un consentement doit être obtenu auprès de l’acteur, musicien,
danseur ou autre interprète en question (CDPA, s. 182). Cette loi a été inspirée par une
affaire portant sur des clips qui mettaient en scène l’acteur Peter Sellers, qui avaient été
utilisés après son décès pour réaliser un nouveau film de la Panthère rose. Ses
représentants successoraux étaient parvenus à faire valoir le droit post mortem de Sellers
d’empêcher une exploitation non autorisée de ses performances720.
716
Edmund ‘Eddie’ Irvine c. Talksport [2002] EWHC 367 (Ch).
717
Marathon Mutual Ltd c. Waters [2009] EWHC 1931 (QB)).
718
Loi sur la diffamation de 2013, www.legislation.gov.uk/ukpga/2013/26/contents/enacted.
719
Loi sur les dessins, les modèles et les brevets de 1988,
www.legislation.gov.uk/ukpga/1988/48/contents.
720
Rickless c. United Artists Corporation [1988] QB 40.
Page 175
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
7.4.6. Californie
Il n’existe pas de droit au respect de la vie privée au niveau fédéral aux États-Unis : les
protections du droit à la vie privée sont réglementées dans le cadre de domaines ou
secteurs spécifiques, comme les informations financières ou médicales par exemple. Bien
qu’il existe des lois en matière de propriété intellectuelle et des codes relatifs à la
concurrence et la publicité déloyales au niveau fédéral, ce sont avant tout les lois d’un État
donné qui seront pertinentes en matière de protection de l’image et de la vie privée d’un
individu. Parce qu’elle abrite à la fois Hollywood et la Silicon Valley, la Californie représente
sans doute le mieux l’esprit du temps découlant de l’interaction entre célébrité et
technologie.
La Californie protège le droit à l’image dans ses codes civils ainsi qu’en common
law, en partie en raison de son industrie du divertissement de renommée mondiale et de la
tendance californienne à tenir compte et à respecter les émotions de chacun. Le Code civil
californien (CIV)721 interdit l’usage non autorisé du nom, de la voix, signature, photographie
ou représentation d’autrui à des fins publicitaires sans consentement (CIV §3344). Les
contrevenants sont condamnés à verser à la partie lésée la somme la plus élevée entre 750
dollars américains (environ 635 euros en août 2020) ou le montant du préjudice
effectivement subi, y compris une restitution de profit. La loi sur la protection de l’image
des célébrités dite « Fred Astaire » a, par la suite, amendé le paragraphe §3344 afin de
protéger l’utilisation commerciale du nom, de l’image ou de la voix d’une personne décédée
pendant une durée de 70 ans après sa mort722. Cependant, cette section s’applique
uniquement à la marchandise, à la publicité et aux parrainages, et exemptent les œuvres
fictionnelles ou non fictionnelles dramatiques, littéraires, musicales ou de divertissement.
Le droit à l’image de Common law couvre tous les abus relatifs à l’identité d’un individu, ce
qui va plus loin que les seules caractéristiques spécifiques figurant dans la loi, commis en
vue de tirer des « bénéfices commerciaux ou autres »723.
Les tribunaux californiens reconnaissent que le droit d’une personne à être protégée
d’une exposition non autorisée ou indue constitue un aspect du droit à la vie privée724.
Plusieurs lois en matière de vie privée sont applicables à l’utilisation abusive de l’image de
quelqu’un ; elles se distinguent selon qu’elles impliquent un préjudice de nature
économique ou une atteinte à la dignité. Un contenu mensonger portant atteinte à la
réputation de quelqu’un pourrait relever d’un délit de diffamation, et un contenu qui n’est
pas techniquement mensonger mais qui porte néanmoins préjudice au bien-être mental ou
émotionnel de la victime peut être constitutif d’un délit de « mise en lumière
défavorable »725. En raison de la concentration de résidents qui se trouvent souvent sous le
721
CIV (Code civil de Californie), https://codes.findlaw.com/ca/civil-code/
722
Loi Fred Astaire sur la protection de l’image des célébrités, voir §3344.1 du Code civil californien.
723
Clint Eastwood c. National Enquirer, Superior Court, 149 Cal.App.3d 409 (Cal. Ct. App. 1983).
724
Fairfield c. American Photocopy Equipment Co., (1955) 138 Cal. App. 2d 82, 291 P.2d 194
725
Dans les systèmes juridiques de Common law, une publication fausse qui nuit à la réputation d’une personne
peut caractériser une diffamation. Mais dans certains États des États-Unis, dont la Californie, il existe un délit
distinct (préjudice légal) qui couvre les communications qui ne sont pas techniquement fausses, mais qui sont
néanmoins trompeuses. À cet égard, les tribunaux de Californie reconnaissent que de fausses implications
Page 176
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
peuvent entraîner des impressions fausses, et au bout du compte préjudiciables, vis-à-vis de l’individu concerné.
Cette distinction est subtile et nuancée, mais en général, la diffamation cherche à corriger le préjudice porté à
la réputation d’une personne. La vérité permet de se défendre contre une action en diffamation, c’est-à-dire que
si la déclaration est vraie, il n’y a pas diffamation. Mais une photographie ou une déclaration factuellement
correcte peut « montrer quelqu’un sous une fausse lumière ». Le délit californien de « mise en lumière
défavorable » se préoccupe donc du préjudice porté aux émotions d’une personne – sans tenir compte de la
véracité. CACI (Judicial Council of California Civil Jury Instructions) édition 2017. N o 1802. False Light.
https://www.justia.com/trials-litigation/docs/caci/1800/1802/.
726
Dustin Hoffman c. Capital Cities/ABC, Inc., 255 F. 3d 1180 (9ème Cir. 2001).
727
Code sur le droit d’auteur, formellement U.S. Code, Title 17 Copyrights, §107 Limitations on exclusive rights:
Fair use, www.law.cornell.edu/uscode/text/17/107.
728
Comedy III Prods., Inc. c. Gary Saderup, Inc. - 25 Cal. 4th 387, 106 Cal. Rptr. 2d 126, 21 P.3d 797 (2001).
Page 177
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
729
Loi 2678 de la chambre des délégués de Virginie, formellement Bill to amend and reenact § 18.2-386.2 of
the Code of Virginia, relating to unlawful dissemination or sale of images of another ; falsely created
videographic or still image,.
https://law.lis.virginia.gov/vacode/title18.2/chapter8/section18.2-
386.2/#:~:text=Any%20person%20who%2C%20with%20the,or%20female%20breast%2C%20where%20such.
730
Loi 751 du Sénat du Texas, formellement Bill relating to the creation of a criminal offense for fabricating a
deceptive video with intent to influence the outcome of an election,
www.legiscan.com/TX/text/SB751/2019.
731
Statt N., « TikTok is banning deepfakes to better protect against misinformation », The Verge,
www.theverge.com/2020/8/5/21354829/tiktok-deepfakes-ban-misinformation-us-2020-election-interference.
732
Wiggers K., « Facebook, Microsoft, and others launch Deepfake Detection Challenge », VentureBeat.
733
Kalmykov M., « Positive Applications for Deepfake Technology », Hackernoon.com,
www.hackernoon.com/the-light-side-of-deepfakes-how-the-technology-can-be-used-for-good-4hr32pp.
Page 178
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
une ligne de démarcation claire entre deepfakes indésirables d’un côté et acceptables de
l’autre.
Au-delà de la manière dont les « mauvais » deepfakes pourraient être séparés des
« bons », il faut noter que les contenus novateurs et divertissants ont une incroyable
capacité à devenir viraux, même s’ils sont faux ou trompeurs. Bien qu’il s’agisse là d’un
point de vue assez cynique, les plateformes qui dépendent du nombre de clics publicitaires
ou de pages vues pourraient estimer qu’il est dans leur intérêt commercial de garder les
contenus les plus attrayants en ligne. De plus, même lorsqu’il convient vraisemblablement
de retirer un certain deepfake, une telle décision peut avoir un effet dissuasif en matière de
liberté d’expression. Enfin, même lorsqu’un deepfake a été retiré d’une plateforme, il peut
s’agir d’une solution de surface, dans la mesure où la vidéo pourrait facilement réapparaître
autre part. De plus, l’effet dit Streisand734 a démontré qu’une tentative de suppression d’une
information pouvait involontairement aboutir à élargir sa diffusion.
Lorsque des contenus audiovisuels sont publiés en ligne, il peut être difficile de les
protéger d’un usage non souhaité, ou d’un détournement par des parties tierces. Il est
néanmoins toujours possible à des parties privées de s’accorder par voie contractuelle sur
la façon dont les droits de la personnalité pourront être exploités ou protégés. Les
interprètes concluent généralement un contrat nouveau pour chacun de leurs projets, et la
définition de paramètres clairs dès le départ pourrait être utile pour prévenir des litiges
ultérieurs. Il n’est pas besoin de recourir à un jargon juridique pour ce faire, mais il est
prudent de préciser par écrit les façons dont l’image d’une personne pourra être utilisée,
partagée ou transférée à d’autres.
Les deux parties auraient tout intérêt à examiner minutieusement la manière dont
le contenu pourrait être utilisé au-delà de la production initiale, ainsi que la question d’une
rémunération complémentaire. Lorsqu’un studio réutilise les images d’une performance
précédente pour une production nouvelle, il est peu probable que cela donne lieu à des
paiements supplémentaires si ceux-ci ne sont pas clairement stipulés dans le contrat. Du
point de vue de la réputation, il pourrait également être utile d’inclure des clauses anti-
dénigrement ou des clauses dites de moralité, qui visent à empêcher une partie de nuire à
la réputation de l’autre. Pour les acteurs, celles-ci seront d’autant plus importantes dans
des pays tels que le Royaume-Uni, la Suède ou les États-Unis, dans lesquels la diffamation
et l’atteinte à la dignité sont notoirement difficiles à faire valoir.
D’un point de vue strictement financier, une modification indésirable des
apparences de l’acteur pourrait nuire, ou même détruire, sa relation avec ceux qui
travaillent derrière la caméra. Les demandes et les différends créatifs, qu’ils soient ou non
raisonnables, sont connus pour faire dérailler ou même couler des productions. La perte ou
734
L’effet Streisand tire son nom de l’action en justice intentée en 2003 par l’actrice et chanteuse américaine
Barbra Streisand contre un photographe, Kenneth Adelman. Streisand tentait de faire interdire la publication
des photographies qu’Adelman avait prises de sa maison située sur les plages californiennes de Malibu.
Cependant, la photographie d’Adelman avait été réalisée dans le cadre du California Coastal Records Project,
un projet de recherche scientifique portant sur l’érosion des côtes qui met à disposition de la recherche des
photos de la côte californienne. La demande de l’actrice a fini par être rejetée mais la publicité qu’avait générée
le procès a encore accru l’intérêt public pour les photos de sa maison. Voir Cacciottolo M., « The Streisand
Effect : When censorship backfires », BBC News, https://www.bbc.co.uk/news/uk-18458567.
Page 179
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
le remplacement d’une star en cours de tournage peut coûter des milliers ou des millions
d’euros à un studio. Des modifications substantielles, au-delà des besoins artistiques du
film, devraient donc être discutées en amont, en particulier lorsque ces altérations sont
susceptibles de porter préjudice aux intérêts ou aux sentiments de l’acteur.
Enfin, bien qu’il puisse être fascinant et innovant de créer le double numérique ou
une version fantôme de l’image de quelqu’un, cela présente un risque inévitable. Pour
paraphraser Ingmar Bergman, lorsque nous nous asseyons pour profiter d’un film ou d’une
émission de télévision, nous nous préparons de façon consciente à une illusion. Nous
mettons de côté la volonté et l’intellect de façon à laisser un récit fictif se déployer dans
notre imaginaire735. Mais il s’agit de tout autre chose lorsqu’on considère le réalisme des
visages créés désormais, parce qu’il pourrait porter atteinte à l’autonomie et à
l’autodétermination des acteurs concernés. Ce réalisme a également tendance à manipuler
les processus d’évaluation et de prise de décision du public. Quand les individus sont
représentés de manière mensongère dans des vidéos non fictionnelles, comme des
documentaires, des interviews ou des publicités, le risque de préjudice financier,
réputationnel et sociétal est encore plus manifeste. On peut en toute logique s’attendre, au
fur et à mesure que l’intelligence artificielle devient de plus en plus sophistiquée, à ce que
la distinction entre performances authentiques et celles générées numériquement se
complexifie. Si l’œil humain est incapable de discerner la différence, la loi cessera peut-
être également de distinguer les deux et étendra ainsi les droits de la personnalité pour
couvrir l’identité virtuelle des personnes.
S’il fallait retenir une seule chose de ce chapitre, c’est que les droits de la
personnalité nécessitent une prise en compte minutieuse du contexte. Lorsque ces droits
font l’objet de procédures judiciaires, il revient aux tribunaux de les interpréter plutôt que
de créer du droit, et donc, d’affirmer simplement l’applicabilité de règles établies qui ont
évolué par rapport aux usages de cette société. Il n’est pas simple, même pour quelqu’un
qui bénéficie d’une formation ou d’une autorité juridique, de trancher des questions
relatives à l’art, la vérité, l’expression, l’identité – qui touchent toutes à l’essence de ce que
signifie « être humain ». Lorsqu’on s’interroge sur l’exploitation et la protection des droits
de la personnalité, en particulier en ce qui concerne les technologies novatrices telles que
les deepfakes et le cinéma fantôme, il semble qu’il faille se contenter de la réponse
habituelle de l’avocat, du moins pour le moment : « ça dépend ».
735
Bergman I., Four Screenplays, Secker & Warburg, London. Traduction du suédois vers l’anglais par
L. Malmstrom et D. Kushner.
Page 180
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
La réglementation de l’intelligence
artificielle
Le principe d’une « prise en compte minutieuse du contexte » mentionné par Kelsey Farish dans
sa contribution à cette publication devrait probablement être étendu à l’ensemble des questions
juridiques abordées dans ces pages. Et il faut garder à l’esprit ce fait central (déjà évoqué à
l’avant-propos de cette publication) : les ordinateurs restent des ordinateurs, des machines
stupides capables en tout et pour tout de distinguer un 1 d’un zéro. Ainsi, les résultats de leurs
efforts de calculs sans âme sont tributaires et/ou auront besoin d’une intervention et d’un
contrôle humains. Et bien souvent, une intervention humaine signifie une réglementation. Atte
Jääskeläinen présente dans sa contribution à cette publication les principes qui devraient selon
lui être retenus pour une réglementation de l’IA. Comme mentionné plus haut, la transparence
constitue dans ce contexte le principe le plus fondamental, puisqu’elle « sert les besoins humains
pour donner un sens au fonctionnement des systèmes et confier des responsabilités aux bonnes
personnes ». Selon Jääskeläinen, nous devrions néanmoins accepter que « des risques inconnus
puissent être impossibles à réglementer, du moins si la réglementation est basée sur la
technologie et non sur des objectifs « . De plus, la réglementation de l’IA devrait « réduire le
risque public sans détruire la créativité et l’innovation, et les obstacles inutiles à l’utilisation des
données pour faire le bien et créer du bien-être » devraient être éliminés.
Page 181
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
8.1. Introduction
Un logiciel repère le ballon et les joueurs dans l’image d’un match de football et effectue un
zoom sur l’endroit où se déroule l’action. Et comme l’image des caméras est très nette, le
« réalisateur virtuel », un ordinateur qui s’appuie sur des algorithmes d’apprentissage
automatique, est en mesure de proposer un match entier avec plusieurs angles de caméra -
sans intervention humaine. L’objectif de la KNVB, la fédération néerlandaise de football, et
de la société de médias néerlandaise Talpa est de diffuser 80 000 matchs de football
amateur en direct chaque année, sans aucune intervention humaine.
Un logiciel analyse votre comportement dans les médias sociaux et peut identifier votre
personnalité sur la base du modèle psychologique largement utilisé, Big 5, atteignant la
même précision que celle obtenue en complétant un questionnaire avec des informations
sur quelque 200 likes de Facebook. Le résultat : un système qui pourrait être utilisé pour
influencer les élections en adressant les messages politiques aux personnes les plus
susceptibles d’être convaincues par un certain style de publicité personnalisée.
736
Atte Jääskeläinen est professeur de pratique à l’Université LUT, en Finlande, et chercheur invité à la LSE, à
Londres. Il a été directeur de l’information et des affaires courantes de la société de radiodiffusion finlandaise
de 2006 à 2017 et PDG de l’agence de presse finlandaise de 2004 à 2006. Il est co-auteur avec Maike Olij du
rapport d’actualités de l’UER 2019 « The Next Newsroom. Unlocking the Power of AI for Public Service
Journalism ».
Page 183
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
Un logiciel développé par la société suisse Largo prédit, à partir d’un premier scénario, la
réaction du public, pays par pays. Sur la base de cette analyse, les spécialistes des données
indiquent quelles parties du scénario devraient être modifiées pour augmenter l’attrait
commercial d’un film et maximiser les revenus générés.
Tous ces exemples concrets montrent comment l’intelligence artificielle affecte déjà
l’industrie audiovisuelle ou son environnement de manière stratégique : la production
audiovisuelle peut être largement automatisée ; le comportement du public peut être
analysé comme jamais auparavant ; ces informations peuvent être utilisées à la fois pour
optimiser la valeur que les clients tirent du marché, mais aussi pour guider le travail créatif
et journalistique et l’utiliser dans les processus démocratiques - parfois d’une manière
considérée comme incompatible avec la démocratie.
Pour certains, cette évolution conduira l’humanité à une catastrophe, si elle n’est
pas correctement réglementée. Comme l’a écrit l’Amu Webb de l’Institut Future Today en
2019 : « Le manque de nuance est une partie du problème de la genèse de l’IA : certains
surestiment considérablement l’applicabilité de l’IA dans leur milieu professionnel, tandis
que d’autres voient en elle une arme imparable »737.
La réglementation de l’IA, en particulier dans les domaines qui concernent
l’industrie audiovisuelle, est une question complexe sans réponse claire. Cette complexité
affecte la prise de décision sur le terrain. Pour les autorités et les politiciens, le domaine de
l’IA est difficile à cerner, car le concept de l’IA est flou et la cible évolue rapidement : lorsque
l’on pense l’avoir enfin saisie, de nouvelles formes ont déjà vu le jour. La réglementation
est un processus réactif et, dans un domaine qui évolue rapidement, elle devient souvent
obsolète avant de pouvoir être appliquée738.
Certains des exemples d’IA donnent l’impression que les ordinateurs créent quelque
chose de presque magique. En général, cette illusion repose simplement sur l’utilisation de
mathématiques intelligentes rendue possible par les énormes ressources de calcul
disponibles grâce à l’informatique en nuage et aux télécommunications rapides. Ce qui
apparaît comme de la créativité est simplement l’absence de préjugés qui limitent la
pensée humaine, combinée à la capacité de vérifier et de produire toutes les alternatives,
y compris celles que les humains n’envisageraient pas même lorsqu’ils sont appelés à
penser hors des sentiers battus.
Les auteurs d’un livre récent sur « l’économie simple » de l’IA prédictive expliquent :
« Toutes les activités humaines peuvent être décrites par cinq composantes de haut niveau :
les données, la prédiction, le jugement, l’action et les résultats. À mesure que l’intelligence
des machines s’améliorera, la valeur des compétences humaines en matière de prédiction
diminuera, car la prédiction des machines constituera un substitut moins coûteux et plus
737
Webb A., « The big nine before it’s too late », WMG Weekly,
https://www.wmgweekly.com/post/2019/06/08/the-big-ninebefore-it-s-too-late.
738
Petit N., « Law and regulation of artificial intelligence and robots - Conceptual framework and normative
implications », https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2931339.
Page 184
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
739
Agrawal A., Gans J. et Goldfarb A., « Prediction machines: The simple economics of artificial intelligence »,
Harvard Business Press.
740
OCDE, L’avenir du travail. Perspectives de l’emploi de l’OCDE 2019. Faits marquants, https://www.oecd-
ilibrary.org/fr/employment/perspectives-de-l-emploi-de-l-ocde-2019_b7e9e205-fr.
741
Coddington M., Clarifying journalism’s quantitative turn, Digital Journalism, Routledge, 3(3), pp. 331–348.
Milosavljević M. et Vobič I., ‘Our task is to demystify fears’: Analysing newsroom management of automation in
journalism, Journalism, SAGE Publications,
https://journals.sagepub.com/doi/abs/10.1177/1464884919861598?journalCode=joua.
742
Lewis S. C., Guzman A. L. et Schmidt T. R., Automation, journalism, and human–machine communication:
Rethinking roles and relationships of humans and machines in news, Digital Journalism, Routledge, 7(4), pp. 409–
427.
743
Jääskeläinen A. et Olij M., « The next newsroom: Unlocking the power of AI for public service journalism »,
Union européenne de radio-télévision, https://www.ebu.ch/publications/news-report-2019.
744
https://futuretodayinstitute.com/trend/artificial-intelligence/.
Page 185
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
Page 186
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
745
Voir, par exemple, Joshi N., et al. « How far are we from achieving artificial general intelligence? »,
https://www.forbes.com/sites/cognitiveworld/2019/06/10/how-far-are-we-from-achieving-artificial-general-
intelligence/#5ebe24f06dc4 et
Fjelland R., « Why general artificial intelligence will not be realized »,
https://www.nature.com/articles/s41599-020-0494-4.
Page 187
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
il ne serait ni sage ni efficace d’appliquer les mêmes règles aux traductions automatiques,
aux voitures autonomes, aux données à caractère personnel sensibles et aux technologies
avancées de caméras, pour ne citer que quelques-uns de ces domaines d’application.
Comment aborder alors cette question ? Premièrement, nous devrions essayer de
mieux comprendre les conséquences des différents usages de l’IA dans les industries
audiovisuelles. Comme elles varient sensiblement, même une catégorisation grossière aide
à comprendre les valeurs qui devraient être protégées par la réglementation.
En l’absence d’une meilleure catégorisation, plus sophistiquée, on peut utiliser ici
une catégorisation employée dans le rapport pour l’Union européenne de radio-télévision
sur la façon d’utiliser l’IA dans le journalisme de service public, « The Next Newsroom »746,
qui pourrait servir de cadre de base pour comprendre la pertinence stratégique des
différents types de technologies d’IA pour l’industrie audiovisuelle.
Premièrement, l’intelligence artificielle peut être considérée comme un ensemble
grandissant d’outils pratiques. Il s’agit de l’IA à un niveau purement opérationnel, visant
principalement à automatiser les tâches répétitives et à réduire les coûts.
Par exemple, les solutions comprenant des systèmes d’IA pour les tâches de
montage et de gestion des médias sont nombreuses, et leur adoption progresse rapidement.
Les outils utilisés pour la transcription et la traduction, et pour la détection de matériel
spécifique dans les archives, permettent de réutiliser le matériel plus facilement et plus
rapidement, et modifient la logique de création de valeur dans la production. Par exemple,
Deutsche Welle utilise un traitement linguistique basé sur l’IA pour que la salle de rédaction
puisse suivre en temps réel ce qui se passe dans ses services d’information dans plusieurs
langues. Swiss Broadcasting est l’une des sociétés qui a développé des systèmes avancés
pour détecter les personnes et les lieux dans les archives vidéo747.
Le radiodiffuseur irlandais RTE et Al Jazeera ont même collaboré pour créer un
système qui mesure le temps d’antenne des hommes politiques pendant les campagnes
électorales et signale les contenus susceptibles de poser un problème de réglementation.
Le système est basé sur une méthode avancée de détection non seulement des objets et
des personnes dans les images, mais aussi de leur contexte748.
On peut raisonnablement se poser les questions suivantes : Y a-t-il quelque chose
de spécial dans ces outils qui nécessite une réglementation spécifique ? Ou suffit-il
simplement que ces outils soient utilisés de manière responsable ? Après tout, il ne s’agit
que d’outils et de technologies qui nous aident à accomplir notre travail.
Deuxièmement, l’IA rend possible la création d’une culture sachant analyser les
données, qui repose sur la définition et la connaissance de vos objectifs et l’apprentissage
de moyens de mesure et d’optimisation, basés sur ces objectifs. Cela permet également une
utilisation très stratégique de l’IA : ciblage des messages et optimisation de la valeur pour
746
Jääskeläinen A. et Olij M., op.cit.
747
Rezzonico P., « Artificial intelligence at the service of the RTS audiovisual archives », FIAT/IFTA,
http://fiatifta.org/index.php/artificial-intelligence-at-the-service-of-the-rts-audiovisual-archives/
748
TM Forum, « AI indexing for regulatory practice », https://www.tmforum.org/ai-indexing-regulatory-practise.
Page 188
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
749
Cibrián E. et al. « Artificial intelligence and machine learning for commercial analysis in the audiovisual
sector: A case study of designing TV schedules », http://www.kr.inf.uc3m.es/artificial-intelligence-and-machine-
learning-for-commercial-analysis-in-the-audiovisual-sector-a-case-study-of-designing-tv-schedules/.
Page 189
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
750
Petit N., op.cit.
Page 190
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
pas être relativisé et transféré à la technologie. Les machines ne peuvent pas assumer les
positions morales des humains ni hériter de la dignité humaine. Toutes nos institutions
morales et juridiques sont fondées sur l’idée que l’être humain assume des responsabilités
morales : il doit rendre des comptes, s’acquitter de ses devoirs ou encore peut être tenu
pour responsable751.
751
Groupe européen d’éthique des sciences et des nouvelles technologies, « Déclaration sur L’intelligence
artificielle, la robotique et les systèmes “autonomes” », Commission européenne, Direction générale de la
recherche et de l’innovation, http://ec.europa.eu/research/ege/pdf/ege_ai_statement_2018_fr.pdf.
752
La Torre M., « Defining the audiovisual industry », in La Torre M. (éd.) The economics of the audiovisual
industry: Financing TV, film and web. Palgrave Macmillan UK, pp. 16–34.
Page 191
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
comme base de la société et l’utilisation de toutes les technologies dans le but d’avoir un
impact positif sur la vie753.
Parmi les autres recommandations, citons le développement par étapes des
systèmes et leur test en laboratoire avant de les lancer en production, ainsi que la
prévention des manipulations par des interventions extérieures. La promotion du bien
social est souvent réussie lorsque les utilisateurs sont impliqués dans la conception des
systèmes, que l’autonomie de l’utilisateur est respectée et sert de base à la conception du
système, et que l’utilisateur a la possibilité de donner un sens et une signification aux
systèmes et à leurs résultats.
753
Taddeo M., « Trusting digital technologies correctly », Minds and Machines, 27(4), 565–568. Taddeo M.,
Floridi, L., « The case for e-trust », Ethics and Information Technology, 13(1), 1-3.
754
Gurkaynak G., Yilmaz I. et Haksever G., « Stifling artificial intelligence: Human perils », Computer Law &
Security Review, 32(5), pp. 749–758.
Page 192
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
artificielle générale imaginée avec une volonté propre. Cette capacité à agir
indépendamment des humains et la construction en partie fictive d’une intelligence de type
humain sont à la base des prédictions d’apocalypse et sous-tendent les appels à une
réglementation spécifique de l’IA.
Si la réglementation est souvent considérée comme nécessaire pour gérer les
risques et prévenir les préjudices, dans le cas des industries audiovisuelles, elle pourrait
également être envisagée sous un autre angle éthique : nous avons l’obligation morale et
éthique de faire le bien ; comment pouvons-nous encourager le bon usage de l’IA de
manière responsable, et comment la réglementation pourrait-elle créer un environnement
qui favorise la créativité et l’innovation, en somme : une vie européenne plus riche et la
prospérité économique ?.
La réglementation est généralement établie lorsqu’il y a un problème à résoudre.
Mais nous ne pouvons perdre quelque chose que si nous l’avons d’abord gagné.
755
Buiten M. C., « Towards Intelligent Regulation of Artificial Intelligence ». European Journal of Risk Regulation.
10 (1): 41–59, https://www.cambridge.org/core/journals/european-journal-of-risk-regulation/article/towards-
intelligent-regulation-of-artificial-intelligence/AF1AD1940B70DB88D2B24202EE933F1B.
756
Scherer M. U., « Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies ».
Harvard Journal of Law & Technology, Vol. 29, No. 2, Spring 2016, p. 364,
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2609777.
Page 193
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
757
Huber P., « Safety and the second best: The hazards of public risk management in the courts », Columbia Law
Review, 85(2), pp. 277–337.
758
Feeny D. et al., « The tragedy of the commons: Twenty-two years later », Human ecology, 18(1), pp. 1–19.
Hardin G., « The tragedy of the commons », Journal of Natural Resources Policy Research. Taylor & Francis, 1(3),
pp. 243–253.
Stavins R. N., « The problem of the commons: Still unsettled after 100 years », The American economic review,
101(1), pp. 81–108.
759
Voir les chapitres 1, 2 et 3 de cette publication.
Page 194
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
pour quelque chose qui pourrait en fait avoir une valeur sociétale : révéler à quel point les
décisions prises par les humains jusqu’à présent sont biaisées. Nous devrions plutôt saluer
les systèmes, car ils nous font davantage prendre conscience de nos valeurs – en veillant,
bien sûr, à ce que des décisions non éthiques ne soient pas appliquées dans la pratique
avant que les tests ne soient effectués et les résultats analysés.
760
Petit N., op.cit.
761
Scherer M. U., op.cit., p. 364.
Page 195
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
762
Voir le chapitre 1 de cette publication.
763
Buiten M. C., op.cit.
764
Scherer M. U., op.cit.
765
Buiten M. C., op.cit.
766
Leonelli S., « Locating ethics in data science: Responsibility and accountability in global and distributed
knowledge production systems », Philosophical transactions. Series A, Mathematical, physical, and engineering
sciences, 374(2083), https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5124067/.
Page 196
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
767
Petit N., op.cit.
768
Edelman R. D., « Here's how to regulate artificial intelligence properly »,
https://www.post-gazette.com/opinion/Op-Ed/2020/01/14/R-David-Edelman-Here-s-how-to-regulate-
artificial-intelligence-properly/stories/202001140013.
769
Voir le chapitre 2 de cette publication.
Page 197
L'INTELLIGENCE ARTIFICIELLE DANS LE SECTEUR AUDIOVISUEL
Remarques finales
770
https://quoteinvestigator.com/2015/07/23/great-power/
Page 199