Exposé présenté le 21 mars 2013 dans le cadre du colloque « e-réputation et traces
numériques : dimensions instrumentales et enjeux de société » qui eut lieu à Toulouse.
À l’heure des big data, où tous les comportements dans les espaces numériques
génèrent des pétabytes de données qui sont par défaut récoltés (dataveillance) et
stockés dans d’immenses bases de données (datawarehousing) afin de pouvoir être
traités (datamining) par des algorithmes et de générer des profils qui seront ensuite
assignés aux différents individus afin de leur suggérer l’environnement qui est le plus
pertinent pour eux, nous retrouvons-nous enfermés dans des bulles et des destins
identitaires ? S’il est du propre de l’écriture (numérique) de permettre une
discrétisation du flux de parole dans un espace bidimensionnel ou algorithmique,
c’est-à-dire si elle induit une spatialisation du temps, peut-on encore parler de trace
puisque ce concept renvoie par définition à l’absence et au devenir, à l’ouverture du
temps et du commun ? S’il n’y a pas de « traces numériques » dans les big data, les
données numériques peuvent-elles en revanche faire trace, c’est-à-dire mettre en
relation des devenirs plutôt que de figer des atomes dans l’espace de leurs bulles ?
Et s’il n’y avait pas de traces numériques ?
A l’occasion d’une réflexion sur l’e-réputation, je souhaite poser une question :
est-ce qu’il y a de la trace dans les données numériques ? Cette question repose sur
une distinction que je propose entre trace et donnée numérique, parce qu’elle permet
un travail sur le concept de temps, en tant qu’il se trouve engagé aussi bien dans le
numérique que dans la réputation. En effet, dans la mesure où la réputation se propage
et se transmet, est-il possible d’en parler sans présupposer une forme de durée ? Et
cette durée, n’est est-elle pas impactée par le numérique comme support et comme
technique ? C’est donc à partir de l’e-réputation que je souhaite activer le levier
permettant d’articuler numérique et temporalité autour du concept de trace.
Dans un premier mouvement, j’exposerai rapidement et dans les grandes lignes ce
que l’on peut entendre par big data afin de comprendre en quel sens on pourrait dire
que « trace » et « numérique » sont contradictoires dans les termes : la première
renvoyant à un rapport au temps et à l’absence (Derrida, 1962 ; Stiegler, 1994); le
second, à une pure présence. Ce constat suivant lequel il n’y aurait pas de « traces
numériques » me semble être implicitement à l’œuvre dans plusieurs critiques
adressées à notre « société de traçabilité », mais peut-on s’en satisfaire ? S’il n’y a pas
de traces numériques, il y a peut-être de la trace dans les données numériques. C’est
ce que je souhaite explorer dans un second temps et à l’aide de la notion d’eréputation.
Big data et effets de personnalisation
À l’heure où les cartes de fidélité cueillent des données à même nos
comportements, où nos GPS et smartphones signent nos déplacements pendant que des
vaches produisent plusieurs centaines de Mo de données par an lorsqu’elles sont
dotées de capteurs renseignant leur éleveur quant à leur santé et habitudes, à l’heure
où toutes nos actions dans les espaces numériques génèrent des données, où les puces
RFID permettent un traçage des marchandises, l’on ne cesse d’entendre parler de
« société de traçabilité » et de « traces numériques » ou encore de big data. Si en
1
francophonie, l’on parle plutôt de « traces », dans le monde anglo-saxon – à
l’exception de textes d’auteurs français traduits en anglais – c’est la notion de data, de
« donnée » qui est d’usage. Encore que « big data » ne cesse de se répandre en
contexte francophone. Mais qu’entendre par big data ?
Avant tout, il ne s’agit pas seulement de « lots of data » car la taille des bases de
données en jeu dépasse largement ce qui pouvait habituellement être traité par des
outils typiques d’analyse et de stockage. Tellement largement qu’à un moment donné,
le saut n’est plus seulement quantitatif. Ensuite, on peut repérer trois étapes dans les
big data, qui ne cessent de s’entremêler (Berns et Rouvroy, 2010) et qui permettent
d’en saisir la logique. D’abord, chaque interaction avec l’environnement numérique
génère des données qui sont récoltées par défaut et stockées dans d’immenses bases
de données. On pourrait ainsi constater une forme de renversement anthropologique
dans la mesure où il semblerait qu’il a toujours été plus coûteux pour l’être humain de
retenir et mémoriser que d’oublier. Du moins, tout notre système juridique repose sur
le fait que l’oubli existe (présomption d’innocence, etc.) Dans les environnements
numériques, par exemple sur Internet, chaque action est une interaction avec le milieu
qui peut produire une donnée – et qui, la plupart du temps (il suffit d’un robot) en
produit une. Ainsi, le simple fait de lire une page web peut être compris comme une
forme d’écriture : le temps que je passe sur la page, ce sur quoi je clique ensuite,
comment j’y suis arrivé sont autant de gestes qui produisent des « traces » de mon
activité. Je me permets ici des guillemets afin de ne pas confondre ces ensembles de
logs et d’enregistrements automatiques avec les traces telles que cherche à les définir
et à les prendre au sérieux une ingénierie de la trace (Mille et al., 2007). On assiste
donc à un phénomène que certains appellent « digitalisation de la vie elle-même »,
« biométrisation du réel » ou encore « dataveillance » (Berns et Rouvroy, 2010).
Dans un second temps, ces données sont traitées, de manière plus ou moins
automatisée. D’ailleurs, un esprit humain tout seul serait incapable de traiter autant de
variables. Des algorithmes sont donc appliqués de façon à « faire émerger » des
corrélations depuis cet agglomérat de données qui en tant que tel ne permet rien. La
donnée (la « data » de « big data ») est donc une sorte de matériau brut, de la matière
première qui ne prendrait sens qu’à partir du moment où elle est utilisée et interprétée.
La connaissance semble ainsi émerger du réel – mis en données – comme une
trouvaille (Anderson, 2008 ; van Otterlo, 2011), une trouvaille qui ne nécessiterait, et
c’est bien sûr critiquable, aucune hypothèse humaine au préalable. Dans cette
perspective, le travail des algorithmes suffit pour trouver des corrélations qui elles
aussi suffisent.
Une fois récoltées puis traitées, les données révèlent des corrélations qui peuvent –
et c’est la troisième étape – définir des profils. Il s’agit d’inférer des caractéristiques
inobservables, actuelles ou futures, à partir de caractéristiques observables chez un
individu. Un profil assigne donc les mêmes prédictions comportementales à tous ceux
qui présentent un certain nombre d’éléments propres au profil en question. Les usages
du profilage sont multiples : prévention des risques en identifiant les comportements
(potentiellement) suspects, configuration d’environnements de façon à ce qu’ils
correspondent aux différents individus, pratiques de marketing, publicité ciblée, etc.
C’est donc sur base de corrélations statistiques produites à partir de la récolte massive
et automatisée de données que des structures de comportements peuvent être dégagées
puis appliquées. Les moteurs de recommandation, comme celui d’Amazon, reposent
sur de telles pratiques de profilage lorsqu’ils nous proposent les livres qui pourraient
nous plaire, s’appuyant sur nos différentes navigations ainsi que sur diverses
2
informations cueillies à mêmes les comportements d’autres internautes. De même en
va-t-il de la personnalisation de l’information qu’opère l’algorithme de Google. Les
réponses à nos requêtes ne sont par exemple pas les mêmes suivant où l’on se trouve
dans le monde et qui l’on est. Les algorithmes apprennent en effet rapidement à savoir
si l’on se comporte plutôt comme un homme ou une femme, un hétérosexuel ou un
homosexuel, un jeune ou un vieux, autant de « catégories » qui ne servent pas à nous
normer de l’extérieur et qui ne nous préexistent pas, mais qui émergent de nos
comportements eux-mêmes. Du réel lui-même (Berns, 2009).
En raison de ces pratiques de profilage, aussi connues sous le nom de mass
personalization, certains ont pu penser des droits visant à nous protéger d’un « destin
identitaire » (Berns et Rouvroy, 2010) ou encore sonner l’alarme à propos de
« bulles » dans lesquelles nous serions enfermés (Pariser, 2011). En effet, si les livres
qu’on me propose, les amis qu’on me présente, l’information qu’on me montre ne
sont que l’expression de l’anticipation de ce que je pourrais être, à partir de ce que j’ai
été, est-ce que je ne me retrouve pas coupé de l’altérité, du hasard, et même de la
liberté en tant qu’invention, bref de tout ce qui ne me correspond pas et ce à quoi je ne
pourrais pas m’attendre ? N’y aurait-il pas une réduction du possible dans ce qu’il a
de libre et de créateur à un espace de probabilités dans ce qu’elles ont de calculable ?
Je considère que ces critiques, bien que très différentes quant à leur rigueur, leur
intelligence et leur intérêt, se rejoignent sur un point : elles se cristallisent autour du
danger qu’il pourrait y avoir avec ce que je me permets de ramener sous le
phénomène big data – à savoir la gouvernementalité algorithmique pour Thomas
Berns et Antoinette Rouvroy et, en gros, Internet pour Eli Pariser – d’une évacuation
du devenir (Deleuze et Guattari, 1980). Une évacuation du devenir, c’est-à-dire : du
temps comme invention, comme durée au sens de Bergson, comme trace au sens de
Derrida et même comme relation. Elles se cristallisent non pas sur les dangers liés au
développement massif des traces numériques, mais plutôt – c’est mon hypothèse – sur
le fait que précisément, il n’y a pas de traces numériques.
La pure présence de la donnée numérique
Si la trace renvoie par essence au temps en tant qu’il excède le pur présent
(Derrida), les pratiques de profilage reposent quant à elles sur une compression du
temps dans un espace de distribution du « possible ». Mais peut-être n’est-ce là que
l’expression du propre de l’écriture, c’est-à-dire d’une raison graphique (Goody,
1979) poussée à l’extrême en devenant raison computationnelle (Bachimont, 2010) ?
Avant d’aborder le concept de trace chez Derrida afin de saisir en quel sens il pourrait
entrer en résistance avec le « numérique », et de se demande in fine si ce n’est pas un
faux procès à l’aide d’une réflexion sur le caractère constitutif de la technique,
tâchons d’abord de comprendre le mode d’existence du temps dans les pratiques de
profilage propres aux big data, à ce réel tout algorithmique.
Comment comprendre que les pratiques de profilage et de personnalisation des
environnements et de l’information reposent sur un écrasement du temps dans
l’espace d’une pure présence ? Sur base de mes clics et navigations passés – qui ont
généré des données numériques – et de leurs interconnexions avec d’autres données
constituées à partir des comportements d’autres individus, les algorithmes (de
recommandation, de recherche, etc.) permettent que me soient présenté ce qui
pourrait m’intéresser. Google peut ainsi par exemple me proposer le mot que je
3
pourrais chercher dès que je pose ne serait-ce que les premières lettres du mot en
question. Il va même jusqu’à me proposer ce qui pourrait m’intéresser avant que je ne
l’aie explicitement formulé, comme c’est le cas avec le knowledge graph. Et comme
cela sera sans doute le cas à l’avenir avec d’autres fonctionnalités au centre de la
stratégie d’Eric Schmidt, CEO de Google, qui aimerait faire de son moteur de
recherches un serendipity engine, capable de savoir pour nous ce qui nous intéresse
avant même que nous en ayons non seulement exprimé le désir mais avant même que
nous ne le sachions (Siegler, 2010).
Ainsi, ce que je pourrais, le futur des actes que je peux poser, est calculé à partir
de ce que j’ai été dans le passé. Et ce que j’ai été dans le passé se trouve retenu dans
une permanence qui dure jusqu’au présent sous la forme de données numériques
(raison pour laquelle, d’ailleurs, elles posent la question de leur oubli). On se retrouve
donc dans une forme de présent élargi, où le passé est maintenu sous forme de donnée
dans une permanence qui dure jusqu’au présent afin d’éclairer un futur qui est abordé
en termes de probabilités à partir de l’espace d’un calcul. Quel peut être cet « avenir »
à partir du moment où il est anticipé ? Plutôt que de l’avenir, ne serait-il pas question
de futur antérieur (Sartre, 1970 ; Bergson, 1985), de passé qui se réalisera ? Dans ce
réel algorithmique des big data, ce qui existe, ce n’est pas tant l’avenir que le
probable tenu en éventail à partir d’un point de présence. Le présent algorithmique est
le carrefour, l’aiguillage duquel partent les multiples rails du probable. Un probable
pour ainsi dire organique, qui intègre les changements, afin de se redéployer selon de
nouvelles distributions. Que j’ajoute une lettre, moins attendue (parce que moins
statistiquement probable), au mot posé dans ma barre de recherche et voilà que ce que
je pourrais chercher se présente à moi avec de nouvelles propositions. Et même, que
j’adopte, en tant que « femme », des comportements à première vue inexplicables du
point de vue du profil « femme », et voilà que l’algorithme va soit apprendre à donner
à certains de mes comportements une pondération plus légère dans la construction de
la catégorie « femme » ou alors envisager mon changement de sexe. Quoi qu’il en
soit, ce serait toujours la distance qui sépare mon présent de mon probable qui se
trouverait réduite, et je ne ferais que devenir ce que j’aurais pu être. Le passé se
vérifierait dans le futur, le possible serait ramené à du probable calculé et le passé
deviendrait une rétention aveugle et décontextualisée (Merzeau, 2011) plutôt qu’une
inscription, une trace.
Finalement, ne serait-ce pas le temps comme flux (Bergson, 1984) ou comme
absence (Derrida, 1972) qui serait devenu impossible dans le réel algorithmique des
big data et les pratiques de mass personalization qu’elles déploient ? Si le passé est
retenu dans le présent et l’avenir anticipé à partir du présent, y’a-t-il autre chose qu’un
pur « présentisme » (Hartog, 2003 ; Guéguen, 2012), c’est-à-dire un règne du présent
qui exclut non seulement toute possibilité de passé (donc de mémoire) et de futur en
tant que transformation ? N’est-ce pas aussi cette « prison du présent » que
questionnent l’e-réputation et le droit à l’oubli ? Or, c’est précisément pour contrer
cette métaphysique de la pure présence que Derrida a fabriqué son concept de trace.
Une métaphysique de la pure présence que l’on retrouve au centre du geste de
Bergson lorsqu’il cherche à lutter contre la tendance à la suppression du temps dans la
métaphysique occidentale. C’est donc avec ces deux philosophes français qui ont
largement influencé la philosophie contemporaine qu’en abordant les big data l’on
peut critiquer la notion de « trace numérique », non pas pour elle-même mais pour
réussir à poser le problème de la digitalisation massive du monde en des termes qui
permettent d’ouvrir les questions plutôt que de clore les débats.
4
Le temps de la trace et de la durée
La trace, au sens de Derrida, est ce qui résiste à toute métaphysique de la pure
présence. On ne peut pas, écrit-il, penser la trace « à partir du présent, ou de la
présence du présent. » (Derrida, 1972 : 22) La trace, ajoute-t-il, ne se rapporte « pas
moins à ce qu’on appelle le futur qu’à ce qu’on appelle le passé » (Derrida, 1972 :
13), elle constitue ce qu’on appelle le présent « par ce rapport même à ce qui n’est pas
lui : absolument pas lui, c’est-à-dire pas même un passé ou un futur comme présents
modifiés. » Par définition, donc, la trace telle que l’entend Derrida ne rejoint pas le
sens des données numériques (big data) puisque la première renvoie toute entière à
l’absence, au temps en tant qu’il se conjugue sur le mode de l’absence, là où les
secondes font signe vers une omniprésence du présent.
Avant de revenir sur le caractère constitutif de la trace et pour continuer sur la
question du temps et surtout du devenir, j’aimerais montrer en quel sens on pourrait
rapprocher les travaux de Bergson sur la durée de ceux de Derrida sur la trace. Cela
devrait permettre de comprendre la profondeur du sens que l’on peut donner au
concept de trace et de saisir en quoi il n’y a peut-être pas de « trace numérique » mais
aussi, peut-être, en quoi les données numériques peuvent faire trace. L’intérêt d’un tel
travail réside pour moi dans une proposition : arrêtons de reprocher aux big data de ne
pas être des traces numériques et intéressons-nous à la question de savoir si les
données numériques peuvent faire trace et comment. Une proposition dont n’ont
d’ailleurs eu besoin, pour la mettre en pratique, ni les ingénieurs des connaissances et
de la trace (Mill, Bachimont), ni les professionnels et amateurs de l’e-réputation.
Si Derrida a pu entrer en résistance avec la métaphysique de la pure présence, on
peut – avec Deleuze (1966 : 53) – apprendre de Bergson que « Nous avons trop
l’habitude de penser en termes de « présent ». » Pour lui, entre le passé et le présent, il
doit y avoir une différence de nature, non simplement de degré. « Si nous avons tant
de difficulté à penser une survivance en soi du passé, c’est que nous croyons que le
passé n’est plus, qu’il a cessé d’être. Nous confondons alors l’Être avec l’Êtreprésent. Pourtant le présent n’est pas, il serait plutôt pur devenir, toujours hors de
soi. » (Deleuze, 1966 : 49) Bergson aussi bien que Derrida ont cherché à penser le
passé en termes de survivance, une survivance qui a un effet sur le présent, qui le
texture, mais qui, pour ne pas le déterminer, doit s’exprimer dans un autre registre : la
trace pour Derrida, la mémoire comme durée pour Bergson. Or, cette détermination
du présent par le passé ou du futur par le présent, qu’évitent la trace et la durée, est au
cœur des critiques à l’égard des big data qui, selon elles, nous couperaient de tout
devenir, de tout avenir comme incalculable. Je propose donc, pour cette raison, que
l’on parle de données et non de traces dans ce cas-là.
L’intérêt des travaux de Bergson pour aborder les « traces numériques » – et de
Derrida – réside dans le fait que le passé et la mémoire se retrouvent dans le présent
mais sans le déterminer. La mémoire, pour Bergson, est « conservation et
accumulation du passé dans le présent. » (Bergson, 1919 : 818,5) Le présent renferme
l’image sans cesse grandissante du passé « il témoigne, par son continuel changement
de qualité, de la charge toujours plus lourde qu’on traîne derrière soi à mesure qu’on
vieillit davantage ». (Bergson, 1934 : 1411, 201) Il y a prolongation dans le présent
d’un passé indestructible (Bergson, 1934 : 1315, 80). Qui ouvre le devenir. A mesure
que le passé gonfle, le présent bouge. Loin de déterminer le présent, le passé l’ouvre.
Pour cette raison, l’avenir ne peut être anticipé puisque c’est seulement après coup
5
que l’on peut dire qu’il a été possible. Il faut comprendre que pour que passé et
présent puissent agir l’un en l’autre, ils doivent ne pas se succéder, mais coexister.
L’un est le présent, qui ne cesse de passer ; l’autre est le passé, qui ne cesse pas d’être,
mais par lequel tous les présents passent (Deleuze, 1966 : 54). Passé et présent sont
contemporains, tout notre passé coexiste avec chaque présent. Coexistence, plutôt que
succession, telle est la définition de la durée au sens de Bergson. Coexistence mais
non pas simultanéité ni juxtaposition. Parce qu’entre passé et présent, on est dans le
registre de l’autre, du changement de nature et non pas du plusieurs, du changement
de degré.
L’écriture numérique comme spatialisation du temps ?
Entre passé et présent, c’est un leitmotiv bergsonien, il doit nécessairement y avoir
une différence de nature et non de degré pour entrer dans le registre du temps et de la
durée plutôt que dans celui de l’espace. C’est toute la critique du philosophe à l’égard
de la science moderne qui n’a selon lui cessé de spatialiser le temps. L’astronomie de
Kepler et Galilée, en tant qu’elle repose sur le mécanisme, n’a en effet pas décrit le
mouvement en tant que tel, mais a permis de calculer les positions successives d’un
mobile dans l’espace. Plutôt que de durée, c’est surtout de calcul de trajectoire dont il
est question : c’est-à-dire de calcul d’une série de positions simultanées qu’un mobile
peut parcourir. Le temps du physicien est donc un temps spatial, qui s’intéresse aux
rapports entre différents points. Un temps de l’instant. Un temps qui n’a plus
d’efficace, « qui ne mord plus sur les choses » mais qui est figé dans l’espace d’un
instant, juxtaposant différentes positions. Un astre peut changer de position ou encore
de dimension, mais à chaque fois il n’est question que différences de degré, non de
nature. En changeant de position, il ne change pas de nature. Un astre n’a ainsi pas de
durée, il est à chaque fois et successivement un instantané. En ce sens, il est coupé de
tout devenir, si l’on comprend par devenir le mouvement, le changement de nature
dans la durée, le procès.
Mais cette spatialisation du temps ne peut pas être comprise indépendamment de
l’existence de l’écriture comme technique (Goody, 1979 ; Auroux, 1995). Dans la
perspective suivant laquelle la technique est constitutive pour la cognition humaine
(Goody, 1979), l’apparition de l’écriture a permis le développement d’un rationalité
particulière : la raison graphique et ses trois types principaux de structures
conceptuelles qui conditionnent nos modes de pensée à savoir la liste, le tableau et la
formule. L’écriture, en tant qu’elle permet de transcrire et fixer la parole, de
discrétiser le flux sonore en unités manipulables que sont les lettres, génère une
délinéarisation du flux temporel, le projetant sur une structure spatiale à deux
dimensions (papier, tablette, etc.) Ce qui est dispersé dans le discours peut ainsi être
ramené sous une même unité, la liste, qui va quant à elle développer les tendances à la
catégorisation et au classement. Elle permet le passage du temporel au spatial et le
tableau est simplement une liste à deux dimensions, devenant par là même
absolument impossible à verbaliser. Lire un tableau ligne par ligne ou colonne par
colonne ferait perdre la simultanéité, la vision synoptique pourtant permise par lui
(Bachimont, 2010). Quant à la formule, elle permet de mener des raisonnements en
fonction de la forme uniquement, sans avoir besoin de prêter attention à la
signification. Ainsi naissent les langages formels qui ne peuvent d’ailleurs plus être
parlés. C’est donc l’écriture elle-même, comme technique, qui opère une
spatialisation du temps et le déploiement d’une pensée systématique. Sans écriture,
6
Kepler et Galilée auraient-ils pu calculer la trajectoire des astres et la concevoir
comme une suite de positions, c’est-à-dire des instantanés successifs ?
Mais alors, si l’informatique est un langage formel précisément rendu possible par
l’écriture comme technique, est-ce vraiment surprenant d’assister – avec les big data
– à un phénomène de spatialisation du temps, de réduction du temps à l’espace d’une
pure présence ? Critiquer la réduction de tout devenir à un présentisme telle qu’elle
est opérée par les big data ne serait-ce pas une façon de ne tenir compte que d’un seul
aspect de l’écriture et de mettre de côté le fait que l’écriture peut également faire
trace, c’est-à-dire nous mettre en relation avec un passé que nous n’avons pas vécu et
avec la communauté des autres êtres humains ? Ne s’agirait-il pas in fine de
condamner les big data pour ce qu’elles sont, à savoir filles d’une certaine technique :
l’écriture ? Si les problèmes ont toujours les solutions qu’ils méritent en fonction de la
manière dont on les pose (Deleuze, 1966 : 5), il s’agit d’être particulièrement
vigilants. Est-ce que nous voulons nous intéresser à ce monde où l’on court sans cesse
le risque d’être coupé de tout devenir en mettant l’accent sur la façon dont les traces
sont réduites à des données ou est-ce que nous voulons nous intéresser à la façon dont
les données peuvent faire trace, c’est-à-dire à la façon dont nous composons ensemble
un monde commun ? Demander s’il n’y a pas de traces numériques est une façon de
mettre en relief le double aspect de l’écriture (spatialisation du temps et ouverture de
la temporalité), d’accepter le diagnostic suivant lequel le numérique opère une
spatialisation du temps mais pour ne plus s’intéresser qu’à la façon dont les données
numériques peuvent faire trace.
Il n’y a pas de « traces numériques » car si « numérique » renvoie à l’écriture
comme technique en tant qu’elle opère une spatialisation du temps, c’est-à-dire une
réduction du temps à la pure présence ; si « Le temps de l’informatique est la négation
du futur dans son ouverture pour le réduire à ce qui peut s’obtenir à partir du présent »
(Bachimont, 2010 : 143) ; « trace » renvoie au contraire à l’absence en tant qu’elle est
constitutive de l’avenir, du présent et du passé, du temps comme durée. Mais alors,
que permet une telle formulation du problème ? De le déplacer. Plutôt que de
reprocher aux données d’être des données, c’est-à-dire intrinsèquement liées à
l’écriture qui est une technique permettant la pensée systématique, le calcul, la
prévision, la réduction du temps comme flux à l’espace d’une pure présence, plutôt
qu’explorer la façon tout nous pourrions être coupés de tout devenir et de chercher à
critiquer ce phénomène, essayons de voir comment ces données numériques peuvent
faire trace. Or, il me semble que réfléchir à l’e-réputation au-delà de ses dimensions
instrumentales, c’est précisément poser la question de la trace dans les big data.
Ces données numériques qui font trace
De Derrida et Bergson, nous avons appris que poser la question de la trace, c’est
poser la question de la mémoire, c’est-à-dire aussi de la durée. C’est s’intéresser au
mouvement, au devenir, à tout ce qui excède la pure présence du présent et son
pouvoir verrouillant. La mémoire, écrit Deleuze à propos de Bergson, « fait que le
corps est autre chose qu’instantané, et lui donne une durée dans le temps. » (Deleuze,
1966 :13) Par trace je propose donc de comprendre ce rapport à la mémoire qui
permet la durée dans le temps, c’est-à-dire aussi le possible à venir, le devenir. Tout
ce qui excède la pure succession d’instantanés qui ne font dès lors que varier
quantitativement et non qualitativement. Car c’est ça, devenir. C’est différer
qualitativement. C’est faire de l’avenir, la mémoire de ce qu’on n’a pas vécu
7
(Derrida). C’est comprendre la mémoire comme virtuel en mouvement
d’actualisation, rejouant à chaque fois le présent dans ce mouvement même. Pour
Bergson, rappelons-nous que la mémoire est « conservation et accumulation du passé
dans le présent. » (Bergson, 1919 : 818,5)
Droit à l’oubli, e-réputation et « traces numériques » posent tous trois la question
de la mémoire et de la durée. Demander s’il y a de la trace dans la donnée numérique,
c’est ainsi demander si, avec les big data, on se trouve uniquement face à une forme
de rétention aveugle ou face à une forme de mémoire. C’est donc, finalement,
demander si ce qui est retenu, si les données numériques par défaut conservées et
traitées ouvrent le présent à un changement qualitatif ou si au contraire elles
l’attachent à des variations quantitatives. D’un point de vue instrumental, comment
agir sur une e-réputation ? S’agit-il d’effacer des données compromettantes qui
auraient été retenues afin de dégager le futur en le nettoyant de tout ce dont on ne
voudrait pas (pour prendre le cas négatif) ? Ou s’agit-il au contraire d’agir sur le passé
en y injectant de nouvelles données qui feraient trace dans la mesure où elles
permettraient au passé de gonfler jusqu’à agir sur le présent qui serait alors redistribué
selon un nouveau mode, peut-être plus favorable ou simplement plus réaliste ? Pour
schématiser, chercher à effacer des données pour nettoyer une réputation c’est se
placer dans la perspective selon laquelle passé, présent et futur sont sur la même ligne
de succession. Que l’on efface un point de la trajectoire (une donnée du passé) et
voilà que la ligne se brise, c’est alors le futur dont on ne voulait pas qui cesse
d’exister. Chercher au contraire à gonfler le passé de nouvelles informations en y
injectant de nouvelles données, c’est penser en termes de durée et de devenir, car c’est
penser que le présent peut changer de nature en fonction du passé.
Le cri d’alerte des archivistes français (AAF, 2013) à propos du règlement
européen à venir sur les données personnelles et le droit à l’oubli qui risquerait de
signer la disparition programmée de notre mémoire ou encore les mots de Pierre Lévy
(à paraître) sur la mémoire commune semblent bien faire pencher la balance en faveur
de l’idée suivant laquelle les données numériques peuvent faire trace. Pour Pierre
Lévy, qui utilise bien la notion de « donnée numérique » sans pour autant s’interdire
de parler de « mémoire », les personnes communiquent entre elles en modifiant leur
environnement commun.
« Chaque lien que nous créons, chaque tag que nous apposons sur une
information, chaque acte d’évaluation ou d’approbation, chaque « j’aime »,
chaque requête, chaque achat, chaque commentaire, chaque re-tweet, toutes ces
opérations modifient subtilement la mémoire commune, c’est-à-dire la masse
inextricable de relation entre les données. Notre comportement en ligne émet un
flux continuel de messages et d’indices qui contribue – parfois directement mais
le plus souvent indirectement – à orienter et à informer les autres internautes. Or
il en est évidemment ainsi parce que l’information que nous produisons
individuellement est traitée par des algorithmes afin d’être transformée en
information utile pour la collectivité. »
Le passé, conservé et accumulé modifie la texture du présent. Par la médiation
d’algorithmes qui nous mettent en relation (Levy, à paraître ; Sarrouy, 2012) Il est
donc bien question de mémoire et de devenir. Mais aussi de trace, au sens de Derrida
qui a tant influencé Bernard Stiegler dans sa conception de la technique. C’est-à-dire
de relation. La trace en effet, aussi bien que la mémoire, ne sont pas de l’ordre du
psychologique, mais de l’ontologique et nous met en relation les uns avec les autres.
C’est par la trace qu’est opéré le passage de l’individu au commun. Dans La
8
technique et le temps (1994), Bernard Stiegler explique que les objets techniques sont
des traces de l’homme au sens où ont lieu des processus d’extériorisation des
fonctions ostéomusculaires et neurosensorielles (Leroi-Gourhan, 1964) dans la
technique faisant ainsi des objets techniques, une forme de mémoire extériorisée de
l’homme. Une mémoire génétique qui ne disparaît pas avec la mort de l’individu,
mais lui survit. Si l’homme peut fabriquer et dupliquer des objets techniques, ils lui
préexistent comme la mémoire de ce qu’il n’a pas vécu mais avec quoi il entre
pourtant en relation. La trace est donc cette inscription comme déjà-là du monde et du
passé qui est constitutive du présent. Elle est ce qui constitue la temporalité,
m’ouvrant au passé que je n’ai pas vécu, c’est-à-dire à la communauté des autres
hommes, et au devenir. La durée/mémoire de Bergson, la trace de Derrida, la
technique de Stiegler renvoient finalement tous à la même chose : au fait que nous
sommes tous en relation, c’est-à-dire en devenir.
Index
Trace, donnée, numérique, technique, durée, mémoire, devenir, commun, relation,
e-réputation, algorithme, Bergson, Derrida, Stiegler, raison graphique, raison
computationnelle.
Bibliographie
Anderson, Chris (2008), « The End of Theory : The Data Deluge Makes The
Scientific
Method
Obsolete »,
Wired.
Disponible
sur :
http://www.wired.com/science/discoveries/magazine/16-07/pb_theory. Consulté pour
la dernière fois le 25/02/2013.
Association des archivistes français (AAF, 2013), « Au nom du droit à l’oubli, quel
patrimoine pour l’Europe de demain ? ». Disponible en ligne sur :
http://www.archivistes.org/Au-nom-du-droit-a-l-oubli-quel. Consulté pour la dernière
fois le 25/02/2013.
Auroux Sylvain (1995), La révolution technologique de la grammatisation, Liège,
Mardaga.
Bachimont Bruno (2010), Le sens de la technique : le numérique et le calcul, Paris,
Editions Les Belles Lettres.
Bachimont, Bruno (2010b), « La présence de l’archive : réinventer et justifier »,
Intellectica, 53-54, pp. 281-309.
Bachimont Bruno (1996), « Intelligence artificielle et écriture dynamique : de la
raison graphique à la raison computationnelle », colloque de Cerisy 1996. Paru dans
Fabbri Paolo & Petitot Jean (dir.), Au nom du sens, Paris, Grasset.
Bachimont Bruno (2012), « Pour une critique phénoménologique de la raison
computationnelle
»,
disponible
en
ligne
sur
:
http://www.inasup.com/ressources/dossiers-de-laudiovisuel/les-e-dossiers-de-laudiovisuel/pour-unecritique-phenomenologiqu. Consulté pour la dernière fois le 25/02/2013.
Bergson Henri (1985), « Le possible et le réel », in La conscience et la vie ; le
possible et le réel, Paris, Magnard.
9
Bergson Henri (1984a), Evolution créatrice, Paris, Œuvres, Edition du centenaire,
PUF.
Bergson Henri (1984b), Essai sur les données immédiates de la conscience,
Œuvres, Edition du centenaire, PUF, Paris.
Berns Thomas (2009), Gouverner sans gouverner : une archéologie politique de la
statistique, Paris, PUF.
Berns Thomas et Rouvroy Antoinette (2010), « Le nouveau pouvoir statistique »,
Multitudes, n°40, pp. 88-103. Disponible en ligne sur : http://www.cairn.info/revuemultitudes-2010-1.htm Consulté pour la dernière fois le 25/02/2013.
Berns Thomas et Rouvroy Antoinette (à paraître), « Le disparate au péril du
gouvernement algorithmique des relations », Réseaux.
Cheney-Lippold John (2011), « A New Algorithmic Identity : Soft Biopolitics and
the Modulation of Control », Theory, Culture & Society, 28(6), pp. 164-181.
Deleuze Gilles (1966), Le bergsonisme, Paris, PUF.
Deleuze Gilles et Guatari Félix (1980), Capitalisme et schizophrénie 2 : Mille
Plateaux, Paris, Les Editions de Minuit.
Deleuze Gilles (1990), Pourparlers, Paris, Les Editions de Minuit.
Derrida Jacques (1972), « La différance », Marges de la philosophie, Paris,
Editions de Minuit.
Galinon-Mélénec Béatrice (2011), L’Homme trace, Paris Editions du CNRS.
Goody Jack (1979), La raison graphique, Paris, Les Editions de Minuit.
Guéguen Haud (2012), « hypermnésie digitale et aliénation », exposé dans le cadre
du colloque « le sujet digital : oubli, hypermnésie » qui se tint à Paris 8 du 13 au 15
novembre 2012.
Havelange Véronique, Lenay Charles & Stewart John (2003), « Les
représentations : mémoire externe et objets techniques », Intellectica, 35, pp. 115-131.
Heidegger Martin (1953), « La question de la technique », Essais et Conférences,
Paris, Gallimard.
Husserl Edmund (1962), trad. Jacques Derrida, L’origine de la géométrie, Paris.
PUF.
Leroi-Gourhan André (1964), Le geste et la parole, Paris, Albin Michel.
Lévy Pierre (à paraître), « La clé du médium algorithmique », Revue Sociétés,
disponible en ligne sur : http://pierrelevy.posterous.com/un-nouvel-article-enfrancais-la-cle-du-mediu-72610. Consulté pour la dernière fois le 25/02/2013.
Manyika James, et al. (2011), Big Data : The Next Frontier for Innovation,
Competition, and Productivity, McKinsey & Company.
Merzeau, Louise (2009), « Du signe à la trace : l’information sur mesure »,
Hermès, n°53.
Merzeau Louise (2010), « La présence plutôt que l’identité », disponible en ligne
sur :
http://hal.archives-ouvertes.fr/docs/00/49/28/43/PDF/Merzeau_DocSI_presence.pdf. Consulté pour la dernière fois le 25/02/2013.
10
Merzeau Louise (2011), « Embeded memories : patrimonialisation des traces
numériques ».
Disponible
en
ligne
sur :
http://hal.archivesouvertes.fr/docs/00/64/42/58/PDF/Merzeau-embeded-memories.pdf. Consulté pour la
dernière fois le 25/02/2013.
Mill Alain et al. (2007), « Un environnement pour gérer des traces comme
inscriptions de connaissances ». Rapport de recherche disponible en ligne sur :
http://liris.cnrs.fr/publis/?id=3009. Consutlé pour la dernière fois le 25/02/2013.
Neal Thomas (2012), « Algorithmic subjectivity and the need to be in-formed »,
TEM, disponible en ligne sur : http://www.tem.fl.ulaval.ca/en/waterloo-2012/.
Consulté pour la dernière fois le 25/02/2013.
Pariser Eli (2011), The Filter Bubble : What the Internet is Hiding from You, New
York, The Penguin Press.
Rieder Bernard (2010), « Pratiques informationnelles et analyse des traces
numériques : de la représentation à l’intervention », Etudes de communication, n°35,
pp. 91-104. Disponible en ligne sur : http://www.cairn.info/revue-etudes-decommunication-2010-2-page-91.htm. Consulté pour la dernière fois le 25/02/2013.
Sarrouy Olivier (2012), « Des algorithmes comme actants interactionnels : formes
organisationnelles et normes techniques dans le contexte des nouveaux medias ». In
Actes de l'ICA Regional Conference. Communiquer dans un monde de normes :
L'information et la communication dans les enjeux contemporains de la
mondialisation, 7-8 mars 2012, Lille/Roubaix. Disponible en ligne sur :
http://www.academia.edu/1709945/Des_algorithmes_comme_actants_interactionnels
_formes_organisationnelles_et_normes_techniques_dans_le_contexte_des_nouveaux
_medias. Consulté pour la dernière fois le 25/02/2013.
Sebbah, François-David (2010), Qu’est-ce que la technoscience ?, Paris, Editions
Les Belles Lettres.
Siegler MG (2010), « Eric Schmidt On the Future of Search, A Move Towards A
« Serendipity
Engine » »,
TechCrunch,
disponible
en
ligne
sur :
http://techcrunch.com/2010/09/28/eric-schmidt-future-of-search/. Consulté pour la
dernière fois le 25/02/2013.
Steiner Pierre (2010), « Philosophie, technologie et cognition : Etat des lieux et
perspectives », Intellectica, 53/54, pp. 7-40.
Stiegler Bernard (1994), La technique et le temps, Paris, Galilée.
Stiegler Bernard (2006), Réenchanter le monde, Paris, Flammarion.
Van Otterlo Martijn (2011), « A Machine Learning View on Profiling », CPDT10,
Bruxelles, janvier.
11