Academia.eduAcademia.edu

Et s'il n'y avait pas de traces numériques ?

Exposé présenté le 21 mars 2013 dans le cadre du colloque « e-réputation et traces numériques : dimensions instrumentales et enjeux de société » qui eut lieu à Toulouse. À l'heure des big data, où tous les comportements dans les espaces numériques génèrent des pétabytes de données qui sont par défaut récoltés (dataveillance) et stockés dans d'immenses bases de données (datawarehousing) afin de pouvoir être traités (datamining) par des algorithmes et de générer des profils qui seront ensuite assignés aux différents individus afin de leur suggérer l'environnement qui est le plus pertinent pour eux, nous retrouvons-nous enfermés dans des bulles et des destins identitaires ? S'il est du propre de l'écriture (numérique) de permettre une discrétisation du flux de parole dans un espace bidimensionnel ou algorithmique, c'est-à-dire si elle induit une spatialisation du temps, peut-on encore parler de trace puisque ce concept renvoie par définition à l'absence et au devenir, à l'ouverture du temps et du commun ? S'il n'y a pas de « traces numériques » dans les big data, les données numériques peuvent-elles en revanche faire trace, c'est-à-dire mettre en relation des devenirs plutôt que de figer des atomes dans l'espace de leurs bulles ? Et s'il n'y avait pas de traces numériques ?

Exposé présenté le 21 mars 2013 dans le cadre du colloque « e-réputation et traces numériques : dimensions instrumentales et enjeux de société » qui eut lieu à Toulouse. À l’heure des big data, où tous les comportements dans les espaces numériques génèrent des pétabytes de données qui sont par défaut récoltés (dataveillance) et stockés dans d’immenses bases de données (datawarehousing) afin de pouvoir être traités (datamining) par des algorithmes et de générer des profils qui seront ensuite assignés aux différents individus afin de leur suggérer l’environnement qui est le plus pertinent pour eux, nous retrouvons-nous enfermés dans des bulles et des destins identitaires ? S’il est du propre de l’écriture (numérique) de permettre une discrétisation du flux de parole dans un espace bidimensionnel ou algorithmique, c’est-à-dire si elle induit une spatialisation du temps, peut-on encore parler de trace puisque ce concept renvoie par définition à l’absence et au devenir, à l’ouverture du temps et du commun ? S’il n’y a pas de « traces numériques » dans les big data, les données numériques peuvent-elles en revanche faire trace, c’est-à-dire mettre en relation des devenirs plutôt que de figer des atomes dans l’espace de leurs bulles ? Et s’il n’y avait pas de traces numériques ? A l’occasion d’une réflexion sur l’e-réputation, je souhaite poser une question : est-ce qu’il y a de la trace dans les données numériques ? Cette question repose sur une distinction que je propose entre trace et donnée numérique, parce qu’elle permet un travail sur le concept de temps, en tant qu’il se trouve engagé aussi bien dans le numérique que dans la réputation. En effet, dans la mesure où la réputation se propage et se transmet, est-il possible d’en parler sans présupposer une forme de durée ? Et cette durée, n’est est-elle pas impactée par le numérique comme support et comme technique ? C’est donc à partir de l’e-réputation que je souhaite activer le levier permettant d’articuler numérique et temporalité autour du concept de trace. Dans un premier mouvement, j’exposerai rapidement et dans les grandes lignes ce que l’on peut entendre par big data afin de comprendre en quel sens on pourrait dire que « trace » et « numérique » sont contradictoires dans les termes : la première renvoyant à un rapport au temps et à l’absence (Derrida, 1962 ; Stiegler, 1994); le second, à une pure présence. Ce constat suivant lequel il n’y aurait pas de « traces numériques » me semble être implicitement à l’œuvre dans plusieurs critiques adressées à notre « société de traçabilité », mais peut-on s’en satisfaire ? S’il n’y a pas de traces numériques, il y a peut-être de la trace dans les données numériques. C’est ce que je souhaite explorer dans un second temps et à l’aide de la notion d’eréputation. Big data et effets de personnalisation À l’heure où les cartes de fidélité cueillent des données à même nos comportements, où nos GPS et smartphones signent nos déplacements pendant que des vaches produisent plusieurs centaines de Mo de données par an lorsqu’elles sont dotées de capteurs renseignant leur éleveur quant à leur santé et habitudes, à l’heure où toutes nos actions dans les espaces numériques génèrent des données, où les puces RFID permettent un traçage des marchandises, l’on ne cesse d’entendre parler de « société de traçabilité » et de « traces numériques » ou encore de big data. Si en 1 francophonie, l’on parle plutôt de « traces », dans le monde anglo-saxon – à l’exception de textes d’auteurs français traduits en anglais – c’est la notion de data, de « donnée » qui est d’usage. Encore que « big data » ne cesse de se répandre en contexte francophone. Mais qu’entendre par big data ? Avant tout, il ne s’agit pas seulement de « lots of data » car la taille des bases de données en jeu dépasse largement ce qui pouvait habituellement être traité par des outils typiques d’analyse et de stockage. Tellement largement qu’à un moment donné, le saut n’est plus seulement quantitatif. Ensuite, on peut repérer trois étapes dans les big data, qui ne cessent de s’entremêler (Berns et Rouvroy, 2010) et qui permettent d’en saisir la logique. D’abord, chaque interaction avec l’environnement numérique génère des données qui sont récoltées par défaut et stockées dans d’immenses bases de données. On pourrait ainsi constater une forme de renversement anthropologique dans la mesure où il semblerait qu’il a toujours été plus coûteux pour l’être humain de retenir et mémoriser que d’oublier. Du moins, tout notre système juridique repose sur le fait que l’oubli existe (présomption d’innocence, etc.) Dans les environnements numériques, par exemple sur Internet, chaque action est une interaction avec le milieu qui peut produire une donnée – et qui, la plupart du temps (il suffit d’un robot) en produit une. Ainsi, le simple fait de lire une page web peut être compris comme une forme d’écriture : le temps que je passe sur la page, ce sur quoi je clique ensuite, comment j’y suis arrivé sont autant de gestes qui produisent des « traces » de mon activité. Je me permets ici des guillemets afin de ne pas confondre ces ensembles de logs et d’enregistrements automatiques avec les traces telles que cherche à les définir et à les prendre au sérieux une ingénierie de la trace (Mille et al., 2007). On assiste donc à un phénomène que certains appellent « digitalisation de la vie elle-même », « biométrisation du réel » ou encore « dataveillance » (Berns et Rouvroy, 2010). Dans un second temps, ces données sont traitées, de manière plus ou moins automatisée. D’ailleurs, un esprit humain tout seul serait incapable de traiter autant de variables. Des algorithmes sont donc appliqués de façon à « faire émerger » des corrélations depuis cet agglomérat de données qui en tant que tel ne permet rien. La donnée (la « data » de « big data ») est donc une sorte de matériau brut, de la matière première qui ne prendrait sens qu’à partir du moment où elle est utilisée et interprétée. La connaissance semble ainsi émerger du réel – mis en données – comme une trouvaille (Anderson, 2008 ; van Otterlo, 2011), une trouvaille qui ne nécessiterait, et c’est bien sûr critiquable, aucune hypothèse humaine au préalable. Dans cette perspective, le travail des algorithmes suffit pour trouver des corrélations qui elles aussi suffisent. Une fois récoltées puis traitées, les données révèlent des corrélations qui peuvent – et c’est la troisième étape – définir des profils. Il s’agit d’inférer des caractéristiques inobservables, actuelles ou futures, à partir de caractéristiques observables chez un individu. Un profil assigne donc les mêmes prédictions comportementales à tous ceux qui présentent un certain nombre d’éléments propres au profil en question. Les usages du profilage sont multiples : prévention des risques en identifiant les comportements (potentiellement) suspects, configuration d’environnements de façon à ce qu’ils correspondent aux différents individus, pratiques de marketing, publicité ciblée, etc. C’est donc sur base de corrélations statistiques produites à partir de la récolte massive et automatisée de données que des structures de comportements peuvent être dégagées puis appliquées. Les moteurs de recommandation, comme celui d’Amazon, reposent sur de telles pratiques de profilage lorsqu’ils nous proposent les livres qui pourraient nous plaire, s’appuyant sur nos différentes navigations ainsi que sur diverses 2 informations cueillies à mêmes les comportements d’autres internautes. De même en va-t-il de la personnalisation de l’information qu’opère l’algorithme de Google. Les réponses à nos requêtes ne sont par exemple pas les mêmes suivant où l’on se trouve dans le monde et qui l’on est. Les algorithmes apprennent en effet rapidement à savoir si l’on se comporte plutôt comme un homme ou une femme, un hétérosexuel ou un homosexuel, un jeune ou un vieux, autant de « catégories » qui ne servent pas à nous normer de l’extérieur et qui ne nous préexistent pas, mais qui émergent de nos comportements eux-mêmes. Du réel lui-même (Berns, 2009). En raison de ces pratiques de profilage, aussi connues sous le nom de mass personalization, certains ont pu penser des droits visant à nous protéger d’un « destin identitaire » (Berns et Rouvroy, 2010) ou encore sonner l’alarme à propos de « bulles » dans lesquelles nous serions enfermés (Pariser, 2011). En effet, si les livres qu’on me propose, les amis qu’on me présente, l’information qu’on me montre ne sont que l’expression de l’anticipation de ce que je pourrais être, à partir de ce que j’ai été, est-ce que je ne me retrouve pas coupé de l’altérité, du hasard, et même de la liberté en tant qu’invention, bref de tout ce qui ne me correspond pas et ce à quoi je ne pourrais pas m’attendre ? N’y aurait-il pas une réduction du possible dans ce qu’il a de libre et de créateur à un espace de probabilités dans ce qu’elles ont de calculable ? Je considère que ces critiques, bien que très différentes quant à leur rigueur, leur intelligence et leur intérêt, se rejoignent sur un point : elles se cristallisent autour du danger qu’il pourrait y avoir avec ce que je me permets de ramener sous le phénomène big data – à savoir la gouvernementalité algorithmique pour Thomas Berns et Antoinette Rouvroy et, en gros, Internet pour Eli Pariser – d’une évacuation du devenir (Deleuze et Guattari, 1980). Une évacuation du devenir, c’est-à-dire : du temps comme invention, comme durée au sens de Bergson, comme trace au sens de Derrida et même comme relation. Elles se cristallisent non pas sur les dangers liés au développement massif des traces numériques, mais plutôt – c’est mon hypothèse – sur le fait que précisément, il n’y a pas de traces numériques. La pure présence de la donnée numérique Si la trace renvoie par essence au temps en tant qu’il excède le pur présent (Derrida), les pratiques de profilage reposent quant à elles sur une compression du temps dans un espace de distribution du « possible ». Mais peut-être n’est-ce là que l’expression du propre de l’écriture, c’est-à-dire d’une raison graphique (Goody, 1979) poussée à l’extrême en devenant raison computationnelle (Bachimont, 2010) ? Avant d’aborder le concept de trace chez Derrida afin de saisir en quel sens il pourrait entrer en résistance avec le « numérique », et de se demande in fine si ce n’est pas un faux procès à l’aide d’une réflexion sur le caractère constitutif de la technique, tâchons d’abord de comprendre le mode d’existence du temps dans les pratiques de profilage propres aux big data, à ce réel tout algorithmique. Comment comprendre que les pratiques de profilage et de personnalisation des environnements et de l’information reposent sur un écrasement du temps dans l’espace d’une pure présence ? Sur base de mes clics et navigations passés – qui ont généré des données numériques – et de leurs interconnexions avec d’autres données constituées à partir des comportements d’autres individus, les algorithmes (de recommandation, de recherche, etc.) permettent que me soient présenté ce qui pourrait m’intéresser. Google peut ainsi par exemple me proposer le mot que je 3 pourrais chercher dès que je pose ne serait-ce que les premières lettres du mot en question. Il va même jusqu’à me proposer ce qui pourrait m’intéresser avant que je ne l’aie explicitement formulé, comme c’est le cas avec le knowledge graph. Et comme cela sera sans doute le cas à l’avenir avec d’autres fonctionnalités au centre de la stratégie d’Eric Schmidt, CEO de Google, qui aimerait faire de son moteur de recherches un serendipity engine, capable de savoir pour nous ce qui nous intéresse avant même que nous en ayons non seulement exprimé le désir mais avant même que nous ne le sachions (Siegler, 2010). Ainsi, ce que je pourrais, le futur des actes que je peux poser, est calculé à partir de ce que j’ai été dans le passé. Et ce que j’ai été dans le passé se trouve retenu dans une permanence qui dure jusqu’au présent sous la forme de données numériques (raison pour laquelle, d’ailleurs, elles posent la question de leur oubli). On se retrouve donc dans une forme de présent élargi, où le passé est maintenu sous forme de donnée dans une permanence qui dure jusqu’au présent afin d’éclairer un futur qui est abordé en termes de probabilités à partir de l’espace d’un calcul. Quel peut être cet « avenir » à partir du moment où il est anticipé ? Plutôt que de l’avenir, ne serait-il pas question de futur antérieur (Sartre, 1970 ; Bergson, 1985), de passé qui se réalisera ? Dans ce réel algorithmique des big data, ce qui existe, ce n’est pas tant l’avenir que le probable tenu en éventail à partir d’un point de présence. Le présent algorithmique est le carrefour, l’aiguillage duquel partent les multiples rails du probable. Un probable pour ainsi dire organique, qui intègre les changements, afin de se redéployer selon de nouvelles distributions. Que j’ajoute une lettre, moins attendue (parce que moins statistiquement probable), au mot posé dans ma barre de recherche et voilà que ce que je pourrais chercher se présente à moi avec de nouvelles propositions. Et même, que j’adopte, en tant que « femme », des comportements à première vue inexplicables du point de vue du profil « femme », et voilà que l’algorithme va soit apprendre à donner à certains de mes comportements une pondération plus légère dans la construction de la catégorie « femme » ou alors envisager mon changement de sexe. Quoi qu’il en soit, ce serait toujours la distance qui sépare mon présent de mon probable qui se trouverait réduite, et je ne ferais que devenir ce que j’aurais pu être. Le passé se vérifierait dans le futur, le possible serait ramené à du probable calculé et le passé deviendrait une rétention aveugle et décontextualisée (Merzeau, 2011) plutôt qu’une inscription, une trace. Finalement, ne serait-ce pas le temps comme flux (Bergson, 1984) ou comme absence (Derrida, 1972) qui serait devenu impossible dans le réel algorithmique des big data et les pratiques de mass personalization qu’elles déploient ? Si le passé est retenu dans le présent et l’avenir anticipé à partir du présent, y’a-t-il autre chose qu’un pur « présentisme » (Hartog, 2003 ; Guéguen, 2012), c’est-à-dire un règne du présent qui exclut non seulement toute possibilité de passé (donc de mémoire) et de futur en tant que transformation ? N’est-ce pas aussi cette « prison du présent » que questionnent l’e-réputation et le droit à l’oubli ? Or, c’est précisément pour contrer cette métaphysique de la pure présence que Derrida a fabriqué son concept de trace. Une métaphysique de la pure présence que l’on retrouve au centre du geste de Bergson lorsqu’il cherche à lutter contre la tendance à la suppression du temps dans la métaphysique occidentale. C’est donc avec ces deux philosophes français qui ont largement influencé la philosophie contemporaine qu’en abordant les big data l’on peut critiquer la notion de « trace numérique », non pas pour elle-même mais pour réussir à poser le problème de la digitalisation massive du monde en des termes qui permettent d’ouvrir les questions plutôt que de clore les débats. 4 Le temps de la trace et de la durée La trace, au sens de Derrida, est ce qui résiste à toute métaphysique de la pure présence. On ne peut pas, écrit-il, penser la trace « à partir du présent, ou de la présence du présent. » (Derrida, 1972 : 22) La trace, ajoute-t-il, ne se rapporte « pas moins à ce qu’on appelle le futur qu’à ce qu’on appelle le passé » (Derrida, 1972 : 13), elle constitue ce qu’on appelle le présent « par ce rapport même à ce qui n’est pas lui : absolument pas lui, c’est-à-dire pas même un passé ou un futur comme présents modifiés. » Par définition, donc, la trace telle que l’entend Derrida ne rejoint pas le sens des données numériques (big data) puisque la première renvoie toute entière à l’absence, au temps en tant qu’il se conjugue sur le mode de l’absence, là où les secondes font signe vers une omniprésence du présent. Avant de revenir sur le caractère constitutif de la trace et pour continuer sur la question du temps et surtout du devenir, j’aimerais montrer en quel sens on pourrait rapprocher les travaux de Bergson sur la durée de ceux de Derrida sur la trace. Cela devrait permettre de comprendre la profondeur du sens que l’on peut donner au concept de trace et de saisir en quoi il n’y a peut-être pas de « trace numérique » mais aussi, peut-être, en quoi les données numériques peuvent faire trace. L’intérêt d’un tel travail réside pour moi dans une proposition : arrêtons de reprocher aux big data de ne pas être des traces numériques et intéressons-nous à la question de savoir si les données numériques peuvent faire trace et comment. Une proposition dont n’ont d’ailleurs eu besoin, pour la mettre en pratique, ni les ingénieurs des connaissances et de la trace (Mill, Bachimont), ni les professionnels et amateurs de l’e-réputation. Si Derrida a pu entrer en résistance avec la métaphysique de la pure présence, on peut – avec Deleuze (1966 : 53) – apprendre de Bergson que « Nous avons trop l’habitude de penser en termes de « présent ». » Pour lui, entre le passé et le présent, il doit y avoir une différence de nature, non simplement de degré. « Si nous avons tant de difficulté à penser une survivance en soi du passé, c’est que nous croyons que le passé n’est plus, qu’il a cessé d’être. Nous confondons alors l’Être avec l’Êtreprésent. Pourtant le présent n’est pas, il serait plutôt pur devenir, toujours hors de soi. » (Deleuze, 1966 : 49) Bergson aussi bien que Derrida ont cherché à penser le passé en termes de survivance, une survivance qui a un effet sur le présent, qui le texture, mais qui, pour ne pas le déterminer, doit s’exprimer dans un autre registre : la trace pour Derrida, la mémoire comme durée pour Bergson. Or, cette détermination du présent par le passé ou du futur par le présent, qu’évitent la trace et la durée, est au cœur des critiques à l’égard des big data qui, selon elles, nous couperaient de tout devenir, de tout avenir comme incalculable. Je propose donc, pour cette raison, que l’on parle de données et non de traces dans ce cas-là. L’intérêt des travaux de Bergson pour aborder les « traces numériques » – et de Derrida – réside dans le fait que le passé et la mémoire se retrouvent dans le présent mais sans le déterminer. La mémoire, pour Bergson, est « conservation et accumulation du passé dans le présent. » (Bergson, 1919 : 818,5) Le présent renferme l’image sans cesse grandissante du passé « il témoigne, par son continuel changement de qualité, de la charge toujours plus lourde qu’on traîne derrière soi à mesure qu’on vieillit davantage ». (Bergson, 1934 : 1411, 201) Il y a prolongation dans le présent d’un passé indestructible (Bergson, 1934 : 1315, 80). Qui ouvre le devenir. A mesure que le passé gonfle, le présent bouge. Loin de déterminer le présent, le passé l’ouvre. Pour cette raison, l’avenir ne peut être anticipé puisque c’est seulement après coup 5 que l’on peut dire qu’il a été possible. Il faut comprendre que pour que passé et présent puissent agir l’un en l’autre, ils doivent ne pas se succéder, mais coexister. L’un est le présent, qui ne cesse de passer ; l’autre est le passé, qui ne cesse pas d’être, mais par lequel tous les présents passent (Deleuze, 1966 : 54). Passé et présent sont contemporains, tout notre passé coexiste avec chaque présent. Coexistence, plutôt que succession, telle est la définition de la durée au sens de Bergson. Coexistence mais non pas simultanéité ni juxtaposition. Parce qu’entre passé et présent, on est dans le registre de l’autre, du changement de nature et non pas du plusieurs, du changement de degré. L’écriture numérique comme spatialisation du temps ? Entre passé et présent, c’est un leitmotiv bergsonien, il doit nécessairement y avoir une différence de nature et non de degré pour entrer dans le registre du temps et de la durée plutôt que dans celui de l’espace. C’est toute la critique du philosophe à l’égard de la science moderne qui n’a selon lui cessé de spatialiser le temps. L’astronomie de Kepler et Galilée, en tant qu’elle repose sur le mécanisme, n’a en effet pas décrit le mouvement en tant que tel, mais a permis de calculer les positions successives d’un mobile dans l’espace. Plutôt que de durée, c’est surtout de calcul de trajectoire dont il est question : c’est-à-dire de calcul d’une série de positions simultanées qu’un mobile peut parcourir. Le temps du physicien est donc un temps spatial, qui s’intéresse aux rapports entre différents points. Un temps de l’instant. Un temps qui n’a plus d’efficace, « qui ne mord plus sur les choses » mais qui est figé dans l’espace d’un instant, juxtaposant différentes positions. Un astre peut changer de position ou encore de dimension, mais à chaque fois il n’est question que différences de degré, non de nature. En changeant de position, il ne change pas de nature. Un astre n’a ainsi pas de durée, il est à chaque fois et successivement un instantané. En ce sens, il est coupé de tout devenir, si l’on comprend par devenir le mouvement, le changement de nature dans la durée, le procès. Mais cette spatialisation du temps ne peut pas être comprise indépendamment de l’existence de l’écriture comme technique (Goody, 1979 ; Auroux, 1995). Dans la perspective suivant laquelle la technique est constitutive pour la cognition humaine (Goody, 1979), l’apparition de l’écriture a permis le développement d’un rationalité particulière : la raison graphique et ses trois types principaux de structures conceptuelles qui conditionnent nos modes de pensée à savoir la liste, le tableau et la formule. L’écriture, en tant qu’elle permet de transcrire et fixer la parole, de discrétiser le flux sonore en unités manipulables que sont les lettres, génère une délinéarisation du flux temporel, le projetant sur une structure spatiale à deux dimensions (papier, tablette, etc.) Ce qui est dispersé dans le discours peut ainsi être ramené sous une même unité, la liste, qui va quant à elle développer les tendances à la catégorisation et au classement. Elle permet le passage du temporel au spatial et le tableau est simplement une liste à deux dimensions, devenant par là même absolument impossible à verbaliser. Lire un tableau ligne par ligne ou colonne par colonne ferait perdre la simultanéité, la vision synoptique pourtant permise par lui (Bachimont, 2010). Quant à la formule, elle permet de mener des raisonnements en fonction de la forme uniquement, sans avoir besoin de prêter attention à la signification. Ainsi naissent les langages formels qui ne peuvent d’ailleurs plus être parlés. C’est donc l’écriture elle-même, comme technique, qui opère une spatialisation du temps et le déploiement d’une pensée systématique. Sans écriture, 6 Kepler et Galilée auraient-ils pu calculer la trajectoire des astres et la concevoir comme une suite de positions, c’est-à-dire des instantanés successifs ? Mais alors, si l’informatique est un langage formel précisément rendu possible par l’écriture comme technique, est-ce vraiment surprenant d’assister – avec les big data – à un phénomène de spatialisation du temps, de réduction du temps à l’espace d’une pure présence ? Critiquer la réduction de tout devenir à un présentisme telle qu’elle est opérée par les big data ne serait-ce pas une façon de ne tenir compte que d’un seul aspect de l’écriture et de mettre de côté le fait que l’écriture peut également faire trace, c’est-à-dire nous mettre en relation avec un passé que nous n’avons pas vécu et avec la communauté des autres êtres humains ? Ne s’agirait-il pas in fine de condamner les big data pour ce qu’elles sont, à savoir filles d’une certaine technique : l’écriture ? Si les problèmes ont toujours les solutions qu’ils méritent en fonction de la manière dont on les pose (Deleuze, 1966 : 5), il s’agit d’être particulièrement vigilants. Est-ce que nous voulons nous intéresser à ce monde où l’on court sans cesse le risque d’être coupé de tout devenir en mettant l’accent sur la façon dont les traces sont réduites à des données ou est-ce que nous voulons nous intéresser à la façon dont les données peuvent faire trace, c’est-à-dire à la façon dont nous composons ensemble un monde commun ? Demander s’il n’y a pas de traces numériques est une façon de mettre en relief le double aspect de l’écriture (spatialisation du temps et ouverture de la temporalité), d’accepter le diagnostic suivant lequel le numérique opère une spatialisation du temps mais pour ne plus s’intéresser qu’à la façon dont les données numériques peuvent faire trace. Il n’y a pas de « traces numériques » car si « numérique » renvoie à l’écriture comme technique en tant qu’elle opère une spatialisation du temps, c’est-à-dire une réduction du temps à la pure présence ; si « Le temps de l’informatique est la négation du futur dans son ouverture pour le réduire à ce qui peut s’obtenir à partir du présent » (Bachimont, 2010 : 143) ; « trace » renvoie au contraire à l’absence en tant qu’elle est constitutive de l’avenir, du présent et du passé, du temps comme durée. Mais alors, que permet une telle formulation du problème ? De le déplacer. Plutôt que de reprocher aux données d’être des données, c’est-à-dire intrinsèquement liées à l’écriture qui est une technique permettant la pensée systématique, le calcul, la prévision, la réduction du temps comme flux à l’espace d’une pure présence, plutôt qu’explorer la façon tout nous pourrions être coupés de tout devenir et de chercher à critiquer ce phénomène, essayons de voir comment ces données numériques peuvent faire trace. Or, il me semble que réfléchir à l’e-réputation au-delà de ses dimensions instrumentales, c’est précisément poser la question de la trace dans les big data. Ces données numériques qui font trace De Derrida et Bergson, nous avons appris que poser la question de la trace, c’est poser la question de la mémoire, c’est-à-dire aussi de la durée. C’est s’intéresser au mouvement, au devenir, à tout ce qui excède la pure présence du présent et son pouvoir verrouillant. La mémoire, écrit Deleuze à propos de Bergson, « fait que le corps est autre chose qu’instantané, et lui donne une durée dans le temps. » (Deleuze, 1966 :13) Par trace je propose donc de comprendre ce rapport à la mémoire qui permet la durée dans le temps, c’est-à-dire aussi le possible à venir, le devenir. Tout ce qui excède la pure succession d’instantanés qui ne font dès lors que varier quantitativement et non qualitativement. Car c’est ça, devenir. C’est différer qualitativement. C’est faire de l’avenir, la mémoire de ce qu’on n’a pas vécu 7 (Derrida). C’est comprendre la mémoire comme virtuel en mouvement d’actualisation, rejouant à chaque fois le présent dans ce mouvement même. Pour Bergson, rappelons-nous que la mémoire est « conservation et accumulation du passé dans le présent. » (Bergson, 1919 : 818,5) Droit à l’oubli, e-réputation et « traces numériques » posent tous trois la question de la mémoire et de la durée. Demander s’il y a de la trace dans la donnée numérique, c’est ainsi demander si, avec les big data, on se trouve uniquement face à une forme de rétention aveugle ou face à une forme de mémoire. C’est donc, finalement, demander si ce qui est retenu, si les données numériques par défaut conservées et traitées ouvrent le présent à un changement qualitatif ou si au contraire elles l’attachent à des variations quantitatives. D’un point de vue instrumental, comment agir sur une e-réputation ? S’agit-il d’effacer des données compromettantes qui auraient été retenues afin de dégager le futur en le nettoyant de tout ce dont on ne voudrait pas (pour prendre le cas négatif) ? Ou s’agit-il au contraire d’agir sur le passé en y injectant de nouvelles données qui feraient trace dans la mesure où elles permettraient au passé de gonfler jusqu’à agir sur le présent qui serait alors redistribué selon un nouveau mode, peut-être plus favorable ou simplement plus réaliste ? Pour schématiser, chercher à effacer des données pour nettoyer une réputation c’est se placer dans la perspective selon laquelle passé, présent et futur sont sur la même ligne de succession. Que l’on efface un point de la trajectoire (une donnée du passé) et voilà que la ligne se brise, c’est alors le futur dont on ne voulait pas qui cesse d’exister. Chercher au contraire à gonfler le passé de nouvelles informations en y injectant de nouvelles données, c’est penser en termes de durée et de devenir, car c’est penser que le présent peut changer de nature en fonction du passé. Le cri d’alerte des archivistes français (AAF, 2013) à propos du règlement européen à venir sur les données personnelles et le droit à l’oubli qui risquerait de signer la disparition programmée de notre mémoire ou encore les mots de Pierre Lévy (à paraître) sur la mémoire commune semblent bien faire pencher la balance en faveur de l’idée suivant laquelle les données numériques peuvent faire trace. Pour Pierre Lévy, qui utilise bien la notion de « donnée numérique » sans pour autant s’interdire de parler de « mémoire », les personnes communiquent entre elles en modifiant leur environnement commun. « Chaque lien que nous créons, chaque tag que nous apposons sur une information, chaque acte d’évaluation ou d’approbation, chaque « j’aime », chaque requête, chaque achat, chaque commentaire, chaque re-tweet, toutes ces opérations modifient subtilement la mémoire commune, c’est-à-dire la masse inextricable de relation entre les données. Notre comportement en ligne émet un flux continuel de messages et d’indices qui contribue – parfois directement mais le plus souvent indirectement – à orienter et à informer les autres internautes. Or il en est évidemment ainsi parce que l’information que nous produisons individuellement est traitée par des algorithmes afin d’être transformée en information utile pour la collectivité. » Le passé, conservé et accumulé modifie la texture du présent. Par la médiation d’algorithmes qui nous mettent en relation (Levy, à paraître ; Sarrouy, 2012) Il est donc bien question de mémoire et de devenir. Mais aussi de trace, au sens de Derrida qui a tant influencé Bernard Stiegler dans sa conception de la technique. C’est-à-dire de relation. La trace en effet, aussi bien que la mémoire, ne sont pas de l’ordre du psychologique, mais de l’ontologique et nous met en relation les uns avec les autres. C’est par la trace qu’est opéré le passage de l’individu au commun. Dans La 8 technique et le temps (1994), Bernard Stiegler explique que les objets techniques sont des traces de l’homme au sens où ont lieu des processus d’extériorisation des fonctions ostéomusculaires et neurosensorielles (Leroi-Gourhan, 1964) dans la technique faisant ainsi des objets techniques, une forme de mémoire extériorisée de l’homme. Une mémoire génétique qui ne disparaît pas avec la mort de l’individu, mais lui survit. Si l’homme peut fabriquer et dupliquer des objets techniques, ils lui préexistent comme la mémoire de ce qu’il n’a pas vécu mais avec quoi il entre pourtant en relation. La trace est donc cette inscription comme déjà-là du monde et du passé qui est constitutive du présent. Elle est ce qui constitue la temporalité, m’ouvrant au passé que je n’ai pas vécu, c’est-à-dire à la communauté des autres hommes, et au devenir. La durée/mémoire de Bergson, la trace de Derrida, la technique de Stiegler renvoient finalement tous à la même chose : au fait que nous sommes tous en relation, c’est-à-dire en devenir. Index Trace, donnée, numérique, technique, durée, mémoire, devenir, commun, relation, e-réputation, algorithme, Bergson, Derrida, Stiegler, raison graphique, raison computationnelle. Bibliographie Anderson, Chris (2008), « The End of Theory : The Data Deluge Makes The Scientific Method Obsolete », Wired. Disponible sur : http://www.wired.com/science/discoveries/magazine/16-07/pb_theory. Consulté pour la dernière fois le 25/02/2013. Association des archivistes français (AAF, 2013), « Au nom du droit à l’oubli, quel patrimoine pour l’Europe de demain ? ». Disponible en ligne sur : http://www.archivistes.org/Au-nom-du-droit-a-l-oubli-quel. Consulté pour la dernière fois le 25/02/2013. Auroux Sylvain (1995), La révolution technologique de la grammatisation, Liège, Mardaga. Bachimont Bruno (2010), Le sens de la technique : le numérique et le calcul, Paris, Editions Les Belles Lettres. Bachimont, Bruno (2010b), « La présence de l’archive : réinventer et justifier », Intellectica, 53-54, pp. 281-309. Bachimont Bruno (1996), « Intelligence artificielle et écriture dynamique : de la raison graphique à la raison computationnelle », colloque de Cerisy 1996. Paru dans Fabbri Paolo & Petitot Jean (dir.), Au nom du sens, Paris, Grasset. Bachimont Bruno (2012), « Pour une critique phénoménologique de la raison computationnelle », disponible en ligne sur : http://www.inasup.com/ressources/dossiers-de-laudiovisuel/les-e-dossiers-de-laudiovisuel/pour-unecritique-phenomenologiqu. Consulté pour la dernière fois le 25/02/2013. Bergson Henri (1985), « Le possible et le réel », in La conscience et la vie ; le possible et le réel, Paris, Magnard. 9 Bergson Henri (1984a), Evolution créatrice, Paris, Œuvres, Edition du centenaire, PUF. Bergson Henri (1984b), Essai sur les données immédiates de la conscience, Œuvres, Edition du centenaire, PUF, Paris. Berns Thomas (2009), Gouverner sans gouverner : une archéologie politique de la statistique, Paris, PUF. Berns Thomas et Rouvroy Antoinette (2010), « Le nouveau pouvoir statistique », Multitudes, n°40, pp. 88-103. Disponible en ligne sur : http://www.cairn.info/revuemultitudes-2010-1.htm Consulté pour la dernière fois le 25/02/2013. Berns Thomas et Rouvroy Antoinette (à paraître), « Le disparate au péril du gouvernement algorithmique des relations », Réseaux. Cheney-Lippold John (2011), « A New Algorithmic Identity : Soft Biopolitics and the Modulation of Control », Theory, Culture & Society, 28(6), pp. 164-181. Deleuze Gilles (1966), Le bergsonisme, Paris, PUF. Deleuze Gilles et Guatari Félix (1980), Capitalisme et schizophrénie 2 : Mille Plateaux, Paris, Les Editions de Minuit. Deleuze Gilles (1990), Pourparlers, Paris, Les Editions de Minuit. Derrida Jacques (1972), « La différance », Marges de la philosophie, Paris, Editions de Minuit. Galinon-Mélénec Béatrice (2011), L’Homme trace, Paris Editions du CNRS. Goody Jack (1979), La raison graphique, Paris, Les Editions de Minuit. Guéguen Haud (2012), « hypermnésie digitale et aliénation », exposé dans le cadre du colloque « le sujet digital : oubli, hypermnésie » qui se tint à Paris 8 du 13 au 15 novembre 2012. Havelange Véronique, Lenay Charles & Stewart John (2003), « Les représentations : mémoire externe et objets techniques », Intellectica, 35, pp. 115-131. Heidegger Martin (1953), « La question de la technique », Essais et Conférences, Paris, Gallimard. Husserl Edmund (1962), trad. Jacques Derrida, L’origine de la géométrie, Paris. PUF. Leroi-Gourhan André (1964), Le geste et la parole, Paris, Albin Michel. Lévy Pierre (à paraître), « La clé du médium algorithmique », Revue Sociétés, disponible en ligne sur : http://pierrelevy.posterous.com/un-nouvel-article-enfrancais-la-cle-du-mediu-72610. Consulté pour la dernière fois le 25/02/2013. Manyika James, et al. (2011), Big Data : The Next Frontier for Innovation, Competition, and Productivity, McKinsey & Company. Merzeau, Louise (2009), « Du signe à la trace : l’information sur mesure », Hermès, n°53. Merzeau Louise (2010), « La présence plutôt que l’identité », disponible en ligne sur : http://hal.archives-ouvertes.fr/docs/00/49/28/43/PDF/Merzeau_DocSI_presence.pdf. Consulté pour la dernière fois le 25/02/2013. 10 Merzeau Louise (2011), « Embeded memories : patrimonialisation des traces numériques ». Disponible en ligne sur : http://hal.archivesouvertes.fr/docs/00/64/42/58/PDF/Merzeau-embeded-memories.pdf. Consulté pour la dernière fois le 25/02/2013. Mill Alain et al. (2007), « Un environnement pour gérer des traces comme inscriptions de connaissances ». Rapport de recherche disponible en ligne sur : http://liris.cnrs.fr/publis/?id=3009. Consutlé pour la dernière fois le 25/02/2013. Neal Thomas (2012), « Algorithmic subjectivity and the need to be in-formed », TEM, disponible en ligne sur : http://www.tem.fl.ulaval.ca/en/waterloo-2012/. Consulté pour la dernière fois le 25/02/2013. Pariser Eli (2011), The Filter Bubble : What the Internet is Hiding from You, New York, The Penguin Press. Rieder Bernard (2010), « Pratiques informationnelles et analyse des traces numériques : de la représentation à l’intervention », Etudes de communication, n°35, pp. 91-104. Disponible en ligne sur : http://www.cairn.info/revue-etudes-decommunication-2010-2-page-91.htm. Consulté pour la dernière fois le 25/02/2013. Sarrouy Olivier (2012), « Des algorithmes comme actants interactionnels : formes organisationnelles et normes techniques dans le contexte des nouveaux medias ». In Actes de l'ICA Regional Conference. Communiquer dans un monde de normes : L'information et la communication dans les enjeux contemporains de la mondialisation, 7-8 mars 2012, Lille/Roubaix. Disponible en ligne sur : http://www.academia.edu/1709945/Des_algorithmes_comme_actants_interactionnels _formes_organisationnelles_et_normes_techniques_dans_le_contexte_des_nouveaux _medias. Consulté pour la dernière fois le 25/02/2013. Sebbah, François-David (2010), Qu’est-ce que la technoscience ?, Paris, Editions Les Belles Lettres. Siegler MG (2010), « Eric Schmidt On the Future of Search, A Move Towards A « Serendipity Engine » », TechCrunch, disponible en ligne sur : http://techcrunch.com/2010/09/28/eric-schmidt-future-of-search/. Consulté pour la dernière fois le 25/02/2013. Steiner Pierre (2010), « Philosophie, technologie et cognition : Etat des lieux et perspectives », Intellectica, 53/54, pp. 7-40. Stiegler Bernard (1994), La technique et le temps, Paris, Galilée. Stiegler Bernard (2006), Réenchanter le monde, Paris, Flammarion. Van Otterlo Martijn (2011), « A Machine Learning View on Profiling », CPDT10, Bruxelles, janvier. 11