Philosophiascientiae 1879
Philosophiascientiae 1879
Philosophiascientiae 1879
23-2 | 2019
Expérimentation dans les sciences de la nature
Expérimentation dans les sciences humaines et
sociales
Catherine Allamel-Raffin, Stéphanie Dupouy et Jean-Luc Gangloff (dir.)
Édition électronique
URL : http://journals.openedition.org/philosophiascientiae/1879
DOI : 10.4000/philosophiascientiae.1879
ISSN : 1775-4283
Éditeur
Éditions Kimé
Édition imprimée
Date de publication : 24 mai 2019
ISBN : 978-2-84174-933-1
ISSN : 1281-2463
Référence électronique
Catherine Allamel-Raffin, Stéphanie Dupouy et Jean-Luc Gangloff (dir.), Philosophia Scientiæ, 23-2 |
2019, « Expérimentation dans les sciences de la nature Expérimentation dans les sciences humaines
et sociales » [En ligne], mis en ligne le 01 janvier 2021, consulté le 30 mars 2021. URL : http://
journals.openedition.org/philosophiascientiae/1879 ; DOI : https://doi.org/10.4000/
philosophiascientiae.1879
Expérimentation
dans les sciences humaines et sociales
Introduction.
Philosopher sur l’expérimentation
scientifique : bilan et perspectives
Catherine Allamel-Raffin
Université de Strasbourg, Archives Henri-Poincaré –
Philosophie et Recherches sur les Sciences et les Technologies
(AHP-PReST, UMR 7117) (France)
Stéphanie Dupouy
Université de Strasbourg, Archives Henri-Poincaré –
Philosophie et Recherches sur les Sciences et les Technologies
(AHP-PReST, UMR 7117) (France)
Jean-Luc Gangloff
Université de Strasbourg, Archives Henri-Poincaré –
Philosophie et Recherches sur les Sciences et les Technologies
(AHP-PReST, UMR 7117) (France)
dans les dictionnaires de philosophie des sciences sociales ou dans les manuels
classiques d’épistémologie des sciences sociales2 .
Au sein de telle ou telle discipline des sciences humaines, en revanche, la
thématique qui fait l’objet de ce numéro a donné lieu à des réflexions appro-
fondies. Les praticiens de certaines de ces disciplines ont en effet souvent, et
parfois de longue date, produit des réflexions méthodologiques riches et variées
sur la question de savoir si leur science était ou non susceptible d’utiliser la
méthode expérimentale, sur les différences de cette méthode avec l’observation,
s’il existait plusieurs formes, plus ou moins littérales, de méthodes expérimen-
tales, ou si l’expérimentation posait des biais particuliers (ou nécessitait des
précautions spécifiques) dans leur discipline par rapport aux sciences de la
nature. Plus généralement, ils se sont parfois intéressés à la « bonne manière »,
pour leur discipline, de conduire une expérimentation ou aux ficelles du métier
d’expérimentateur – ceci étant également vrai, mutatis mutandis, des pratiques
d’observation. La psychologie, notamment, devenue (pour partie) expérimen-
tale dès le milieu du xixe siècle, a non seulement développé une longue tradition
de réflexion sur l’expérimentation psychologique, mais présente l’originalité
d’avoir fait de cette question un objet d’étude lui-même expérimental, par
exemple dans les travaux précoces d’Alfred Binet sur la suggestibilité du sujet
d’expérience [Binet 1900], ou dans les recherches systématiques entreprises,
dans le sillage de la psychologie sociale des années 1970, par des psychologues
expérimentalistes tels que Martin Orne ou Robert A. Rosenthal [Orne 1962],
[Rosenthal, Jacobson et al. 1971] sur les biais de la situation expérimentale en
psychologie. La sociologie, quant à elle, a d’emblée défini sa méthode d’enquête
par comparaison avec la méthode expérimentale des sciences de la nature, en
la caractérisant, chez Emile Durkheim notamment [Durkheim 1894], comme
un substitut de méthode expérimentale [post hoc] et reposant sur l’utilisation
de statistiques – avant de commencer à recourir aussi à l’expérimentation
de terrain dans les années vingt et trente du xxe siècle siècle [Mayo 1933].
2. Par exemple, pour les manuels : [Hollis 2002], [Berthelot 2001]. Dans ce dernier,
le mot « expérimentation » apparaît seulement à trois reprises (dans les 594 pages de
l’ouvrage), dans un article portant sur la science économique. Il est vrai que l’adjectif
« expérimental », en revanche, est présent à cinq reprises, en particulier dans un
chapitre qui contient une présentation par Berthelot lui-même de ce qu’il appelle
« un modèle de scientificité commun fondé sur la raison expérimentale » [Berthelot
2001, 217]. Dans le volume Philosophy of Anthropology and Sociology [Turner &
Risjord 2007], paru dans la collection Handbook of the Philosophy of Science, le mot
« experiment » n’apparaît qu’une fois sur l’ensemble des 884 pages du volume et
figure dans un article consacré à la théorie de la mesure en psychologie. Enfin, dans
le Dictionnaire des sciences humaines [Mesure & Savidan 2006], sur l’ensemble de ses
1280 pages, on trouve cinq références seulement aux termes appartenant au champ
lexical de l’expérimentation : de surcroît, celles-ci apparaissent le plus souvent dans
des articles consacrés à des thèmes tels que « Biologie et société » (« expérimentation
animale » et « expérimentation in vitro »). L’expérimentation, en tant qu’objet de
réflexion intrinsèquement pertinent pour l’épistémologie des sciences humaines et
sociales, ne donne pas lieu à un article qui lui serait exclusivement consacré.
10 Catherine Allamel-Raffin, Stéphanie Dupouy & Jean-Luc Gangloff
3 Qu’appelle-t-on « expérimentation » ?
Une question liminaire s’est posée dans notre travail : à quelles conditions une
pratique de recherche en sciences humaines et sociales peut-elle légitimement
être qualifiée d’expérimentale ? En fonction de ce que l’on acceptera ou non
d’introduire dans ce champ, on sera amené à ajouter ou à refuser des carac-
téristiques dans la définition en intension. Classiquement, l’expérimentation
suppose l’intervention délibérée dans le cours des phénomènes, et la manipu-
lation contrôlée de ces phénomènes, notamment en vue de déterminer quels
paramètres sont pertinents quant à la production d’un effet donné [Nadeau
1999, 235], [Soler 2009, 64], [Dupouy 2011, 213]. En ce sens, l’expérimentation
diffère de l’observation par le fait que le chercheur opère une modification par
rapport au déroulement ordinaire des événements. Par conséquent, et comme
le remarquait déjà Claude Bernard [Bernard 1865], le critère pertinent qui
permet de distinguer l’expérimentation de l’observation n’est pas constitué
par le couple activité/passivité, mais par le fait que la première suppose la
création d’une situation artificielle, tandis que la seconde tend à laisser (dans
la mesure du possible) toutes choses en l’état. En s’inspirant des analyses
classiques de John Stuart Mill et d’Ernest Nagel, on pourrait ainsi énoncer
trois conditions à satisfaire pour qu’une expérimentation puisse avoir lieu :
La première est que le chercheur puisse manipuler à volonté cer-
taines variables considérées comme pertinentes pour produire les
phénomènes qui l’intéressent ; la seconde, que ces variables puissent
être manipulées isolément les unes des autres ; la troisième, que
ces manipulations et leurs effets soient reproductibles. [Dupouy
2011, 216]
La distinction entre expérimentation et observation s’est également appuyée
sur leur rôle dans le raisonnement causal : alors que l’observation permettrait
de trouver les causes (en remontant des effets aux causes), l’expérimentation,
par la méthode des différences [sublata causa, tollitur effectus], permettrait de
prouver les causes (en allant des causes aux effets). Cette définition de l’expéri-
mentation au sens strict peut être distinguée de ce que Claude Bernard appelle
plus largement le « raisonnement expérimental » : il « n’est rien d’autre qu’un
raisonnement à l’aide duquel nous soumettons méthodiquement nos idées à
l’expérience des faits » [Bernard 1865, 103]. Le raisonnement expérimental est
de ce fait absolument le même dans les sciences d’observation et les sciences
expérimentales [Bernard 1865, 125].
Les sciences humaines et sociales se livrent-elles à des expérimentations au
sens strict, ou à des raisonnements expérimentaux au sens de Claude Bernard ?
Quelles en sont alors les caractéristiques, voire les inflexions nécessaires pour
une adaptation à leurs objets d’étude, par rapport à ce qui se fait dans les
sciences de la nature ? On peut rappeler brièvement ici que l’expérimentation
en sciences humaines et sociales paraît soulever certains problèmes spécifiques
d’ordre épistémologique, méthodologique, éthique, politique ou tout simple-
ment pratique – quoique certains d’entre eux se posent également aux sciences
biologiques et médicales. La multitude indéfinie des variables qui constituent
un contexte social, la non-récurrence de leur configuration (leur historicité ?)
et la complexité de leurs interactions sont autant de facteurs qui paraissent
de prime abord s’opposer à la simplification, à l’isolement des facteurs, à la
variation contrôlée et à la réplication qui sont attendus d’un dispositif expéri-
mental. Lorsqu’elles sont possibles, les expérimentations en sciences humaines
et sociales rencontrent également souvent le problème de la « validité externe »
de l’expérience, c’est-à-dire la représentativité à large échelle d’un dispositif
expérimental mis en œuvre dans un contexte très singulier (et dont on peut
parfois contester l’artificialité). Les expérimentations sur des sujets humains se
caractérisent en outre en général, tout particulièrement en sciences humaines
et sociales, par des biais résultant des interactions inconscientes et des inter-
férences inaperçues entre les attentes ou les présupposés des expérimentateurs
et ceux des sujets. Enfin, elles peuvent parfois poser des problèmes éthiques ou
politiques : dommages ou risques « psychologiques » pour les sujets, problèmes
12 Catherine Allamel-Raffin, Stéphanie Dupouy & Jean-Luc Gangloff
Bibliographie
Allamel-Raffin, Catherine & Gangloff, Jean-Luc [2015], Some remarks
about the definitions of contingentism and inevitabilism, dans : Science as
Introduction. Philosopher sur l’expérimentation scientifique 15
it Could Have Been, édité par L. Soler, E. Trizio & A. Pickering, Pittsburgh :
Pittsburgh University Press, 99–113.
—— [2016], What makes a “good” experiment ?, The British Journal for the
Philosophy of Science, 32(4), 367–374, doi : 10.1093/bjps/32.4.367.
16 Catherine Allamel-Raffin, Stéphanie Dupouy & Jean-Luc Gangloff
Gooding, David, Pinch, Trevor et al. [1989], The Uses of Experiment : Studies
in the Natural Sciences, Cambridge : Cambridge University Press.
—— [2003], The idols of experiment. Transcending the “etc. list”, dans : The
Philosophy of Scientific Experimentation, édité par H. Radder, Pittsburgh :
University of Pittsburgh Press, 174–197.
Latour, Bruno & Woolgar, Steve [1979], Laboratory Life. The Construction
of Laboratory Facts, Sage, trad. fr par M. Biezunski, La Vie de laboratoire,
Paris : La Découverte, 1996.
Mesure, Sylvie & Savidan, Patrick [2006], Dictionnaire des sciences hu-
maines, Paris : PUF.
Soler, Léna, Zwart, Sjoerd et al. [2014], Science After the Practice Turn in
the Philosophy, History, and Social, Studies of Science, Londres : Routledge.
Dominique Raynaud
Université Grenoble-Alpes (France)
1 Introduction1
L’idée de Durkheim que la sociologie n’aurait pas « à s’inscrire dans une
épistémologie spécifique, distincte de celle des autres sciences expérimentales »
a été contestée depuis les années 1990 en vue de doter la sociologie d’un statut
épistémologique spécial [en particulier Passeron 1991, 555]. La singularité des
faits sociaux étant un socle commun de la sociologie, de l’anthropologie et de
l’histoire, la sociologie a été assignée à produire un savoir singulier, descriptif,
interprétatif, non expérimental – opposé à l’espace analytique, démonstratif,
explicatif, expérimental des sciences de la nature. Il n’y aurait pas de sens
à parler de réfutation en sociologie car ses « résultats restent indexés sur
une période et sur un lieu ». La sociologie n’utiliserait pas le raisonnement
expérimental mais l’exemplification [Passeron 1991, 366, 386] réhabilitant ainsi
l’illustration jadis condamnée par Durkheim [Durkheim 1895, 165].
Notre point de départ sera que l’épistémologie comparée, développée par
Gilles-Gaston Granger, permet de tester les thèses épistémologiques. Pour que
la méthode expérimentale soit un critère de démarcation, il faut qu’elle soit
présente dans les sciences de la nature et absente dans les sciences de l’homme.
Mais comme la méthode expérimentale se décline en : 1) expérimentation ;
2) méthode hypothético-déductive ; 3) recours à des prédictions2 , chacune
de ces trois conditions peut être passée en revue. Commençons par les
sciences de la nature.
taches solaires sont le siège d’un champ magnétique intense. En 1848, Fizeau
a prédit l’existence d’un décalage des raies spectrales des étoiles présentant
une vitesse radiale par rapport à l’observateur (effet Doppler-Fizeau). Vingt
ans plus tard, Huggins observera le décalage des raies de l’hydrogène de Sirius.
L’astrophysique n’est pas une science expérimentale au sens où elle procéderait
à des expérimentations propres.
2kM
α= ,
c2 ∆
dans laquelle la déviation α est fonction de k (constante de gravita-
tion), M (masse du corps), ∆ (distance du rayon lumineux au centre du
corps), c (vitesse de la lumière). Il montre alors qu’« un rayon lumineux
passant au voisinage du Soleil subirait en conséquence une déviation de
4 × 10−6 rd [= 0,85 seconde d’arc, dans la direction du potentiel de gravitation
décroissant, donc tournée vers le corps céleste] ». La suite explique comment
tester cette prédiction :
sera retenu par l’Armée russe ; les astronomes anglais et français ne pourront
pas faire les observations en raison des mauvaises conditions atmosphériques
[Earman & Glymour 1980].
Entre 1911 et 1916, Einstein introduit la courbure de l’espace-temps,
laquelle conduit à prédire un effet double du précédent. Dans l’article de
1915 : « Explication du périhélie de Mercure par la théorie de la relativité
générale » [Einstein 1915], il montre que la déviation totale du rayon lumineux
à proximité du Soleil est due pour moitié au champ d’attraction newtonien
exercé par le Soleil, pour moitié à la courbure de la métrique d’espace. Un
test pourrait départager la théorie newtonienne (000 85) et la relativité générale
(100 70)3 [Einstein 1915, 172, 196]. L’hypothèse de la déviation de la lumière,
qui n’a pas été observée, est répétée dans le livre de 1916 :
3. Les valeurs actuelles seraient 000 875 et 100 75. Les constantes ayant été affinées,
le calcul fait à partir des données du Bureau des Longitudes [Bureau des Longitudes
1998], donne une valeur un peu supérieure. Avec : k = 6, 672 × 10−11 m3 kg −1 s−2 ,
M = 1, 9889 × 1030 kg, c = 299 792 458 ms−1 , ∆ = 6, 96 × 108 m, on obtient
α = 4, 242758 × 10−6 rd = 000 875.
24 Dominique Raynaud
Première coordonnée Deuxième coordonnée
z }| { z }| {
obs. théo. obs. théo.
No Nom de l’étoile
11 56 Tauri −0, 19 −0, 22 +0, 16 +0, 02
5 Piazzi IV. 61 −0, 29 −0, 31 −0, 46 −0, 43
1
4 k Tauri −0, 11 −0, 10 +0, 83 +0, 74
3 k 2 Tauri −0, 20 −0, 12 +1, 00 +0, 87
6 υ Tauri −0, 10 −0, 04 +0, 57 +0, 40
10 72 Tauri −0, 08 −0, 09 +0, 35 +0, 32
2 Piazzi IV. 82 +0, 95 +0, 85 −0, 27 −0, 09
Tableau 1
et observées de sept étoiles sur les treize qui pouvaient se prêter à une mesure,
valeurs exprimées en secondes d’arc.
Einstein – qui n’avait pas jugé utile de se déplacer – sera informé des
premiers résultats par Hendrick Lorentz. Les mesures ayant été contrôlées,
les résultats seront présentés le 6 novembre 1919 devant la Royal Society.
Les principes de la relativité générale venaient de recevoir leur première
confirmation expérimentale.
Les rééditions successives du petit livre de 1916 comporteront dès lors
un Appendice : « La confirmation de la théorie de la relativité générale par
l’expérience », exposant les résultats du test. Einstein conclut : « Le résultat de
la mesure confirma la théorie d’une façon tout à fait satisfaisante » [Eisenstaedt
2005, 173–175] (en omettant de mentionner l’erreur relative avec laquelle
les déviations observées s’écartaient des valeurs attendues). Les angles de
déviation étant petits, l’écart entre la valeur théorique et la valeur observée
peut être calculé sur le plan tangent à la sphère. L’erreur relative, écart
entre la prédiction et le résultat le plus éloigné de la prédiction (absence de
déviation) était admissible pour le 4-inch installé à Sobral (100 98±0, 12 = 6 %),
rédhibitoire pour l’astrographe de l’Île au Prince (100 61±0, 30 = 18 %), dont les
mesures ne furent pas exploitées. La déflection de la lumière n’a été confirmée
que beaucoup plus tard par VLB Interferometry (déviations de l’ordre de
10−6 secondes d’arc) et par la découverte des lentilles gravitationnelles.
Le raisonnement expérimental en sociologie 25
Mais il est une autre raison pour laquelle cet exemple intéresse l’épistémolo-
gie comparée. C’est qu’il exige de distinguer expérimentation et raisonnement
expérimental. En effet, il n’y eut pas d’expérimentation proprement dite lors de
l’éclipse de 1919, dérogeant à la définition bernardienne de l’expérimentation :
Cela ne met que mieux en valeur l’idée de Bernard selon laquelle ce qui importe
en science n’est pas l’expérimentation mais le raisonnement expérimental.
Durkheim reprendra ce point de vue :
4 L’explication sociologique du
cosmopolitisme universitaire
Pour suivre les partisans d’une épistémologie non-expérimentale aussi loin que
possible, il faut choisir un exemple de recherche où la singularité des faits
sociaux est patente. Cette singularité étant souvent décrite comme caractère
historique (de Windelband à Passeron), le choix d’un cas relevant de la
sociologie historique paraît optimal.
L’hypothèse d’une influence du cosmopolitisme du personnel universitaire
sur la diffusion de l’optique dans les universités médiévales a été émise
en 2002 [Raynaud 2014]. Le taux de cosmopolitisme (fraction des lecteurs
étrangers li au nombre total de lecteurs Li ) a été calculé pour les universités
d’Oxford, Paris et Bologne dans la période 1230-1350 à partir des notices
prosopographiques des lecteurs. Le cosmopolitisme est plus élevé à Bologne
(69 % < CB < 76 %) qu’à Paris (63 % < CP < 65 %) et à Oxford
(6 % < CO < 10 %). Cette variation résulte des propriétés structurales
du réseau des universités médiévales, et en particulier de la « centralité de
proximité », redéfinie par Lin [Lin 1976] sur un graphe orienté [Wasserman
& Faust 1994], qui mesure le nombre de sommets que peut atteindre un
autre sommet du graphe. Considérons le graphe orienté associé au réseau
des universités médiévales (Figure 1). Soit g le nombre total de sommets du
graphe ; Ji le nombre de sommets du graphe dont le sommet i peut recevoir
des informations en un nombre fini de pas, dij la distance géodésique entre les
sommets i et j. Les deux indices sont :
∗ Ji
CC =
i
g−1
et
o Ji /(g − 1)
CC i
= Pg .
(d /Ji )
j=1 ij
Figure 1
Le raisonnement expérimental en sociologie 29
Figure 2
studium est central, plus il lui est facile de recruter des lecteurs étrangers. Aux
valeurs connues, on peut ajouter f (0) = 0. En effet, si CC ∗ = 0, le studium n’est
en contact avec aucun autre : il ne peut recruter que des lecteurs autochtones.
Pour constituer une explication sociologique bien formée, cette proposition
doit être réécrite : plus un studium est central dans le réseau, plus il est aisé
à ses membres de nouer des relations avec les autres studia et d’attirer à eux
les lecteurs étrangers jugés les plus compétents. Un studium central devient
ainsi une organisation plus cosmopolite que les studia excentrés. Cette relation
fait appel aux « règles de l’expérience » de Weber, mais ne sollicite pas de
« désignateurs semi-rigides » procédant d’« une indexation mobile sur une série
de cas singuliers » [Passeron 1991, 61]. Les données sont pour l’instant trop
lacunaires pour s’assurer de la forme exacte de cette relation, mais la fonction
pourrait être du type :
li ∗
Ci = = Cmax [1 − exp(−λCC i
)],
Li
où λ ∼ 4 est un paramètre du réseau. Cette équation signifie que le taux de
cosmopolitisme d’un studium generale varie en fonction directe de sa centralité
de Lin.
On peut s’assurer de la valeur de cette relation en la soumettant à un test.
Le raisonnement expérimental préconise de faire une prédiction à propos d’un
studia generalia dont le taux de cosmopolitisme est inconnu :
En prenant comme base de prédiction les deux indices de centralité
de Lin, on devrait attendre – si ces relations ont un sens –
un taux de cosmopolitisme de 72–75 % pour Assise, 68–75 %
pour Padoue [...] et 8 % environ pour Cambridge. Le test de ces
hypothèses devra probablement attendre des progrès importants
de l’historiographie des studia generalia 5 .
Cette prédiction, qui se déduit de la relation entre cosmopolitisme et
centralité de Lin a été présentée en mai 2002, à une époque où le résultat
était inconnu. Ayant pris l’engagement de faire le test, j’ai cherché un studium
dont les lecteurs pouvaient être déterminés et j’ai trouvé la liste suivante :
Magistri Fratrum Minorum Cantebrigiae (Cambridge, MS Cotton Nero, A.IX,
fol. 78r) [Little 1943, 133–134]. Cette liste couvre la même période (1236-1358)
et comporte environ le même nombre de lecteurs que les précédentes (i.e., 74).
Nous avons suivi la même méthode que dans la détermination des taux de
cosmopolitisme d’Oxford, Paris et Bologne6 . L’application de cette méthode,
5. Prédiction adressée à J.-M. Berthelot le 1er octobre 2003 : « Pour savoir si
l’explication [du cosmopolitisme universitaire à partir de la centralité de proximité
de Lin] est correcte, il suffit de mettre à l’épreuve la prédiction du cosmopolitisme
d’un studium que je n’ai pas étudié. Je me propose d’étudier l’origine des lecteurs
d’un studium afin de calculer son cosmopolitisme (par exemple Cambridge 8 % ou
Padoue 70 %). L’explication donnée en 2002 sera alors soit réfutée, soit corroborée. »
6. Cette méthode affecte le résultat d’un indice de confiance qui permet d’intégrer
l’incertitude au raisonnement plutôt que de feindre un résultat sûr. Li = |{lecteursi }|,
32 Dominique Raynaud
5 Conclusion
Le test de la prédiction du taux de cosmopolitisme du studium de Cambridge
a deux sens distincts. Il a d’abord une signification sociologique : il conforte
le programme de l’analyse des réseaux [social network analysis]. Il a aussi une
signification épistémologique puisque, en établissant la possibilité de raisonner
expérimentalement en sociologie historique – il invalide la thèse que ces
disciplines ne sont pas des sciences expérimentales.
La principale différence entre le raisonnement expérimental en physique et
en sociologie historique tient au fait que l’influence du champ de gravitation
sur la lumière pouvait passer pour contre-intuitive8 dans la physique du début
du siècle (niveau 4), alors que la découverte que le taux de cosmopolitisme
suit la centralité de proximité est – en dépit de sa nouveauté – relativement
conforme aux attentes (niveau 3).
Pourquoi la sociologie est-elle si souvent prise pour une science de
l’interprétation ? Son investissement des pôles « expressif » et « critique » n’est
sans doute pas étranger à cette idée. Mais une part de responsabilité revient
ai = |{lecteurs autochtonesi }|, li = |{lecteurs étrangersi }| permettent la détermi-
nation des valeurs extrêmes Ci max et Ci min :
min(ai ) certo(ai )+probabiliter(ai )
Ci max = 1 −
Li
=1− Li
aussi à Durkheim, qui commet deux erreurs dans les Règles : 1) il répète
l’opinion de Comte quant à l’impossibilité d’une expérimentation directe en
sociologie, ce qui est faux (il existe des expérimentations stricto sensu en
sociologie) ; 2) il identifie abusivement expérimentation indirecte et méthode
comparative, ce qui barre l’accès aux formes les plus avancées du raisonnement
expérimental, qui sont pourtant – malgré leur rareté – attestées en sociologie9 .
Plus généralement, ce résultat engage à douter de l’idée que chaque science
disposerait de normes spéciales de scientificité, puisque ces normes ne peuvent
être décrites qu’à partir des travaux existants, et que les chercheurs sont libres
de suivre un raisonnement expérimental ou non.
Bibliographie
Barbut, Marc [1998], Une famille de distributions : des paretiennes aux
« contra-paretiennes ». Applications à l’étude de la concentration urbaine
et de son évolution, Mathématiques et Sciences humaines, 141, 43–72,
www.numdam.org/item/MSH_1998__141__43_0.
Earman, John & Glymour, Clark [1980], Relativity and eclipses : The British
eclipse expeditions of 1919 and their predecessors, Historical Studies in the
Physical Sciences, 11(1), 49–85, doi : 10.2307/27757471.
Einstein, Albert [1911], Über den Einfluß der Schwerkraft auf die Ausbreitung
des Lichtes, Annalen der Physik, 35, 898–908, doi : 10.1002/andp.200590033,
trad. fr. par Fr. Balibar et al., Œuvres choisies, 2, Paris : Seuil/CNRS, 1993,
134–142.
Jaki, Stanley L. [1978], Johann Georg von Soldner and the gravitational
bending of light, with an English translation of his essay on it published
in 1801, Foundations of Physics, 8(11), 927–950, doi : 10.1007/BF00715064.
Lin, Nan [1976], Foundations of Social Research, New York : McGraw Hill.
Popper, Karl [1935], Logik der Forschung, Vienne : Springer, trad. fr. par
N. Thyssen-Rutten and P. Devaux, La Logique de la découverte scientifique,
Paris : Payot, 1973.
10. Pour une histoire générale des universités médiévales, voir [Rashdall 1936]. Pour
une histoire de l’université de Cambridge, voir [Laeder 1988].
36
Date Lecteur Province d’origine
post 1236 Primus Fr. Vincencius de Couentre1 c. Angleterre
Mag. ant. 1225, ofm 1225 c. Coventry, cust. Worcester
ca 1251 2us Fr. W[illelmus] Pictauensis2 c. Touraine
p. D.Th, ofm c. Poitiers, cust. Niort
ca 1252 3us Fr. Eustachius de Normanuile qui inc. Oxon’ 3 c. Angleterre
M.A., D.Cn., ofm 1251 c. Normanton, cust. York
ca 1253-54 4us Fr. I[ohannis] de Westone4 c. Angleterre
D.Th, ofm p. Weston, cust. Worcester
ca 1254 5us Fr. W[illelmus] de Milton 5 c. Angleterre
D.Th, ofm c. Milton, cust. Cambridge
ca 1255-57 6us Fr. T[homas] de Eboraco sed incepit Oxon’ 6 c. Angleterre
D.Th, ofm 1245, ob. 1269 c. York, cust. York
ca 1257-59 7us Fr. Vmfridus de Hautboys7 c. Angleterre
D.Th, ofm p. Suffolk, cust. Cambridge
ca 1261-63 8us Fr. W[alterus?] de Wynbourne8 c. Angleterre
D.Th, ofm p. Wimborne, cust. Bristol
ca 1263-66 9us Fr. Robertus de Roiston’ 9 c. Angleterre
D.Th, ofm c. Royston, cust. York
ca 1265-67 10us Fr. Walterus de Rauigham 10 c. Angleterre
D.Th, ofm c. Raveningham, cust. Cambridge
ca 1267-69 11us Fr. W[illelmus] de Assewelle11 c. Angleterre
D.Th, ofm p. Haswell, cust. Newcastle
ca 1269-71 12us Fr. Rogerus de Merston’ incepit Oxon’ 12 c. Angleterre
D.Th, ofm, ob. 1303? c. Marston, cust. Oxford
Dominique Raynaud
ca 1271-73 13us Fr. [H?] de Brisigham sed incepit Oxon’ 13 c. Angleterre
D.Th, ofm c. Brisingham (Norf.), cust. Cambridge
ca 1273-75 14us Fr. I. de Letheringset 14 c. Angleterre
B.Th, ofm c. Letheringsett, cust. Cambridge
ca 1275-79 15us Fr. T[homas] de Bungeya sed incepit Oxon’ 15 c. Angleterre
D.Th, ofm c. Bungay, cust. Cambridge
ca 1277-79 16us Fr. Robertus de Worstede16 c. Angleterre
D.Th, ofm c. Worstead, cust. Cambridge
ca 1279-81 17us Fr. Henricus de Apeltre17 p. Cologne
D.Th, ofm p. Appeltern, cust. Deventer
ca 1281-83 18us Fr. Batholomeus de Stalam 18 c. Angleterre
D.Th, ofm c. Stalham, cust. Cambridge
ca 1283-85 19us Fr. Ricardus de Soutwerk 19 c. Angleterre
D.Th, ofm c. Southwark, cust. London
ca 1285-87 20us Fr. Ricardus de Burton’ 20 c. Angleterre
Le raisonnement expérimental en sociologie
Vincent Israel-Jost
Institut Supérieur de Philosophie,
Université Catholique de Louvain (Belgique)
part sur les connaissances qui ont été acquises au sujet de l’organisme par
la voie expérimentale, et qui sont nécessaires à l’instruction de l’observation,
mais aussi à l’expérimentation qui a permis le développement d’une technique
d’investigation. Ce faisant, je tisserai un lien entre le cadre de Bernard, et
celui de la philosophie de la connaissance et de la philosophie des sciences
du xxe siècle, au sein duquel s’est joué le débat sur l’autonomie de la
connaissance observationnelle, le fondationnalisme et la charge théorique de
l’observation. Dans la quatrième section, je montrerai que des difficultés
d’ordre méthodologique, éthique et politique imposent un travail en sciences
humaines venant compléter celui relevant des sciences de la nature.
forme d’un contrôle sur l’envoi des patients en Crète et, comme le relève
Bernard, d’une comparaison que l’esprit entreprendrait d’effectuer entre les
patients soumis à deux régimes bien différents. Sous ces trois angles différents,
le sens restreint de l’expérience s’applique aussi bien au cas qui nous intéresse.
Le deuxième cas est celui où un dispositif instrumenté bien maîtrisé est
utilisé à des fins diagnostiques. Ici, il s’agit de faire subir à chaque patient un
examen pour évaluer sa fonction cardiaque. Des interventions ne seront pas
exclues si l’examen révèle une maladie, mais en lui-même, il n’a d’autre visée
que diagnostique pour orienter dans un second temps le patient vers un possible
traitement. Cet examen ne procède donc pas d’une intention de modifier le
phénomène. Bien au contraire, il s’agit d’évaluer la fonction exactement telle
qu’elle est. Ainsi, la réalisation d’un double examen au repos et à l’effort,
décrite dans la section précédente, ne devrait pas être comprise comme relevant
de l’expérimentation, bien qu’une perturbation semble entreprise entre l’état
au repos et à l’effort. En réalité, l’épreuve d’effort ne vise pas à perturber
le phénomène mais au contraire à le révéler tel qu’il est et qu’il ne s’était
pas manifesté au repos. C’est en cela que nous sommes ici dans le cas d’une
observation que l’on peut qualifier de passive puisque rien n’est entrepris pour
modifier le phénomène. On constate quelque chose et l’on tente de rapporter
cette chose à des pathologies bien répertoriées.
Le dernier cas considéré ici s’abstrait de l’intention vis-à-vis du patient
(expérimentation ou diagnostic) pour considérer le dispositif d’investigation.
Celui-ci repose, on l’a vu, sur l’administration d’un traceur, une molécule
ayant un certain parcours dans l’organisme et qui sert de support à un atome
radioactif, mais aussi sur l’utilisation d’un instrument détecteur, la gamma-
caméra, et d’un protocole d’utilisation qui indique le dosage du traceur, le
positionnement du patient, la durée d’examen, les algorithmes appliqués aux
données pour les reconstruire et les afficher, etc. Ce qui est en jeu ici, c’est la
compréhension des effets d’une variation quantitative ou qualitative de l’une
des dimensions du dispositif d’investigation. Il peut s’agir du développement
d’un nouveau traceur sur lequel on fonde l’espoir qu’il révèlera une fonction
de manière plus précise ou avec un plus faible dosage, ou encore à moindre
coût pour sa fabrication. Une équipe peut aussi recevoir une nouvelle gamma-
caméra ayant un meilleur taux de détection ou une meilleure résolution spatiale
mais qui nécessitera néanmoins de réaliser toute une série de tests. C’est ce cas
que je vais présenter rapidement. Pour plus de détails, je renvoie au dernier
chapitre de [Israel-Jost 2015].
L’arrivée d’un nouvel instrument dans un laboratoire biomédical ne marque
pas l’emploi direct et immédiat de celui-ci en vue d’obtenir des résultats
expérimentaux et d’observation tels que ceux qui viennent d’être évoqués.
L’instrument a certes déjà été testé par le constructeur, mais il s’agit de
machines tellement complexes et fragiles que leur transport dans un autre
endroit aux conditions différentes (température et hygrométrie par exemple)
peut modifier leur performance. Un défaut peut aussi avoir échappé aux tests
Voir, c’est expérimenter 55
abstrait. L’expérience de laboratoire, celle que l’on fait, est concrète, tandis
que l’expérience de la vie ou d’un domaine, celle que l’on acquiert, est abstraite.
Mais sans cette expérience-instruction, il n’est pas de réelle connaissance, ni
observationnelle ni expérimentale, nous dit Bernard.
Le cadre englobant étant posé, que modifie-t-il à notre compréhension des
exemples d’images médicales scintigraphiques ? La frontière entre observation
et expérience s’en trouve déplacée ou plus exactement, elle devient beaucoup
moins nette. Rappelons que dans le cadre restreint de Claude Bernard,
nous n’avons identifié qu’un seul cas d’observation (passif, sans trouble
intentionnellement apporté au phénomène, sans qu’une comparaison soit
entreprise par l’esprit), celui de l’utilisation en routine du dispositif d’imagerie
à des fins diagnostiques. Il s’agissait d’une pure constatation et non d’une
expérience comme les deux autres cas. Or cette constatation, nous devons
maintenant reconnaître qu’elle doit être instruite si nous espérons en tirer
des éléments d’intérêt pour le patient. Ne pas l’instruire revient à se placer
à nouveau dans la peau du novice, et à interpréter les images de la Figure 1
à un niveau élémentaire qui ne peut rien déceler d’autre que des formes et
des couleurs dénuées de sens. Pour en arriver à une interprétation encore peu
élaborée, il a fallu au minimum une courte section présentant les principes
de la technique et l’on peut supposer que leur analyse plus détaillée exigerait
encore davantage d’expérience-instruction, tandis que l’exercice quotidien de
la médecine nous mettrait face à toutes sortes de cas ambigus, complexes
et problématiques qui requerraient encore bien davantage d’expérience. Dès
lors, nous ne pouvons plus considérer un sujet passif, purement récepteur des
faits. Si observation il y a, elle est maintenant incluse dans le raisonnement
expérimental, c’est-à-dire dans la même catégorie que l’expérience. Elle appelle
chez le sujet des capacités tout à fait similaires à celles qui sont requises dans
l’expérience de laboratoire.
Ce nouveau cadre ayant été posé par Bernard, on peut s’interroger sur
son évolution dans le paysage épistémologique qui s’est dessiné au xxe siècle,
et sur son actualité pour analyser la recherche biomédicale telle qu’elle se
pratique aujourd’hui. À ce titre, on peut inscrire tout le mouvement post-
positiviste qui naîtra autour des années 1960, c’est-à-dire environ un siècle
après l’Introduction à l’étude de la médecine expérimentale, dans la lignée de
Bernard. Il s’agit des auteurs qui s’opposeront aux conceptions empiristes
de l’observation pour en nier le caractère autonome, indépendant de la
connaissance déjà acquise, c’est-à-dire de l’expérience-instruction. On pense
à Hanson et à la « charge théorique de l’observation » [Hanson 1958] et aux
autres post-positivistes : Kuhn, Feyerabend ou Toulmin. Tous affirment que
l’observation, pour dévoiler quelque chose, doit reposer non pas seulement sur
la perception (« ce qui est montré » chez Bernard), mais aussi sur l’instruction,
via le langage mais aussi des connaissances plus ou moins spécialisées. Parmi
ces connaissances, sur le cas qui nous occupe ici, il y a d’abord celles qui
portent sur l’objet d’investigation, le corps humain. À tout le moins, il faut
savoir que dans ce corps, le sang circule et irrigue les organes ; ensuite que l’un
Voir, c’est expérimenter 59
d’entre eux, le cœur, est irrigué pour fonctionner. C’est un muscle, alimenté en
sang. Tout cela est important pour parvenir d’une part à identifier l’organe sur
l’image, et d’autre part à comprendre la manière dont il est vu, par le traceur
qui y a été apporté.
Dès le début des années 1960 avec Maxwell, les considérations sur
l’expérience-instruction que doit posséder et faire jouer l’investigateur pour
mener ses observations vont s’enrichir d’une nouvelle dimension [Maxwell
1962]. Il ne s’agit plus seulement de mettre en évidence les connaissances
qui portent sur le domaine de phénomènes considéré, c’est-à-dire ici la
physiologie et la pathologie humaine, il faut compléter cette instruction avec
la compréhension des instruments qui sont utilisés. Le texte de Maxwell,
comme une vingtaine d’années plus tard celui de Hacking [Hacking 1983],
développent un argumentaire visant à montrer que le microscope est un
instrument d’observation. Or, puisqu’un microscope montre les phénomènes
d’une manière tout à fait particulière qu’il faut d’ailleurs décliner en autant
de techniques diverses (microscopie à transmission, à fluorescence, électro-
nique...), il est indispensable que l’utilisateur s’appuie sur une connaissance
rigoureuse de son instrument pour instruire ses observations. Ainsi, bien qu’ils
défendent le rôle observationnel du microscope, ces auteurs ne présentent
plus l’observation dans la perspective empiriste classique. C’est bien une
observation instruite, c’est-à-dire incluse dans le raisonnement expérimental,
qui a cours chez les praticiens.
Ce sont dès lors des questions similaires qui doivent être les nôtres quand
nous considérons les instruments apparus depuis. Qu’est-ce qu’une gamma-
caméra, que détecte-t-elle ? Les réponses à ces questions se trouvent dans ce
que l’on nomme dans la littérature consacrée la « théorie de l’instrument » et
que se doit de posséder quiconque fait usage d’un instrument pour produire
des images. Ces connaissances sont indispensables pour instruire l’observation,
même si la routine et l’aisance, que l’expert dégage dans des situations qui
lui sont familières, peuvent masquer cette instruction à l’observateur. Il n’est
pas passif mais se sent passif parce qu’il applique des schémas d’instruction
de manière quasi-automatique. En soutenant l’idée d’une charge théorique
toujours présente dans l’observation, les post-positivistes se sont opposés au
courant empiriste qui, notamment dans sa forme positiviste logique, avait
proposé une épistémologie fondée sur des connaissances premières, observa-
tionnelles. Dans cette épistémologie fondationnaliste développée notamment
dans [Carnap 1932], l’observation était conceptualisée comme étant directe,
a-théorique ou encore immédiate [Israel-Jost 2015]. Mais aussi attrayante
qu’ait pu paraître cette épistémologie qui construit la connaissance de bas en
haut, du simple au complexe, de l’expérience pure aux élaborations théoriques
les plus sophistiquées, des voix s’élèvent depuis longtemps contre elle, dont
celle de Bernard chez lequel sont discutées les deux positions : l’observation
passive puis instruite.
Le double niveau d’analyse (sens restreint et englobant de l’expérience) de
Bernard se retrouve donc à la fois sur le terrain, dans les investigations en ima-
60 Vincent Israel-Jost
Figure 3 – Liste des facteurs à contrôler lors des contrôles réguliers, principaux
(tableau du haut) et additionnels (tableau du bas). Le premier test (« Uniformity »)
est celui qui a été présenté à la fin de la section 2 (voir Figure 2) et est indiqué comme
devant être réalisé quotidiennement. Certains tests requièrent l’utilisation de divers
objets appelés « fantômes » (Jaszczak phantom et bar phantom). La conception de ces
objets est adapté à la technique qui repose sur l’usage d’un produit liquide radioactif.
Ils sont creusés pour recevoir le traceur et permettent ainsi de tester la résolution
spatiale du système.
Vioxx, Requip...) rappellent les défaillances d’un système dans lequel les
bénéfices sont surévalués et les risques sous-évalués. Dans de nombreux
cas qui sont désormais bien documentés, tout est ainsi fait pour obtenir
l’autorisation de mise sur le marché en optimisant les résultats positifs et
le processus de publication.
Je renvoie aux travaux de Stegenga pour une discussion approfondie
portant sur les méthodes des laboratoires pharmaceutiques pour obtenir des
résultats qui sont favorables à leurs produits. L’une d’entre elle consiste à
sélectionner les patients de sorte à faire figurer dans l’étude ceux dont la santé
est en moyenne meilleure que celle des personnes typiques qui sont affectées
par la même maladie. On y trouve des patients plus jeunes, prenant moins de
médicaments et ayant moins de maladies que la population moyenne des gens
atteints par la maladie que le nouveau traitement est censé soigner [Stegenga
2017, 24]. Il est donc possible de mettre toutes ses chances de son côté, en
comptant sur des patients plus solides que la moyenne, aussi bien pour une
rémission de la maladie que pour affronter les effets secondaires du traitement.
Les essais cliniques sont en outre trop courts et n’impliquent pas assez de
patients pour pouvoir détecter des affections rares ou qui apparaissent après
des années, dues au traitement [Stegenga 2016].
Un autre problème éthique est celui bien connu des méthodes d’op-
timisation du processus de publication. Les laboratoires pharmaceutiques
externalisent souvent la rédaction des articles pour les confier à des structures
dédiées qu’on recense désormais par dizaines [Sismondo 2007], à qui les
données sont confiées, et qui rédigent un article en optimisant sa rhétorique.
Ces structures disposent de l’expertise qui leur permet de publier dans les
meilleures revues scientifiques, là où de véritables équipes de chercheurs
s’attelant à l’écriture d’articles seraient beaucoup moins efficaces. Mieux, c’est
parfois tout le calendrier de la publication qui est prévu bien en amont par
ces structures, au point que l’on ne parle plus seulement de ghost writing
(c’est-à-dire de rédaction fantôme, en sous-main) mais de ghost management
(c’est-à-dire de management ou de gestion fantôme, en sous-main). Ce n’est
qu’en bout de chaîne que des scientifiques sont contactés pour leur « aide »,
leur signature servant de caution scientifique tandis qu’eux-mêmes bénéficient
de publications à leur nom dans des journaux prestigieux.
Ces stratégies sont autant de problèmes à affronter pour la science. Or leur
mise en œuvre, tout comme le combat qui est mené contre elles, relèvent autant
des sciences de la nature que des sciences humaines. Les travaux mentionnés
ici sont l’œuvre de deux philosophes (Stegenga et Sismondo) mais pourraient
aussi bien être ceux de sociologues, anthropologues ou scientifiques. Au-delà
de leurs appartenances disciplinaires, l’approche de ces auteurs passe par une
compréhension approfondie des méthodes qui ont cours actuellement, pour
ensuite mettre au jour la manière dont elles sont détournées. Enfin, leurs visées
sont aussi normatives et ils proposent de revoir les normes scientifiques pour
prévenir les détournements qu’ils ont observés. Cette approche s’appuie donc
sur des éléments scientifiques, par exemple des considérations mathématiques
Voir, c’est expérimenter 65
sur le bon échantillonnage d’une population (sa taille, la diversité des individus
qui la composent, etc.), mais aussi sur des aspects extra-scientifiques qui
relèvent de l’épistémologie et de l’éthique. C’est peut-être une conséquence
paradoxale de l’inscription de la médecine et des sciences du vivant dans les
sciences expérimentales à laquelle Bernard a tellement contribué. Ces sciences
sont comptées parmi les sciences de la nature puisqu’elles en adaptent les
méthodes ; mais dans le même mouvement, le caractère expérimental impose
un cadre réflexif qui ne relève pas strictement des sciences de la nature.
L’évolution de la recherche en sciences biomédicales repose non seulement
sur celle des technologies et de la connaissance scientifique, mais aussi
sur l’articulation de ces avancées avec un travail mené par des chercheurs
en sciences humaines, ou par les scientifiques capables d’élaborer ce cadre
épistémologique et éthique, et dont Bernard demeure avec quelques autres
(Duhem, Canguilhem, Fleck...) l’une des personnalités marquantes.
Bibliographie
Bernard, Claude [1865], Introduction à l’étude de la médecine expérimentale,
Paris : J. B. Baillière.
Daston, Lorraine & Galison, Peter [2007], Objectivity, New York : Zone
Books.
—— [2017], Drug regulation and the inductive risk calculus, dans : Case
Studies of Values in Science Exploring, édité par K. C. C. Elliott &
T. Richards, Oxford : Oxford University Press, 17–36.
Compréhension et expérimentation
face à l’irrationalité
Michel Le Du
Université d’Aix-Marseille –
Centre Gilles-Gaston-Granger, UMR 7304 (France)
1 Genèse du problème
1.1 Empathie
Selon une tradition déjà ancienne, les sciences sociales sont compréhensives et
mettent en œuvre une méthode qui leur est propre. Cette tradition s’oppose au
monisme méthodologique (lequel est souvent d’inspiration positiviste). L’un des
traits caractéristiques du positivisme réside, en effet, dans l’idée que les sciences
4. Dilthey explique, par exemple, que « l’ensemble de la vie psychique forme la base
de la cognition, [...] or nous avons vu que l’avantage méthodologique de la psychologie
tient à ce que l’ensemble psychique lui est donné de façon immédiate et vivante en
tant que réalité vécue » [Dilthey 1924, 157].
5. Il convient notamment de mettre ce semantic turn en rapport avec le travail
de Peter Winch mais, évidemment aussi, celui du second Wittgenstein. L’anti-
mentalisme de ce dernier a inspiré une notion de compréhension articulée à celles
de règle, de pratique et de formes de vie. Comme l’observait Clifford Geertz « La
culture est publique parce que la signification l’est » [Geertz 1973, 216].
6. Geertz est sans doute, parmi les anthropologues, celui qui a mené le plus
loin l’idée selon laquelle « la culture consiste en structures de sens socialement
établies » [Geertz 1973, 216]. Au sein de ces structures, un clin d’œil prend une
valeur symbolique au lieu d’être un simple clignement : c’est pourquoi, à ses yeux,
la culture relève d’une « science interprétative en quête de sens » [Geertz 1973, 210],
sens que l’on trouve même dans les conduites les plus furtives. Il convient donc saisir
le point de vue de l’indigène (ce qui ne signifie pas en devenir un), ce qui a du sens
pour lui, plutôt que d’appréhender ce dernier à travers le cadre fourni par nos propres
70 Michel Le Du
conceptions – ce à quoi, observe Geertz, se ramène souvent ce que l’on place sous le
terme d’empathie [Geertz 1983, 59].
7. Mill soutient par exemple que « les êtres humains en société n’ont pas d’autres
propriétés que celles qui sont dérivées et peuvent se réduire aux lois de la nature de
l’homme individuel » [Mill 1843, 65]. Au nombre de ces lois de la nature individuelle il
faut compter au premier chef les « lois de l’esprit » et notamment les lois d’association.
Mill admettait toutefois que certains faits mentaux, à l’image des instincts, ne
pouvaient s’expliquer par les lois de l’esprit mais seulement par « une connexion
directe et immédiate avec les caractéristiques physiques du cerveau et des nerfs »
[Mill 1843, 45].
Compréhension et expérimentation face à l’irrationalité 71
L’élément significatif est ici que l’auteur considère les éléments psycholo-
giques dont les sciences sociales font mention comme « familiers ». Il fournit
sur ce point un exemple intuitif. Des marcheurs perdus auront tendance à
prendre un sentier déjà visible. C’est ce qui fera que, sur le long terme, le
sentier en question sera de plus en plus nettement tracé, alors même que les
différents marcheurs ne se seront jamais donnés un tel objectif : leur seul but
était de rentrer chez eux10 . Ainsi, comprendre une régularité sociale revient-
il à montrer de quelle manière elle se réalise par la combinaison d’actions
individuelles, même si aucune de ces actions n’avait pour fin déclarée cette
réalisation11 . La question qui se pose est, en réalité, de savoir si les attitudes
concernées sont toujours aussi « familières » que celle avancée pour expliquer
la formation progressive du chemin. Nous allons revenir sur ce point.
3 La présomption de rationalité
On peut rester sceptique devant l’idée que les situations sociales concrètes
seraient moins compliquées que les situations physiques concrètes : il faudrait
disposer, pour l’affirmer, d’une échelle unique à l’aune de laquelle pourrait
s’apprécier la complication des unes et des autres. La seule chose qu’on puisse
raisonnablement soutenir est que, dans certains cas, nous disposons de modèles
idéaux permettant de rendre compte de manière simple des situations sociales.
Mais cela ne suffit pas pour conclure qu’elles sont intrinsèquement moins
compliquées que celles que nous présente la nature physique.
Il serait par ailleurs trop simple de résumer la position qui vient d’être re-
tracée en disant qu’elle assimile purement et simplement « action rationnelle »
et « action compréhensible ». Il y a à cela plusieurs raisons.
1. Weber souligne, par exemple, que l’on ne peut pas ignorer le rôle de
certaines émotions et états affectifs.
Ces actions, au même titre que celles mentionnées en (1) et en (2) ne sont
pas pour autant soustraites par principe au travail de compréhension12 .
& Goldstein 1996]. Lorsque nous devons effectuer un achat ou un choix (par
exemple dans le cadre d’un vote) en un temps bref, nous n’examinons pas
l’ensemble des possibilités, car nous sommes limités en termes d’information
et de capacités cognitives. Nous optons le plus souvent pour une solution
raisonnable en situation d’incertitude, même si cette solution n’est pas, dans
l’absolu, la solution optimale.
Des décisions qui ont l’air irrationnelles peuvent ainsi s’avérer être les
produits de choix effectués sous contrainte : rapportées à leur contexte,
elles ne sont pas exemptes de bonnes raisons. Il se peut également que nos
préférences ne soient pas clairement établies, qu’elles soient floues et chan-
geantes au gré des situations. Les recherches expérimentales sur ces thèmes ont
conduit à la mise en lumière de raccourcis cognitifs (on parle ordinairement
aujourd’hui d’heuristiques de jugements) [Simon 1955]. Le problème de ces
heuristiques est qu’elles peuvent, si l’on en croit notamment Kahneman &
Tversky [Tversky & Kahneman 1974], conduire à des biais de raisonnement.
Plus on se persuade que ces biais sont nombreux et récurrents, plus on a de
raisons de penser que la rationalité des agents en est affectée, et la présomption
de rationalité semble en être ébranlée.
Il est important de noter que les biais figurant dans cette liste n’ont, dans
l’ensemble, nul besoin d’expérimentations pour être entrevus. On s’aperçoit
que beaucoup d’entre eux ont été repérés par les moralistes et les écrivains.
Qui peut s’étonner, par exemple, de la tendance à s’attribuer ses réussites
et à imputer aux circonstances extérieures ses échecs ? L’endowment effect
(également appelé « aversion à la perte ») appelle des remarques similaires.
Si l’on en croit Richard Thaler, l’exhumation du fait que les gens accordent
plus de valeur à ce qu’ils possèdent déjà qu’à ce qu’ils pourraient posséder
constitue une des grandes découvertes de l’économie comportementale. Mais,
comme le fait remarquer Jean-Michel Servet, le contenu de cette assertion
Compréhension et expérimentation face à l’irrationalité 77
savante recoupe celui d’un vénérable dicton lyonnais : « C’est toujours trop
cher quand on achète et jamais assez quand on y vend » [Servet 2018, 29]13 .
Autrement dit, les attitudes en question ne sont pas exotiques : nous
restons, en fait, dans le domaine de la psychologie personnelle14 . Du coup,
l’explication ainsi avancée ne diffère qu’en degré (et non en nature) de celle
qui consiste à expliquer une régularité en la rapportant à la simple tendance à
suivre un chemin déjà emprunté. En un mot, on explique le comportement et
les décisions des êtres humains par des éléments qui, sans être absolument
familiers, ne sont pas pour autant des mécanismes cognitifs occultes ou
« subdoxastiques ». Ce qui précède nous amène à la question suivante : si
l’expérimentation n’a pas pour résultat d’exhumer les biais, au sens où l’on
exhume un mécanisme caché et soustrait de façon permanente à l’introspection,
alors quelle est exactement sa fonction ? Pour le comprendre, il convient de
s’arrêter sur un type tout différent d’expérimentation en science humaine.
13. L’aversion pour la perte, dont il vient d’être question, n’est en rien un trait
universalisable de psychologie des individus : s’il en était ainsi, des phénomènes
comme le potlatch, qui sont thématisés par l’anthropologie depuis des décennies,
seraient proprement inintelligibles [Servet 2018, 30].
14. L’épithète « personnelle » n’est pas dépourvue d’ambiguïtés. Elle est employée
afin de faire référence à des choses (pensées, intentions, etc.) dont l’agent peut faire
état. Pour le dire autrement, les pensées et les intentions tombent sous ce qu’il est
désormais convenu d’appeler l’autorité de la première personne. Ce qui tombe sous
cette autorité relève, dans cette perspective, de la psychologie personnelle, à l’inverse,
par exemple, du mécanisme de reconnaissance visuelle dont nous parlons plus loin.
Néanmoins, les mécanismes cognitifs inconscients sont, eux aussi, personnels (mais
dans un autre sens) à partir du moment où c’est à une personne qu’on les attribue,
quand bien même elle n’en n’a pas la connaissance. Les tendances constituent un cas
intermédiaire : une tendance échappe à l’autorité de la première personne (je n’en
fais pas état comme je fais état de mes intentions), néanmoins, elle n’est pas, par
principe, soustraite à ma conscience : je peux la découvrir en observant mes propres
réactions.
78 Michel Le Du
6 Irrationalité prédictible
6.1 You are so predictable
Comme nous l’avons précédemment indiqué, l’économiste comportemental
Dan Ariely a donné pour titre à son ouvrage Predictably Irrational [Ariely
2008]. Ce titre est l’indication d’une volonté de rupture par rapport à ce
dont nous avons parlé, notamment à la section 3, dans la mesure où l’auteur
considère que, dans un nombre impressionnant de cas, les agents ne sont pas
même approximativement rationnels. Il retient donc des travaux de Kahneman
& Tversky l’idée que différents types de biais affectent la rationalité de
nos décisions. L’irrationalité prédictible prend donc le pas sur la rationalité
limitée. Les comportements concernés ne sont pas plus imprévisibles que ne
le sont des conduites inspirées par de bonnes raisons ; ils ne sont pas moins
compréhensibles non plus : on peut déceler en eux des patterns identifiables.
Ariely illustre notamment son propos par l’examen de deux exemples : les
phénomènes de leurre et d’ancrage 15 .
6.3 L’ancrage
Un individu nommé Assael réussit à mettre en vente des perles noires
provenant de Polynésie dans des boutiques huppées de Manhattan. Elles n’ont
jamais été mises en vente avant, de sorte qu’il n’existe aucun précédent dont
on puisse s’autoriser pour fixer leur prix. En réussissant le « coup de bluff »
consistant à obtenir qu’elles soient placées dans des vitrines au milieu de
produits de luxe, on crée une empreinte permettant de faire passer l’idée
qu’elles sont coûteuses. C’est en cela que consiste l’ancrage.
Ariely parle, à propos de ce phénomène, de « cohérence arbitraire » [Ariely
2008, 23–26]. Une fois la « pilule » de l’ancrage initial avalée, les agents se
comportent de façon cohérente en acceptant de payer ensuite un certain prix
pour des perles similaires. Bien évidemment, ce n’est pas en soi le fait d’agir
en cohérence avec des décisions et des acceptations passées qui est irrationnel.
Si irrationalité il y a, elle est à chercher dans l’acceptation de l’ancrage initial.
Mais ne pourrions-nous pas dire simplement que le consommateur étant sans
80 Michel Le Du
que les biais sont incorrigibles (prendre conscience d’une illusion d’optique
comme celle de Müller-Lyer ne la supprime pas). Or, le fait que nous soyons
souvent plus sensibles aux biais d’autrui qu’aux nôtres ouvre la possibilité
d’une correction mutuelle qui n’a pas d’équivalent dans le cas d’une illusion
d’optique. Il arrive également que le comportement s’avère, sur le long terme,
plus rationnel qu’il ne l’est sur le moment.
7 Conclusions
7.1 Expérimentation vs compréhension ?
Ce qui précède suggère assez qu’il ne saurait être question de mettre les
démarches « compréhensives » et « expérimentales » dans deux enveloppes
distinctes. Les décisions et les choix que l’expérimentation permet d’étudier
s’expliquent par des biais qui doivent être compris. Par rapport à la distinction
que nous avons posée plus haut (explication fournie par la psychologie vs
explication recourant à des concepts psychologiques), nous sommes à la
charnière : une certaine psychologie « scientifique » est ici à l’œuvre, dans
les protocoles expérimentaux comme dans la manière dont les phénomènes
sont labellisés (« heuristiques de jugements », « effet de dotation », etc.),
mais il reste que les phénomènes ainsi élucidés ne sont pas étrangers à notre
compréhension ordinaire de nous-mêmes et de nos erreurs. Il serait d’ailleurs
aisé de reformuler certains biais, de manière à en faire des maximes mettant
en garde le lecteur contre certaines inclinations. Une de ces maximes (inspirée
du second exemple que l’on trouve plus haut) pourrait être : « Garde toi, tant
que tu vivras, de penser d’emblée que tes succès sont imputables à ton talent
et tes échecs aux circonstances. »
L’or peut, en effet, être déposé chez un prêteur sur gage en échange
de liquide, et une telle opération peut s’avérer plus aisée, dans bien des
régions, que celle qui consiste à se rendre dans une succursale de banque,
pour ne rien dire de son cours qui peut être objet de spéculation. Croire
que la rationalité économique ne peut s’incarner que dans les seuls critères
qu’on nous présente comme orthodoxes revient à rejeter comme irrationnels et
assujettis à des biais invisibles des comportements qui sont peut-être informés
par des critères différents de rationalité économique. Sous couvert d’être
expérimentale, l’approche risque de s’avérer impositive et normative.
Bibliographie
Ariely, Dan [2008], Predictably Irrational : The Hidden Forces That Shape
Our Decisions, Harper and Collins, trad. fr. par C. Rosson, C’est (vrai-
ment ?) moi qui décide, Paris : Flammarion, 2011.
Dehaene, Stanislas [2006], Pour une science de la vie mentale, Paris : Fayard.
Duflo, Esther & Banerjee, Abhijit [2012], Poor Economics, New York :
Public Affairs, trad. fr. par J. Maistre, Repenser la pauvreté, Paris : Le
Seuil, 2012.
Flanagan, Owen [1991], The New Science of the Mind, Cambridge : MIT
Press.
—— [1983], Local Knowledge, Londres : Fontana Press, trad. fr. par D. Paulme,
Savoir local, savoir global, Paris : PUF, 2012.
Gigerenzer, Gerd & Goldstein, Daniel G. [1996], Reasoning the fast and
frugal way : Models of bounded rationality, Psychological Review, 103(4),
650–669, doi : 10.1037/0033-295X.103.4.650.
Hempel, Carl G. [1942], The function of general laws in history, The Journal
of Philosophy, 39(2), 35–48, doi : 10.2307/2017635.
Mill, John-Stuart [1843], On the Logic of Moral Sciences, Peru : Open Court,
1988.
Popper, Karl [1957], The Poverty of Historicism, Londres : Routledge, trad. fr.
par H. Rousseau, Misère de l’historicisme, Paris : Plon, 1991.
Sunstein, Cass & Thaler, Richard [2009], Nudge, Improving Decisions about
Health, Wealth and Happiness, Londres : Penguin Books, trad. fr. par M.-
F. Pavillet, Nudge : la méthode douce pour inspirer la bonne décision, Paris :
Vuibert, 2010.
Weber, Max [1913], Essais sur la théorie de la science, Paris : Plon, chap.
Essai sur quelques catégories de la sociologie compréhensive, 301–364,
trad. fr. par J. Freund, Paris : Plon, 1965.
Les essais contrôlés randomisés.
Une comparaison entre
la médecine et l’économie
Arthur Jatteau
Université de Lille,
CLERSÉ, UMR 8019 –
ENS Paris Saclay, IDHE.S, UMR 8533 (France)
Résumé : Depuis le début des années 2000, les essais randomisés contrôlés ont
connu un fulgurant retour sur le devant de la scène académique dans le domaine
de l’économie du développement et plus généralement dans celui de l’évaluation
des politiques publiques. Alors que ses partisans revendiquent une filiation
avec les essais cliniques randomisés en médecine, ces derniers demeurent mal
connus par les économistes. Cet article vise à combler ce manque en proposant
une comparaison de l’usage et des limites des essais contrôlés randomisés
entre la médecine et l’économie. Nous montrons ainsi que si cette méthode
est bien souvent placée au sommet de la hiérarchie des preuves en médecine,
des voix critiques existent et méritent d’être prises en compte pour penser
son application en économie. Nous soulignons également que le traitement du
problème de la généralisation des résultats, très bien documenté en médecine,
permet de nuancer l’intérêt de la méthode en économie.
2. Pour souligner leur attrait pour la randomisation, nous appellerons ces écono-
mistes, s’inspirant de Deaton [Deaton 2010], les « randomistes ».
88 Arthur Jatteau
leur utilisation en même temps qu’elle reconnaît leur utilité. C’est le cas en
médecine, notamment lorsqu’il n’est pas possible, pour des raisons éthiques
ou techniques, de mettre en place un essai clinique randomisé. Le recours aux
autres méthodes est alors légitimé. C’est une première différence entre l’usage
de la randomisation en médecine et en économie.
Si cette hiérarchie semble solidement installée en médecine, il n’en reste
pas moins qu’elle suscite de nombreux débats, parfois dans des termes violents
(certains allant jusqu’à parler de « fascisme » de l’Evidence-Based Discourse
[Holmes, Murray et al. 2006]. Des chercheurs remettent ainsi directement en
cause la randomisation et mettent en garde contre leur glorification [Feinstein
1984].
La raison principale est que les essais cliniques randomisés ne sauraient
être employés pour tout de manière indifférenciée. Pour certaines pathologies
par exemple, c’est souvent impossible ou très compliqué à réaliser, comme en
chirurgie [Abel & Koch 1999]. Dans le cas des cancers du poumon, Michael
Scriven note que l’on n’a jamais établi le lien avec le tabac à l’aide d’essais
cliniques randomisés, pour des raisons éthiques, mais aussi parce que cela
s’avère plus délicat pour des maladies à étiologie multifactorielle [Scriven 2008].
Pour autant, on a su prouver ce lien en l’absence de randomisation avec un
degré de certitude tel qu’aucun chercheur ne s’aventurerait à remettre en
cause le rôle du tabac dans ces cancers. Gordon Smith & Jill Pell traitent
la question avec humour en évoquant la « dramatique » absence d’essais
cliniques randomisés à même de montrer les bienfaits sur la santé de l’usage
d’un parachute lors d’une chute libre [Smith & Pell 2003]. Bien en peine
de trouver ne serait-ce qu’un seul essai à ce sujet, les auteurs critiquent
dans leur conclusion les tenants du « tout essai clinique randomisé », et plus
généralement les partisans de l’EBM, selon lesquels on ne peut rien tirer
d’une étude observationnelle. En médecine, il existe donc une « zone grise »
dans laquelle les canons de l’EBM, en particulier la randomisation, peuvent
difficilement opérer, lorsque ce qui intéresse les chercheurs est peu testable et
a fortiori impossible à prouver [Naylor 1995].
Or, les raisons de l’existence d’une telle « zone grise » sont globalement
ignorées par les économistes qui pratiquent des essais contrôlés randomisés
aujourd’hui, s’appuyant sur une vision simplifiée de l’état de la littérature
autour de ces essais en médecine. Des expérimentations aléatoires sont alors
menées au sujet de politiques dont les bienfaits sont unanimement reconnus
depuis longtemps, comme la distribution gratuite de vermifuges contre les
vers intestinaux [Miguel & Kremer 2004]. Dans certains cas, les résultats
apportés par ces essais contrôlés randomisés viennent simplement confirmer
des connaissances pourtant considérées comme acquises par les acteurs du
développement [Quentin & Guérin 2013].
Les essais randomisés contrôlés 91
On peut aller plus loin dans le parallèle avec la médecine. Certains acteurs
du « mouvement randomiste » (le plus souvent les assistants de recherche, c’est-
à-dire précisément ceux qui sont les plus proches de la pratique expérimentale,
à l’instar des médecins pratiquant les essais, les économistes pratiquant
des expérimentations aléatoires se rapprochant quant à eux davantage des
biostatisticiens faisant essentiellement un « travail de bureau ») reconnaissent
eux-mêmes, implicitement ou explicitement, le caractère flottant de cette
hiérarchie qui placerait la randomisation tout en haut de l’évaluation [Jatteau
2016]. En effet, lorsque l’on écoute leurs discours, on se rend compte qu’en
pratique, loin des discours officiels et de ce que l’on pourrait qualifier de « doxa
randomiste », certains nuancent la supériorité de cette méthode. Pourtant,
dans la littérature comme dans l’orientation de la recherche et des budgets,
force est de constater qu’une seule méthode semble avoir droit de cité.
Figure 1 – Source de l’image [Concato, Shah et al. 2000], reproduction avec l’aimable
autorisation de la MMS – Massachusetts Medical Society.
uniquement des essais randomisés. Comme le notent les auteurs, cela signifie
que ce sont les seuls à aboutir à un résultat de sens opposé à celui du point
moyen (c’est-à-dire de la majorité des essais) : les seuls à se tromper si l’on
admet que la majorité des essais identifient le bon signe du « vrai » effet5 .
Les études non randomisées trouvent quant à elles toujours le bon « sens » de
l’effet, et avec une variance bien moindre. Elles produisent donc des résultats
à la fois plus justes et plus précis.
Que peut-on en retenir ? Que la supériorité des essais cliniques randomisés
en matière d’évaluation n’est pas si unanimement reconnue et que le débat
existe en médecine. Les randomistes, convaincus des bienfaits de la méthode
qu’ils ont adoptée, semblent réfuter a priori les questionnements sur la
hiérarchisation des preuves. Certes, la façon d’utiliser la randomisation en
économie diffère partiellement de celle utilisée en médecine (absence d’usage
de placebos, notamment6 ), mais les points communs sont bien plus nombreux.
5. Précisons que d’autres études trouvent à l’inverse que la variance des essais
randomisés est moindre que les essais non randomisés [Kunz & Oxman 1998], [Benson
& Hartz 2000]. La littérature ne montre ainsi pas une direction univoque en matière
de comparaison entre les deux.
6. On compte cependant au moins une exception [Bulte, Pan et al. 2012].
Les essais randomisés contrôlés 95
Aussi ne peut-on que s’étonner que ces débats autour de la hiérarchie des
preuves en médecine ne trouvent pas davantage d’écho chez les randomistes.
En conclusion provisoire, on peut dire que si la hiérarchie des preuves,
et à travers elle la suprématie des essais cliniques randomisés, ne souffre pas
de remise en cause généralisée en médecine, des questionnements existent,
assortis d’arguments sérieux en faveur de l’utilisation d’une pluralité de modes
d’administration de la preuve. La randomisation, malgré ses qualités qui ne
doivent pas être niées, ne saurait être la solution idéale à tout problème
d’évaluation, et quand elle en constitue une, elle n’est pas toujours la seule.
C’est un enseignement clair que l’on peut tirer de la littérature médicale, et
qui doit nous éclairer sur l’usage qui est fait de la méthode en économie.
3 Conclusion
Que le tirage au sort soit utilisé dans un cadre expérimental pour mesurer
l’effet d’un traitement, en médecine comme en économie, apparaît satisfaisant
d’un point de vue statistique. Théorisée par Fisher dans l’entre-deux guerres
en s’appuyant sur des tentatives antérieures [Fisher 1925, 1935], la méthode de
l’expérimentation aléatoire est depuis utilisée dans de nombreuses disciplines
scientifiques. La médecine est certainement celle qui a contribué à la populari-
ser, à travers les dizaines de milliers d’essais cliniques randomisés lancés depuis
la seconde guerre mondiale [Olkin 1995]. À côté, l’économie fait pâle figure,
même en prenant en compte, en plus de la vague actuelle représentée par
l’économiste Esther Duflo, les expérimentations précoces (et méconnues) de
l’entre-deux guerres [Barbier 2012], comme celles, davantage documentées, des
années 1960-1980 aux États-Unis [Monnier 1992]. La première a emmagasiné
bien plus d’expériences que la seconde, et les discussions théoriques sur la
méthode des essais contrôlés randomisés n’en sont que plus riches. L’hypothèse
de travail de cet article était ainsi que la médecine pouvait faire bénéficier
102 Arthur Jatteau
l’économie de son recul historique supérieur, dont découle une réflexion plus
poussée. Deux éléments en particulier nous semblent devoir être mis en avant.
Le premier invite à nuancer le transfert de hiérarchisation des formes
de preuves qu’ont opéré les randomistes. S’appuyant implicitement sur la
hiérarchie des preuves telle qu’elle est diffusée en médecine, ils arguent de la
supériorité de la randomisation sur toute autre forme de méthode d’évaluation.
Si on retrouve un tel classement dans la littérature médicale, celle-ci comporte
également tout un pan de recherches visant à questionner une telle hiérarchie.
Il apparaît ainsi que même en médecine, le tirage au sort comme outil ultime
pour mesurer l’effet d’un traitement est régulièrement remis en cause. Cela
implique corollairement une (re)valorisation des autres méthodes. Ce relatif
pluralisme méthodologique revendiqué par des chercheurs en médecine, et
plus encore les raisons qui les poussent à le défendre, doivent être considérés
par les randomistes. Il s’agit de sortir d’une posture confortable qui laisserait
entendre que la supériorité d’une méthode aurait été définitivement prouvée,
en se référant à une discipline (la médecine) dont l’aura scientifique, si elle
peut être questionnée, est certainement supérieure à celle de l’économie.
La question de la généralisation se pose différemment, car ce problème
n’est pas nié par les randomistes, mais il demeure néanmoins dévalorisé.
Sur cet aspect également, la littérature médicale permet d’éclairer à quel
point elle est cruciale dans une optique d’application des résultats. Pour
sortir de l’expérimentation et aller vers la généralisation, il faut considérer
la validité externe à sa juste valeur. Cette question est ancienne en médecine,
où les chercheurs se sont depuis longtemps saisis de cette question. Outre
que leurs travaux permettent d’en saisir toute l’importante en économie,
les pistes qu’ils proposent pour le dépasser doivent également être prises en
compte par les randomistes, notamment en ce qu’elles appellent à une diversité
méthodologique accrue.
C’est là l’enseignement principal de cette comparaison entre la médecine
et l’économie à travers le prisme des essais contrôlés randomisés. Quoique
puissant statistiquement, ils apparaissent insuffisants à eux seuls pour remplir
l’objectif qu’on leur assigne : non seulement montrer les effets d’un traitement
dans un cadre expérimental, mais aussi et surtout, montrer quels effets un tel
traitement aurait une fois généralisé.
Bibliographie
Abel, Ulrich & Koch, Armin [1999], The role of randomization in clinical
studies : Myths and beliefs, Journal of Clinical Epidemiology, 52(6), 487–
497, doi : 10.1016/S0895-4356(99)00041-4.
Abraham, John & Reed, Tim [2002], Progress, innovation and regulatory
science in drug development : The politics of international standard-setting,
Social Studies of Science, 32(3), 337–369, doi : 10.2307/3183031.
Les essais randomisés contrôlés 103
Ashraf, Nava, Berry, James et al. [2010], Can higher prices stimulate
product use ? Evidence from a field experiment in Zambia, American
Economic Review, 100(5), 2383–2413, doi : 10.1257/aer.100.5.2383.
Banerjee, Abhijit V. (éd.) [2007], Making Aid Work, Cambridge : The MIT
Press.
Cartwright, Nancy [2007], Are RCTs the gold standard ?, BioSocieties, 2(1),
11–20, doi : 10.1017/S1745855207005029.
Chamayou, Grégoire [2013], Les Corps vils. Expérimenter sur les êtres
humains aux xviiie et xixe siècles, Paris : La Découverte.
Charlton, B. G. & Miles, A. [1998], The rise and fall of EBM, QJM : An
International Journal of Medicine, 91(5), 371–374, doi : 10.1093/qjmed/91.
5.371.
Dodier, Nicolas & Barbot, Janine [2000], Le temps des tensions épisté-
miques : Le développement des essais thérapeutiques dans le cadre du sida,
Revue française de sociologie, 41(1), 79–118, doi : 10.2307/3322655.
Duflo, Esther, Hanna, Rema et al. [2012], Incentives work : Getting teachers
to come to school, American Economic Review, 102(4), 1241–1278, doi :
10.1257/aer.102.4.1241.
Duflo, Esther, Kremer, Michael et al. [2008], How high are rates of return to
fertilizer ? Evidence from field experiments in Kenya, American Economic
Review, 98(2), 482–88, doi : 10.1257/aer.98.2.482.
Eble, Alex, Boone, Peter et al. [2014], Risk and evidence of bias in
randomized controlled trials in economics, Rap. tech., Brown University,
Mimeo.
Ferracci, Marc & Wasmer, Étienne [2011], État moderne, État efficace.
Evaluer les dépenses publiques pour sauvegarder le modèle français, Paris :
Odile Jacob.
Glewwe, Paul, Kremer, Michael et al. [2009], Many children left behind ?
Textbooks and test scores in Kenya, American Economic Journal : Applied
Economics, 1(1), 112–135, doi : 10.1257/app.1.1.112.
Horwitz, Ralph I., Singer, Burton H. et al. [1996], Can treatment that is
helpful on average be harmful to some patients ? A study of the conflicting
information needs of clinical inquiry and drug regulation, Journal of Clinical
Epidemiology, 49(4), 395–400, doi : 10.1016/0895-4356(95)00058-5.
Naylor, C.D. [1995], Grey zones of clinical practice : some limits to evidence-
based medicine, The Lancet, 345(8953), 840–842, doi : 10.1016/S0140-
6736(95)92969-X.
Smith, Gordon C. S. & Pell, Jill P. [2003], Parachute use to prevent death
and major trauma related to gravitational challenge : Systematic review of
randomised controlled trials, British Medical Journal, 327, 1459–1461, doi :
10.1136/bmj.327.7429.1459.
The Lancet [2004], The World Bank is finally embracing science, The Lancet,
364(9436), 731–732, doi : 10.1016/S0140-6736(04)16945-6.
Thornton, Rebecca L. [2008], The demand for, and impact of, learning HIV
status, American Economic Review, 98(5), 1829–1863, doi : 10.1257/aer.98.
5.1829.
Pascal Ludwig
Sciences, Normes et Démocratie,
Sorbonne Université, CNRS, UMR 8011, Paris (France)
Matthias Michel
Sciences, Normes et Démocratie,
Sorbonne Université, CNRS, UMR 8011, Paris (France)
Résumé : En sciences sociales, les scientifiques utilisent les rapports des sujets
sur leurs propres états mentaux dans leurs démarches expérimentales. Ainsi,
l’introspection, ou la capacité des sujets à former des croyances sur leurs
propres états mentaux, y joue un rôle important. Selon les tenants de l’in-
trospectionnisme, l’introspection est une méthode, certes privée, mais qui per-
met de justifier directement des hypothèses scientifiques. Ainsi, contrairement
aux méthodes utilisées dans les sciences de la nature qui se fondent unique-
ment sur des données publiques, les sciences sociales utiliseraient des données
subjectives pour justifier leurs hypothèses. Contre l’introspectionnisme, nous
défendons que l’introspection n’est pas utilisée pour justifier directement les
hypothèses, mais que sa place est plutôt similaire à celle d’un instrument de
mesure des états et processus mentaux des sujets, susceptible d’être calibré,
à la façon dont les instruments de mesure utilisés dans les sciences de la nature
peuvent l’être.
1 La fiabilité de l’introspection
Les introspectionnistes insistent sur le fait que les états mentaux produits par
les mécanismes introspectifs sont aussi susceptibles de constituer de bonnes
raisons de croire, du point de vue des sujets, que ceux qui sont produits par
des mécanismes perceptifs. Pour cette raison, une part substantielle du débat
porte sur la fiabilité de ces mécanismes. Depuis les critiques d’Auguste Comte
[Wilson 1991], puis celle de John B. Watson [Watson 1913], les adversaires
de l’utilisation de méthodes en première personne insistent sur leur manque
de fiabilité [Nisbett & Wilson 1977], [Schwitzgebel 2008], et ceux qui sont
favorables à leur utilisation soutiennent qu’un état mental n’a pas besoin
d’appartenir à un système parfaitement fiable d’acquisition d’information pour
pouvoir conférer des raisons [Goldman 1997], [Kriegel 2013]. Il est tellement
notoire en psychologie sociale que les sujets humains ont souvent du mal
à identifier correctement leurs motivations réelles par introspection que la
question est discutée jusque dans la littérature de vulgarisation [Simler &
Hanson 2018]. Aux arguments des sceptiques, on a répondu d’une part que la
fiabilité de l’introspection varie avec son objet – par exemple, l’introspection
des sensations visuelles, contrairement à l’introspection des motivations, est
supposée fiable [Hatfield 2005], [Kriegel 2013] – ; et d’autre part qu’une
méthode de fixation de croyances n’a pas besoin d’être parfaitement fiable
pour être rationnelle [Goldman 1997], [Kriegel 2013].
Il ne suffit cependant pas que des états mentaux soient produits de façon
fiable pour que les objets de ces croyances soient considérés comme des données
scientifiques. À cet égard, il faut souligner qu’une donnée ne renvoie pas,
dans le discours scientifique à un état mental privé, si fiable soit-il, mais à
une proposition justifiée d’une façon spécifique. Soutenir que l’introspection
peut servir de méthode pour établir des données scientifiques, cela implique
donc que l’on peut accepter non seulement que des croyances fiables sont
114 Pascal Ludwig & Matthias Michel
produites par des méthodes introspectives, mais aussi que ces méthodes
peuvent être mentionnées pour justifier des propositions dans un contexte de
controverse. Pour illustrer ce point, considérons le cas du témoignage [Shapin
1994], [Hardwig 1991]. La communication est un moyen fiable d’acquisition
de croyances [Coady & Antony 1992]. Néanmoins, les historiens des sciences
ont aussi souligné que la mention d’un témoignage ne pouvait servir de
justification scientifique pour une donnée qu’à condition que certaines règles
soient respectées. Ainsi, on exige que la source d’un témoignage soit précisée, et
que ce témoignage soit produit par une personne ayant une certaine crédibilité
[Wootton 2015]. La fiabilité d’un témoin doit, dans un contexte de débat
scientifique, pouvoir être vérifiée. Mais surtout, et c’est le point fondamental,
il faut que la méthode ayant permis d’établir les données soit publiquement
identifiable. Or, nous allons soutenir que ce n’est pas le cas de la méthode
dite « introspective » : ce que recouvre cette appellation est trop flou pour
qu’on puisse considérer qu’il existe une méthode publiquement identifiable
d’établissement des données que l’on pourrait décrire comme « introspective ».
3. Nous remercions Jérôme Sackur pour avoir souligné une nuance à cette asser-
tion, en mentionnant le cas d’un article de [Julesz 1964] présentant une expérience
de disparité binoculaire dans laquelle les sujets ont une illusion de profondeur. Dans
cet article, Julesz ne donne d’autre justification à l’existence de cette illusion que
le fait que les sujets auxquels il a présenté les stimuli ont eu une impression de
profondeur. Cela pourrait constituer un usage direct de l’introspection des sujets
Les données en première personne en psychologie 119
pour justifier l’existence de cette illusion. Néanmoins, nous pensons que, dans ce
type de cas, l’accord universel des individus doit plutôt être vu comme une donnée
publiquement accessible qui justifie l’adoption d’une hypothèse par inférence à la
meilleure explication. Ce n’est donc pas l’introspection de chaque sujet qui justifie
l’hypothèse.
4. Pour plus de détails sur les expériences de type A et de type B, voir [Brindley
1970].
120 Pascal Ludwig & Matthias Michel
qualité de vie, en fonction de ses propres critères [Shin & Johnson 1978, 478].
Pour cette raison, l’échelle de cinq items introduite en 1985 pour mesurer le
bien-être subjectif « est conçue autour de l’idée qu’il faut demander aux sujets
de produire un jugement global sur leur satisfaction dans la vie » [Diener,
Emmons et al. 1985, 71–72]. Certaines des questions dans l’échelle mobilisent
l’introspection. Ainsi, l’item 1 demande de réagir au jugement suivant :
« globalement, ma vie est proche de mon idéal », et l’on ne peut pas juger
de son idéal de vie sans s’interroger sur ses propres croyances et aspirations.
En théorie, la réponse du sujet pourrait reposer sur une observation détachée,
en troisième personne, de son propre comportement et de ses attitudes : on lui
demande avant tout de porter un jugement sur sa vie, pas sur ses états mentaux
à l’instant t du jugement. Les concepteurs de l’échelle du bien-être subjectif ne
s’interrogent d’ailleurs pas sur les mécanismes introspectifs impliqués dans la
mesure. Du point de vue méthodologique, ce n’est pas un problème pertinent
dans un premier temps : ce qui importe, en priorité, est d’une part de
vérifier la fiabilité de l’échelle, c’est-à-dire sa capacité à produire des mesures
cohérentes et reproductibles, et sa validité, c’est-à-dire le fait qu’elle mesure
bien les phénomènes qu’elle est censée mesurer. Or, il est possible de vérifier,
par des moyens statistiques, la fiabilité d’un instrument de mesure même
lorsqu’on ne comprend pas complètement la façon dont fonctionne l’instrument
[John & Benet-Martínez 2014].
Dans un second temps, la question du rôle de l’introspection dans la
procédure de mesure est apparue dans les discussions, en particulier lorsque
des interrogations concernant sa validité ont surgi. Ainsi, Norbert Schwarz &
Fritz Strack ont souligné que les valeurs obtenues lorsqu’on utilise l’échelle du
bien-être subjectif étaient fortement dépendantes du contexte : elles peuvent
être facilement biaisées par l’information accessible au sujet au moment où
il répond, mais également lorsqu’on l’incite à comparer sa propre situation
présente à celles d’autres personnes [Schwarz & Strack 1999]. Schwarz et
Strack en ont déduit que les réponses au questionnaire sont causées par les
émotions et les sentiments que les sujets éprouvent au moment de la réponse,
et non par des attitudes stables dans le temps [Schwarz & Strack 1999, 61].
Autrement dit, il se peut que les sujets répondent en se fondant essentiellement
sur leur évaluation introspective, au moment t, de leurs émotions positives et
négatives relatives à leur vie. En conséquence, ces auteurs, ainsi que d’autres
psychologues et économistes, ont proposé de remplacer l’échelle du bien-être
subjectif par une mesure complètement différente, reposant sur l’agrégation de
mesures introspectives instantanées se rapportant à des expériences subjectives
de bien-être des agents [Kahneman, Krueger et al. 2004].
La question du rôle causal de l’introspection intervient donc de façon cen-
trale dans le débat, mais jamais comme une question épistémologique concer-
nant la fiabilité d’une méthode d’observation interne. Lorsque l’introspection
se trouve discutée, c’est en tant que capacité jouant un rôle instrumental dans
la mesure et non en tant que justification observationnelle plus ou moins fiable
de phénomènes mentaux. Le problème principal qui se pose est au fond un
124 Pascal Ludwig & Matthias Michel
connaissance des processus et états occurrents d’une part, comme les émotions
ou en général les expériences conscientes, et l’introspection des états disposi-
tionnels, que l’on ne peut pas identifier à des événements ou à des processus
ayant un début et une fin, comme les préférences ou les croyances [Cassam
2014]. Il est devenu courant en psychologie sociale, depuis la publication de
l’article de Nisbett & Wilson [Nisbett & Wilson 1977], de considérer que
l’introspection des états dispositionnels est un processus inférentiel complexe,
qui peut donner lieu à des formes de confabulation [Ludwig & Michel
2017]. Il en découle qu’utiliser cette forme d’introspection comme instrument
de mesure peut s’avérer méthodologiquement problématique. En revanche,
plusieurs études suggèrent qu’il est possible, dans le cas de l’introspection
des états ou des processus occurrents, d’établir des corrélations entre les
données subjectives et des facteurs causaux objectifs. Les sujets peuvent
évaluer introspectivement la visibilité d’un stimulus [Overgaard, Rote et al.
2006], leur sentiment subjectif d’effort mental lors de la réalisation d’une
tâche cognitive [Naccache, Dehaene et al. 2005], le sentiment d’agir associé au
contrôle moteur [Moore, Wegner et al. 2009], certaines caractéristiques d’une
action mentale, comme le nombre d’objets vers lesquels l’attention visuelle
a été dirigée lors d’une recherche visuelle [Reyes & Sackur 2014], ou encore
certains aspects du déploiement de l’attention visuelle [Reyes & Sackur 2017].
De tels mécanismes introspectifs sont utilisés depuis longtemps pour mesurer
les états ou processus occurrents9 . Mais ce qui est nouveau et significatif, c’est
que certaines équipes étudient ces instruments de mesure introspectifs eux-
mêmes comme des mécanismes, en établissant des corrélations entre mesures
objectives et mesures subjectives, et en essayant d’expliquer ces corrélations
de façon causale à partir des meilleures théories disponibles. Ici encore, la
démarche est semblable à celle que l’on a pu décrire en physique, lorsque la
mise en corrélation des résultats de plusieurs procédures de mesure permet de
valider les instruments10 . Étudier les mécanismes de l’introspection elle-même
sera probablement nécessaire pour pouvoir calibrer les procédures de mesure
subjectives plus efficacement.
5 Conclusion
S’il est incontestable que les données subjectives, acquises par des processus
introspectifs, jouent un rôle important dans les sciences humaines – tout
particulièrement en psychologie –, il ne s’agit pas d’un rôle de justification
directe des hypothèses, du moins pour ce qui concerne la psychologie expéri-
mentale. L’introspection est utilisée dans les contextes d’observation et d’expé-
rimentation essentiellement pour manipuler et mesurer des phénomènes qui,
9. C’est en particulier le cas dans le domaine de la psychologie des émotions et
des affects [Quigley, Lindquist et al. 2014].
10. Voir en particulier l’analyse de cette procédure de validation, à propos du
microscope, dans [Hacking 1981].
126 Pascal Ludwig & Matthias Michel
Bibliographie
Alexandrova, Anna [2008], First-person reports and the measurement
of happiness, Philosophical Psychology, 21(5), 571–583, doi : 10.1080/
09515080802412552.
Bogen, James & Woodward, James [1988], Saving the phenomena, The
Philosophical Review, 97(3), 303–352, doi : 10.2307/2185445.
Brindley, Giles Skey [1970], Physiology of the Retina and Visual Pathway,
Londres : Edward Arnold.
Diener, Ed, Emmons, Robert A. et al. [1985], The satisfaction with life
scale, Journal of Personality Assessment, 49(1), 71–75, doi : 10.1207/
s15327752jpa4901_13.
Lindenfeld, David [1978], Oswald Külpe and the Würzburg school, Journal of
the History of the Behavioral Sciences, 14(2), 132–141, doi : 10.1002/1520-
6696(197804)14:2<132::AID-JHBS2300140206>3.0.CO;2-4.
Moore, James W., Wegner, Daniel M. et al. [2009], Modulating the sense of
agency with external cues, Consciousness and Cognition, 18(4), 1056–1064,
doi : 10.1016/j.concog.2009.05.004.
Simler, Kevin & Hanson, Robin [2018], The Elephant in the Brain : Hidden
Motives in Everyday Life, New York : Oxford University Press.
Wilson, Fred [1991], Mill and Comte on the method of introspection, Journal
of the History of the Behavioral Sciences, 27(2), 107–129, doi : 10.1002/1520-
6696(199104)27:2<107::AID-JHBS2300270202>3.0.CO;2-M.
Thomas Bonnin
Exeter Centre for the Study of the Life Sciences (Egenis),
University of Exeter (Grande-Bretagne)
Jonathan Lombard
Department of Cell and Molecular Biology, Science for Life
Laboratory, Uppsala University (Suède)
Résumé : Cet article propose une étude conceptuelle d’une pratique scien-
tifique. L’analyse phylogénétique, méthode phare en biologie de l’évolution,
permet d’inférer les relations évolutives entre différentes espèces ou organismes.
De nos jours, elle fait souvent intervenir l’usage de données moléculaires, dont
les résultats sont appelés des phylogénies moléculaires. Comment caractériser
cette pratique ? Nous commençons par une présentation de la méthode, en
la découpant en quatre étapes : (1) l’identification puis (2) l’alignement de
séquences homologues (descendants d’un ancêtre commun) ; (3) la construc-
tion puis (4) l’interprétation d’un arbre phylogénétique. Nous montrons que
l’analyse phylogénétique n’est pas une expérimentation, et donc n’appartient
pas au « style de laboratoire », tel que défini par Hacking. Elle ne correspond
pas non plus à une méthode typique des sciences historiques, telle que décrite
par Cleland. Bien que la correspondance de l’analyse phylogénétique avec ces
catégorisations ne soit que partielle, nous défendons l’utilité de chacune de
ces confrontations pour souligner des aspects distincts de cette pratique. Nous
remettons aussi en cause l’idée d’une séparation méthodologique nette entre
sciences expérimentales et sciences historiques.
1 Introduction
Si ce numéro spécial de la revue Philosophia Scientiæ propose une comparaison
des formes d’expérimentations à l’œuvre dans les sciences de la nature et dans
les sciences humaines et sociales, cet article prend deux tangentes qui, nous
l’espérons, déboucheront quand même sur une contribution pertinente.
La première concerne le type de science analysée. Nous nous intéressons à
une pratique appartenant aux sciences historiques. Plus précisément, l’article
s’intéresse à la description de l’analyse phylogénétique (et plus particulière-
ment, de la phylogénie moléculaire), une méthode principalement employée
en biologie évolutive. Cette pratique constitue l’outil privilégié pour étudier
l’histoire du vivant depuis l’apparition des premières formes de vie sur Terre
jusqu’au suivi des nouvelles résistances aux antibiotiques dans le présent. Cet
outil combine des connaissances fonctionnelles provenant d’autres domaines
biologiques et des données moléculaires au profit d’études évolutives qui sont,
par définition, historiques. Il ne s’agit donc pas d’une pratique « typique » des
sciences naturelles, au sens où elle ne cherche pas à dégager les régularités
et les lois qui régissent le comportement des choses, mais à décrire une suite
temporelle d’événements contingents.
La seconde tangente concerne la manière dont cette pratique est habituel-
lement définie. Contrairement à d’autres contributions de ce numéro spécial,
l’analyse phylogénétique n’est pas, à notre connaissance, considérée comme une
forme d’expérimentation. Tout en se basant sur la comparaison d’organismes
actuels, les études phylogénétiques essayent de fournir un regard sur des
événements passés et contingents sur lesquels il est impossible d’intervenir,
et que l’on ne peut pas reproduire. Cette méthode n’essaye d’ailleurs pas
de déterminer des événements à l’échelle d’organismes spécifiques du passé,
mais plutôt de générer une représentation du phénomène évolutif dans
Situer l’analyse phylogénétique 133
2 L’analyse phylogénétique
L’analyse phylogénétique constitue un des outils principaux de la biologie
évolutive. Elle s’inspire de l’idée d’arbre généalogique. Une généalogie est
une figure arborescente qui montre les liens génétiques qui connectent les
ancêtres à leurs descendants. Il s’agit d’une nécessité théorique découlant
d’un présupposé fondamental de la biologie, qui postule l’existence d’une
parenté commune plus ou moins éloignée dans le temps pour expliquer les
similarités observées entre les êtres vivants. Afin d’étudier ces relations, la
biologie évolutive utilise les caractéristiques communes entre organismes pour
reconstruire des arbres phylogénétiques (ou « phylogénies ») qui représentent
le lien de parenté existant entre les caractéristiques étudiées. Ces relations sont
souvent employées pour inférer les relations de parenté entre espèces.
134 Thomas Bonnin & Jonathan Lombard
Les premiers caractères à avoir été utilisés pour effectuer ces comparaisons
étaient « morphologiques », c’est-à-dire des caractéristiques « visibles » des
êtres vivants, tels que l’ossature des animaux. Les analyses phylogénétiques
sont maintenant souvent effectuées à partir de caractères « moléculaires »,
correspondant aux séquences d’ADN et de protéines. Ce type d’analyse
a suivi un développement fulgurant depuis les années 1960, notamment
grâce à l’accumulation de données génomiques permise par l’avènement des
technologies de séquençage [Suárez-Díaz & Anaya-Muñoz 2008]1 .
Les caractères moléculaires ont constitué une révolution méthodologique
au sein de l’analyse phylogénétique. Les séquences d’ADN sont toutes
constituées des mêmes bases nucléotidiques. Le code génétique, c’est-à-dire la
correspondance entre un triplet de nucléotides et un acide aminé constituant
des protéines, est le même pour la quasi-totalité des organismes. Cette
constante presque universelle du vivant au niveau moléculaire fournit une base
comparative unique exploitée par les analyses phylogénétiques moléculaires.
L’utilisation de caractères moléculaires possède de nombreux avantages.
D’abord, il y a dans chaque organisme beaucoup plus de gènes et de
protéines que de traits morphologiques. Chaque nucléotide d’un gène ou
acide aminé d’une protéine constitue potentiellement un caractère comparable
entre espèces. Ainsi, les caractères moléculaires permettent de comparer des
organismes tellement différents morphologiquement qu’ils seraient difficiles à
comparer, ou tellement proches qu’ils seraient difficiles à distinguer. Tel est
le cas, par exemple, de l’évolution des microorganismes (protistes, bactéries,
archées), dont la diversité était difficile à mesurer morphologiquement aupa-
ravant [Castelle & Banfield 2018].
Étant donné la profusion de caractères moléculaires, la première étape
de l’analyse phylogénétique consiste en la recherche de séquences issues d’un
dernier ancêtre commun, qui puissent être comparées.
l’argument est statistique. Sachant qu’un petit gène est composé d’environ
600 nucléotides, et qu’il existe 4 types de nucléotides, cela veut dire qu’il
existe, pour un gène de cette taille, 4600 , soit ∼ 10260 combinaisons possibles
de nucléotides de cette longueur. Pour une petite protéine de 200 acides aminés
et sachant qu’il existe 20 acides aminés différents, le nombre de combinaisons
aléatoires possibles est de 20200 , soit 10361 combinaisons possibles. À titre de
comparaison, le nombre d’atomes existants dans l’univers est estimé à 1080 . La
détermination d’homologies se base donc sur le présupposé que la ressemblance
entre deux séquences d’ADN ou de protéines ne puisse pas être due au hasard,
surtout si l’on sait par ailleurs que les fonctions des protéines codées par ces
gènes sont les mêmes, ou très similaires, entre les différents organismes qui les
portent. Au contraire, ces ressemblances trahissent une descendance commune.
Cette recherche de séquences similaires ne peut pas se faire manuellement.
La taille des séquences concernées, le nombre possible de leurs variantes et
l’ampleur des bases de données de séquences d’ADN et de protéines rendent
nécessaire l’emploi de méthodes heuristiques. Ces méthodes cherchent à
explorer les « meilleures possibilités » en un temps réduit pour rendre l’analyse
possible. Aujourd’hui, les outils les plus largement utilisés pour effectuer cette
tâche sont le Basic Local Alignment Search Tool (BLAST) [Altschul, Gish
et al. 1990] et ses dérivés. BLAST calcule un « score de similarité » entre deux
séquences potentiellement homologues. Ce score ne se limite pas à compter le
nombre de sites identiques entre les deux séquences, mais pondère la présence
d’éventuelles mutations par l’utilisation d’une « matrice de substitution ».
La matrice de substitution rassemble les différentes fréquences de sub-
stitution d’un acide aminé à un autre. En effet, toutes les mutations n’ont
pas la même fréquence. Cela s’explique d’abord par la redondance du code
génétique (toutes les mutations de l’ADN n’impliquent pas un changement
de l’acide aminé correspondant). Cela vient aussi des propriétés chimiques
spécifiques des acides aminés. La sélection naturelle tend à conserver des acides
aminés avec des comportements chimiques proches, qui auront un impact
moindre sur l’activité de la protéine en question. La matrice en elle-même
est construite en fonction de données empiriques sur les fréquences relatives
de chaque type de mutation.
La pertinence de la similarité entre deux séquences est indiquée par
l’e-value calculée par BLAST, qui mesure les chances de retrouver par hasard
ce même score de similarité pour une séquence de cette taille au sein de la
base de données utilisée. Plus l’e-value est faible, moins le score de similarité a
de chances d’être le résultat du hasard. En pratique, le seuil d’e-value à partir
duquel la similarité de séquences n’est plus considérée comme pertinente est
arbitraire, mais doit être explicitement signalée par l’utilisateur.
136 Thomas Bonnin & Jonathan Lombard
A – – LP–TRR–PY– – – – – – –DSATAP–GYMAVGDAAAHV-N
B – – LP–TRR–PY– – – – – – –DSATAP–GFMAVGDAAGHV-N
a.
C – – LP–TRR–PY– – – – – – –DSAVHP–GYMAIGDAAGHV-N
D – – LP–TRR–PY– – – – – – –DSAVHP–GYVAIGDAAGHV-N
A LPTRRPDSATGYMAVGDAAAHVN
B LPTRRPDSATGFMAVGDAAGHVN
b.
C LPTRRPDSAVGYMAIGDAAGHVN
D LPTRRPDSAVGYVAIGDAAGHVN
que le nœud proposé soit validé. Il est en effet tout à fait possible que le
haut degré de soutien obtenu soit le résultat d’un artefact méthodologique,
d’un biais d’échantillonnage ou du choix d’un modèle d’évolution inadapté.
Pareillement, ce n’est pas parce qu’un nœud est faiblement soutenu qu’il
est nécessairement faux. On parle ici plutôt d’un nœud « non résolu ». Les
discussions et validations finales des résultats se font en comparant les arbres
obtenus avec d’autres analyses, où (1) les mêmes données sont soumises à
d’autres méthodes d’alignement, de trimming, de reconstruction d’arbres ou
à d’autres modèles d’évolution ; ou bien (2) d’autres données sont employées,
en comparant, par exemple, la phylogénie du (des) gène(s) d’intérêt à celle
d’autres gènes ou de phylogénies indépendamment obtenues.
Après cette présentation succincte de l’analyse phylogénétique, que peut-on
dire sur le type de pratique que cela constitue ? L’analyse ci-dessous confronte
l’analyse phylogénétique et les arbres phylogénétiques à diverses manières
potentielles de le conceptualiser.
variables d’intérêt sur le système cible afin d’étudier leurs rôles. Dans l’analyse
phylogénétique, on ne s’intéresse pas à l’évolution spécifique de certains des
homologues isolés, mais plutôt aux relations généalogiques de l’ensemble des
homologues. L’étape qui « transforme » l’ensemble des séquences isolées en
arbre phylogénétique peut être perçue comme une intervention sur le système
cible, effectuée avec l’aide d’un ensemble d’outils computationnels. Cependant,
il ne s’agit pas, comme dans une expérimentation, de modifier de manière
contrôlée le comportement du système cible, mais plutôt de restituer le
déroulement des relations phylogénétiques entre espèces vivantes. Enfin, de
nombreuses méthodes sont employées pour évaluer la qualité des produits
obtenus après chaque étape de l’analyse. On peut citer la vérification de
l’e-value, la comparaison des résultats entre méthodes d’alignement ou re-
construction phylogénétique, entre différents modèles évolutifs ou l’évaluation
de la robustesse des résultats. Cet ensemble de mesures est orienté vers
l’amélioration de la reproductibilité des résultats obtenus.
Pour résumer, si l’analyse phylogénétique en possède certains éléments
caractéristiques, elle ne peut pas, à proprement parler, être définie comme
une expérimentation. Malgré cette inadéquation, nous allons, dans un second
temps, montrer la correspondance, à nouveau partielle, entre cette pratique
scientifique et le « style de laboratoire » défini par Hacking.
Sur le plan des idées, Hacking identifie d’abord les questions, les raisons
pour lesquelles une expérimentation est mise en œuvre. Elles correspondent
ici aux enjeux historiques et classificatoires à propos desquels les analyses
phylogénétiques cherchent à apporter des éléments de réponse.
Ensuite, il identifie la théorie, qu’il divise en trois types d’éléments,
ces distinctions étant plus ou moins graduelles selon la discipline concernée
[Hacking 1992a, 44]. Les savoirs d’arrière-plan et les théories systématiques
sont les présupposés et attentes théoriques, respectivement non-systématisés
et systématisés, qui sont tenus pour acquis dans la formulation d’une expéri-
mentation. Bien qu’elles soient nécessaires à la création d’une expérimentation,
ces théories n’ont pas ou peu de conséquences concrètes immédiates. Ici, ces
savoirs correspondent aux théories concernant l’évolution et le fonctionnement
des organismes (en particulier sous leurs aspects moléculaires).
Ces savoirs sont reliés avec la situation empirique concrète à l’aide
d’hypothèses topiques faisant la connexion entre les théories abstraites
mobilisées et les phénomènes concrets étudiés. Au sein de la phylogénie
moléculaire, ces hypothèses correspondent aux matrices de substitution et
aux modèles d’évolution employés pour identifier et aligner des homologues
puis pour reconstruire les relations phylogénétiques à partir de la similarité
des séquences alignées. Le choix de ces modèles est aussi régi par des
contraintes plus pragmatiques provenant souvent des limites des ressources
computationnelles à disposition.
Le dernier composant de ces idées correspond aux modèles des appareils
employés lors de l’analyse. Ici, il s’agit des différents programmes informatiques
employés tout au long de l’analyse phylogénétique. Ces programmes ne
cherchent pas nécessairement à intégrer des savoirs mis en jeu lors de l’analyse,
mais à rendre cette analyse possible par l’emploi de l’outil informatique. Ils
sont en ce sens similaires aux éléments d’un microscope employés pour étudier
les structures cellulaires.
Sur le plan des choses, Hacking identifie la cible de l’expérimentation. Celle-
ci correspond aux « substances ou populations étudiées » [Hacking 1992a, 46,
notre traduction]. Elle peut être préparée afin que certaines de ses composantes
soient mises en avant pour permettre l’analyse. Ici, les cibles sont les séquences
d’ADN et de protéines, qui constituent des « archives » de l’histoire du vivant,
elles-mêmes archivées et accessibles au sein de bases de données.
Les interventions sur la cible sont effectuées par les sources de modification.
Les résultats de ces modifications sont ensuite perçus par des détecteurs et
enregistrés par des générateurs de données. Ces processus sont facilités par
un ensemble d’outils, objets moins spécifiques d’une situation expérimentale
donnée, mais nécessaires à leur déroulement. Cet ensemble de choses contri-
buant à la génération de données est, dans le cas de l’analyse phylogénétique,
intégralement constitué par les outils informatiques de stockage, de calcul et de
visualisation, distribués au sein d’un vaste réseau de programmes, ordinateurs,
142 Thomas Bonnin & Jonathan Lombard
réseaux et serveurs. C’est par le biais de cet ensemble informatique intégré que
les interventions sur les séquences préparées sont effectuées.
Enfin, les marques sont les résultats de l’interaction des choses avec les
idées. Parmi ces marques se trouvent, d’abord, les données, que Hacking
considère comme le produit « brut » de l’intervention effectuée. Les données
sont, ensuite, traitées afin d’être rendues intelligibles et adaptées aux questions
auxquelles elles sont destinées à répondre. Les arbres phylogénétiques publiés
sont le produit final de ce processus. Ce sont ces derniers qui circuleront
principalement hors de leurs laboratoires d’origine.
Hacking distingue deux composantes de ce processus de traitement de
données. Lorsque ce processus n’est pas dirigé par des considérations théo-
riques, il parle de réduction des données. Cela correspond, par exemple, à
l’amélioration des qualités esthétiques de l’arbre obtenu. Lorsque ce pro-
cessus est dirigé par des considérations théoriques, telles que la question
sous-jacente ou les modèles employés lors du protocole, il parle d’ana-
lyse des données. Ici, cela peut correspondre à la mise en avant de cer-
taines séquences particulièrement pertinentes pour le questionnement initial.
Cela aboutit à l’obtention de données qui, avec l’aide de principes théoriques
et en lien avec la question soulevée, permettent d’effectuer une interprétation
à la lumière de la question initiale.
par Hacking mettent en avant la relation indirecte entre des théories de « haut
niveau » et les hypothèses topiques plus concrètes. Comment, plus concrète-
ment, les connaissances sur l’évolution et le fonctionnement des organismes
sont-elles intégrées dans les modèles employés ? Comment permettent-elles de
légitimer les résultats obtenus ? De surcroît, comment les résultats obtenus
par d’autres méthodes (s’il y en a) permettent-ils d’accroître ou de saper la
confiance envers un arbre phylogénétique ?
Pour résumer, nous jugeons que la confrontation de l’analyse phylogé-
nétique avec le style de laboratoire est philosophiquement fructueuse. Elle
permet non seulement de clarifier les différents éléments de cette pratique,
mais aussi de générer de nombreuses investigations concernant les modalités
de légitimation de ses résultats.
comme des « outils utiles empruntés à d’autres disciplines dans des buts
précis » [Cleland 2011, 566, notre traduction].
Au regard de l’analyse développée dans les sections précédentes, cette
conception de la méthodologie des sciences historiques semble incomplète et
inadaptée au cas de la pratique de l’analyse phylogénétique. Le séquençage
d’une diversité toujours plus étendue d’organismes constitue toujours une
tâche essentielle des approches phylogénétiques. En effet, l’obtention de
nouvelles données peut permettre d’éviter des artefacts liés à des biais
d’échantillonnage, d’étoffer la connaissance sur l’évolution d’un groupe connu
ou même la description de nouveaux groupes préalablement inconnus. Cela
peut avoir des effets importants sur la validité des hypothèses évolutives
disponibles. Pour ces raisons, les phylogénéticiens sont, d’une certaine manière,
en manque de données.
D’un point de vue pratique, cependant, la situation actuelle indique
plutôt l’inverse. De fait, les immenses bases de données apportent déjà une
surabondance de données disponibles. Cela fait de la sélection de séquences
pertinentes une préoccupation majeure des pratiques phylogénétiques actuelles
[O’Malley 2016]. La principale limite des démarches phylogénétiques n’est ainsi
plus la capacité à trouver de nouvelles données, mais le développement de
méthodes qui permettent d’en extraire les informations voulues. Cela passe
par le développement d’une panoplie d’outils et de logiciels opérationnalisant
de nombreux modèles et concepts à chaque étape de l’analyse phylogénétique,
comme présenté ci-dessus. Ce développement fait l’objet de ce que Suárez-
Díaz & Anaya-Muñoz [Suárez-Díaz & Anaya-Muñoz 2008] décrivent comme
une « anxiété méthodologique » de la part des biologistes de l’évolution. En
somme, il est désormais difficile de considérer, comme le fait Cleland, ces enjeux
comme « secondaires » à la découverte de nouvelles séquences.
4 Conclusion
Dans le cadre de cet article, nous avons cherché à explorer la fécondité d’une
confrontation de l’analyse phylogénétique avec une série de conceptualisations
potentielles de cette pratique. En mobilisant une pratique « périphérique » à
celles discutées au sein de ce numéro spécial, nous pensons avoir souligné
et exploré de manière fructueuse la limite parfois ténue existant entre
pratiques historiques et expérimentales, ainsi que la difficulté résultante de
placer certaines pratiques scientifiques dans l’éventail des conceptualisations
disponibles.
Notre discussion a montré que l’analyse phylogénétique fait partie de ces
pratiques qu’il est difficile de catégoriser. L’analyse phylogénétique partage
avec les expérimentations le souci d’une définition précise de son système
d’intérêt et d’augmenter la fiabilité et reproductibilité des résultats obtenus.
L’absence d’isolement et d’intervention à proprement parler nous empêche,
146 Thomas Bonnin & Jonathan Lombard
Bibliographie
Altschul, Stephen F., Gish, Warren et al. [1990], Basic local alignment search
tool, Journal of Molecular Biology, 215(3), 403–410, doi : S0022-2836(05)
80360-2.
Tan, Ge, Muffato, Matthieu et al. [2015], Current methods for automated
filtering of multiple sequence alignments frequently worsen single-gene
phylogenetic inference, Systematic Biology, 64(5), 778–791, doi : 10.1093/
sysbio/syv033.
Woese, Carl & Fox, George E. [1977], Phylogenetic structure of the proka-
ryotic domain : the primary kingdoms, dans : Proceedings of the National
Academy of Sciences of the United States of America, t. 74, 5088–5090.
La philosophie morale expérimentale
est-elle expérimentale ?
Yves Serra
Sciences, Normes et Démocratie,
Sorbonne Université, CNRS, UMR 8011, Paris (France)
1 Introduction
Le programme de la Maison Interuniversitaire des Sciences de l’Homme –
Alsace a pour titre : « Épistémologie comparée de l’expérimentation dans les
sciences de la nature et dans les sciences humaines et sociales ». La philosophie
morale n’est pas une science, elle n’entre dans aucune de ces deux catégories et,
de plus, semble plus attachée à la réflexion a priori qu’à l’utilisation des retours
d’expériences. Il est donc légitime de s’interroger sur la pertinence d’une entrée
1. Nous retiendrons ici le terme « empirique » pour des démarches qui donnent
une place importante à l’observation et à l’expérimentation. Il existe de nombreuses
variantes de l’empirisme, nous n’entrerons pas dans ce débat ici.
2. La présente contribution s’inscrit dans le cadre d’un travail de recherche en vue
d’une thèse de philosophie sous la direction d’Anouk Barberousse.
3. Pour une revue générale voir [Knobe & Nichols 2008] et, en français, le numéro
spécial de la revue Klesis [Cova 2013].
La philosophie morale expérimentale est-elle expérimentale ? 151
Pour décrire les contours de cette approche, prenons l’exemple d’un des
articles les plus connus de Joshua Knobe [Knobe 2006], un des promoteurs
du mouvement X-Phi. Cet article porte sur l’attribution d’intentionnalité
d’une action4 . Il présente le scénario d’un chef d’entreprise lançant un projet
motivé uniquement par sa rentabilité, en ayant marqué son indifférence
aux éventuelles conséquences positives ou négatives sur l’environnement. Le
projet se déroule, est très rentable et a les conséquences prévues, positives
ou négatives, sur l’environnement. L’expérience consiste à demander à des
participants si le chef d’entreprise a intentionnellement amélioré ou nui à
l’environnement. Les réponses montrent alors une nette dissymétrie : les
participants disent que le chef d’entreprise a intentionnellement causé les
dégâts et qu’il faut le blâmer quand les conséquences sont négatives, mais qu’il
n’a pas intentionnellement amélioré l’environnement et qu’il n’est pas à féliciter
quand les conséquences sont positives.
Cette dissymétrie expérimentalement constatée, qui fait dépendre l’attri-
bution d’intentionnalité du jugement moral porté sur le résultat, n’est pas
un phénomène nouveau pour les psychologues, pas plus que la méthode de
questionnaire utilisée. L’apport de Joshua Knobe à la psychologie n’est donc ni
de fond ni de méthode. Son apport à la philosophie se situe à un autre niveau :
l’auteur considère que cette dissymétrie ne peut être prise en compte par les
principales théories morales offertes par les philosophes dont, en particulier, le
conséquentialisme et le déontologisme.
En deux mots, pour le conséquentialisme, une action est morale si la
conséquence en est souhaitable ; pour le déontologisme, l’action est morale
si elle est conforme à des règles morales impératives. Ni dans un cas, ni dans
l’autre, il n’est cohérent que l’intention même de l’action soit attribuée au chef
d’entreprise en fonction du caractère positif ou négatif de notre jugement du
résultat de l’action. Les deux théories seraient donc empiriquement mises en
difficulté par l’expérience de Joshua Knobe et il faudrait écarter, ou a minima
reconsidérer, ces deux théories morales.
En suivant cet exemple, on peut dégager deux caractéristiques de la
philosophie morale expérimentale. D’abord, et trivialement, elle s’appuie sur
les méthodes et analyses développées par les psychologues pour aborder
l’étude du comportement humain. Ensuite, et surtout, la philosophie morale
expérimentale repose sur la thèse selon laquelle il serait possible de concevoir
et mener des expériences en vue de construire des arguments utiles aux débats
proprement philosophiques.
La philosophie expérimentale a donné lieu à de nombreux articles dont
l’ambition est d’apporter de nouveaux arguments empiriques aux philosophes
qui acceptent de sortir de leur fauteuil5 . Mais cette thèse a conduit à
4. Cette expérience, décrite dans [Knobe 2006], a fait également l’objet d’une
présentation vidéo : https://www.youtube.com/watch?v=sHoyMfHudaE.
5. Pour une introduction plus ample, voir le « Manifeste » dans [Knobe & Nichols
2008].
152 Yves Serra
dans un monde virtuel créé par cette machine et serait incapable d’accéder au
monde réel. L’argument est logiquement imparable mais, comme pour celui de
la complexité, il est très affaibli par son caractère extrême.
Une seconde variante est issue du naturalisme9 : tous les systèmes naturels
que nous observons autour de nous sont finis et ont des capacités limitées.
Le cerveau est un système naturel limité (poids, taille, énergie,...) issu de
l’évolution ; il est donc fortement probable qu’il soit également limité dans
ses capacités10 . Si ces limites existent, ce que le naturaliste semble devoir
accepter, nous ne les connaissons pas en totalité11 et peut-être ne pouvons-
nous pas les connaître. C’est cette possibilité d’objets qui nous seraient
inaccessibles que le philosophe se doit de soulever, comme le propose Timothy
Williamson12 . Lorsque la philosophie propose des dilemmes qui semblent
échapper à notre entendement, c’est peut-être l’indice qu’elle se rapproche de
ces zones d’ignorance13 . Cette variante naturaliste de l’argument de circularité,
moins extrême que la variante sceptique, offre l’opportunité d’imaginer des
approches empiriques, observations ou expérimentations, de ce qui pourrait
être inaccessible aux capacités humaines.
Soulignons à nouveau que ces deux premières lignes d’argumentation, la
complexité et la circularité, concernent potentiellement toute activité humaine
visant à connaître le comportement humain. Elles ne sont propres ni à la
philosophie morale expérimentale ni aux SHS et vont, si on les poursuit,
conduire à douter aussi bien de la philosophie morale en fauteuil que de toute
réflexion sur l’humain, a priori et a posteriori.
La troisième ligne d’argumentation repose sur la normativité et nous
semble plus importante car plus spécifique à la philosophie morale expéri-
mentale. Commençons par constater que la définition de la normativité, des
normes et des valeurs qui la sous-tendent, n’est pas tâche facile et qu’elle ne
pourra être qu’esquissée ici. Nous nous contenterons d’une définition naïve : la
morale est l’ensemble des règles générales sur le bien et le mal qui aident
chacun à instruire des jugements dans les cas particuliers auxquels il est
exposé. Cette définition minimale suffit à faire apparaître deux difficultés
pour qui souhaiterait s’appuyer sur l’observation ou l’expérimentation pour
établir ces règles morales. La première est d’ordre logique, et on la dénomme
9. Le naturalisme consiste en deux thèses : d’une part, la nature est tout ce qui
existe et d’autre part, les sciences naturelles nous offrent le meilleur accès possible à
la connaissance de cette nature [Andler 2016].
10. Voir la formulation que donne Noam Chomsky de cette limitation dans
[Chomsky 2016].
11. Les travaux sur les biais des raisonnements humains en donnent une première
approche [Kahneman, Slovic et al. 1982].
12. Dans [Williamson 2007, 17], l’auteur évoque les elusive objects qui seraient
inaccessibles à notre perception comme à notre entendement.
13. Il est significatif à ce propos qu’on ait pu proposer de définir la philosophie
analytique comme l’étude de ces paradoxes [Franceschi 2005].
La philosophie morale expérimentale est-elle expérimentale ? 155
14. Pour une remise en perspective de cet argument avec la philosophie de Hume
voir [Nurock 2011].
15. On peut penser à nouveau à l’homicide, événement très courant, mais exclu par
les règles morales.
156 Yves Serra
ont pu varier dans le détail, mais sans remise en cause du résultat principal.
Une large majorité des personnes interrogées agit sur l’aiguillage et une petite
minorité passe à l’action quand il s’agit de pousser le gros homme. Le protocole
d’enquête peut être enrichi en demandant aux participants la raison de leur
choix. Pour le cas de l’aiguillage, les raisons exprimées confirment le poids de
l’argument conséquentialiste : il est pertinent de sauver cinq personnes au prix
d’une. En revanche, pour le second cas, les participants ne mentionnent plus le
bilan des conséquences, mais évoquent les émotions négatives que génère chez
eux l’idée de pousser un homme vers une mort certaine.
Avec ce recours au sondage, l’interprétation des résultats se complexifie
par l’irruption des émotions dans l’opposition entre conséquentialisme et
déontologisme. On peut par exemple penser que l’idée de pousser le gros
homme suscite des émotions qui activent des réactions morales profondément
déontologiques. On peut aussi penser, inversement, qu’enfreindre une règle
morale est une source d’émotions qui inhibent l’action, et on peut également
envisager que les réactions émotionnelles et morales ne soient pas causalement
liées, mais combinent leurs effets. Les possibilités sont nombreuses et on voit
ici un apport de l’approche expérimentale : l’irruption des émotions comme
élément important pour les participants oblige le philosophe moral à expliciter
comment elles sont prises en compte dans sa théorie morale. À la différence de
l’expérience de pensée définie par le philosophe et menée sur lui-même à l’aide
de ses propres intuitions, la confrontation à l’expression des participants élargit
le débat ; à charge pour le philosophe d’en tirer profit pour l’approfondir.
Sur cette base expérimentale, le philosophe peut maintenant utiliser le
paradigme du tramway fou pour explorer l’influence de nombreux paramètres.
Il sera impossible de décrire ici toutes ces variantes tant la littérature de
« tramwaylogie » est abondante ; nous en avons extrait deux exemples de
nature à montrer comment les philosophes expérimentaux ont progressivement
utilisé les instruments des psychologues.
Le premier exemple porte sur la comparaison entre un échantillon constitué
de personnes ayant des troubles autistiques et un groupe de contrôle. Les
résultats montrent qu’il n’y a pas de différence entre les deux groupes dans
le cas « aiguillage », mais une différence importante dans le cas « gros
homme » : les autistes le poussent plus souvent. Les auteurs ont fait le lien
avec le déficit émotionnel caractéristique des autistes qui favoriserait la règle
conséquentialiste.
En 2001, le développement de l’IRMf a permis que soit menée une nouvelle
variante de l’expérience analysant les réponses neuronales des participants
lorsqu’on leur soumet les deux scénarios [Greene, Sommerville et al. 2001]. Les
auteurs concluent à l’activation des corrélats neuronaux des émotions dans le
cas « gros homme » et pas dans le cas « aiguillage », confortant ainsi le résultat
des expériences précédentes sur le rôle des émotions.
Les méthodes mises en œuvre dans ces expériences répondent à plusieurs
critères reconnus comme étant de bonne pratique expérimentale dans les
La philosophie morale expérimentale est-elle expérimentale ? 159
limitation forte de ce rôle a été soulignée par Duhem, puis Quine : les
expériences sous-déterminent les théories. Il est toujours possible de trou-
ver plusieurs théories différentes qui satisfont aux observations disponibles.
Cette difficulté conduit, pour néanmoins choisir entre théories empiriquement
équivalentes, à développer les approches favorisant la théorie la plus simple
(principe du rasoir d’Ockham) ou la plus explicative (principe d’inférence à la
meilleure explication).
6 Conclusion
Toutes les difficultés de méthode que nous venons d’évoquer et qu’affronte
le philosophe moral expérimental ne doivent pas faire oublier la principale
difficulté spécifique à son domaine normatif : la philosophie morale présente de
façon aiguë l’obligation de répondre au défi de l’intégration entre épistémologie,
ontologie et axiologie pour, en particulier, prendre en compte l’urgence de
l’action.
Bibliographie
Andler, Daniel [2013], Dissensus in science as a fact and as a norm,
dans : New Challenges to Philosophy of Science, édité par H. Andersen,
La philosophie morale expérimentale est-elle expérimentale ? 167
Duke, Aaron A. & Bègue, Laurent [2015], The drunk utilitarian : Blood
alcohol concentration predicts utilitarian responses in moral dilemmas,
Cognition, 134, 121–127, doi : 10.1016/j.cognition.2014.09.006.
Foot, Philippa [1978], Virtues and Vices : and other essays in moral
philosophy, Oxford : Basil Blackwell, chap. The Problem of Abortion and the
Doctrine of the Double Effect, 19–32, doi : 10.1093/0199252866.003.0002,
1re édition dans Oxford Review, 1967, 5, 5–15.
Thomson, Judith Jarvis [1976], Killing, Letting Die, and The Trolley Problem,
The Monist, 59(2), 204–217, doi : 10.5840/monist197659224.
La philosophie morale expérimentale est-elle expérimentale ? 169
Valentina Luporini
Scuola Normale Superiore (SNS), Pise (Italie)
Abstract: The problem of time has both tormented and nourished philosophy
since its beginnings. To address this problem, we propose to engage in a
metaphysical reading of S. Leśniewski’s texts. This reading will allow us
to explain certain main properties of logical time. In particular, after an
accurate analysis of philosophical early works, and especially of the paper “Is
All Truth Only Eternal or Is It Also True without a Beginning?” (1913),
we could demonstrate that logical time in Leśniewski’s works is inevitably
double. Indeed, on the one hand, the truth of the sentences must be eternal
and, on the other hand, these sentences develop in a well-defined time and
space element (that is the time and space of their graphic construction).
Similarly, this double temporality emerges in the Ontology (1919), a logical
calculus of names that presents an axiomatization established on the basis of
functor ε, a logical connective inscribed in a specific time and space without
any simultaneous temporal determination. This argument gives rise to a
whole series of questions: How can we justify the ontological status of this
“being” with a timeless connotation, an uncontested and indisputable place of
every logical truth inside a developmental perspective in which it is inevitably
inscribed? Which are the conditions of possibility of the coexistence of these
two temporal determinations? In order to answer these questions we had to
set up a detailed study of the nature of this logical time.
1 Introduction
En accord avec l’idée leśniewskienne selon laquelle les systèmes formels relèvent
d’une activité qui ne sépare jamais la recherche logique de l’élucidation de
doutes de nature sémantique [cf. Leśniewski 1916-1939, 35–36], le corpus de
Leśniewski doit toujours être interrogé à partir d’au moins deux perspectives
herméneutiques complémentaires : d’une part, l’analyse syntaxique et formelle
des systèmes conçus en tant qu’entités logico-mathématiques, et, de l’autre,
l’explicitation du contenu philosophique et conceptuel qui en constitue à la
fois le fondement et la structure méthodologique.
En premier lieu, selon ce que nous pourrions considérer comme une
conception radicalement nominaliste, les systèmes formels de Leśniewski
répondent au statut de collections de signes, dont la possibilité s’enracine
dans leur inscription sur un support matériel (l’encre sur un papier, la craie
sur le tableau, etc.5 ). Pour cette raison, chaque symbole dans un système
leśniewskien doit être considéré – pour employer une terminologie introduite
par Peirce – comme un token, c’est-à-dire comme un objet unique, déterminé
du point de vue temporel en vertu de sa construction graphique, qui se déroule
dans une temporalité bien définie et du point de vue spatial, si nous prenons
en considération l’espace qu’il occupe en tant que marque concrète [cf. Peirce
1906], [cf. aussi Peeters 2006a].
En deuxième lieu, Leśniewski conçoit une logique développementale à
l’intérieur de laquelle les systèmes formels assument le statut d’entités
concrètes en perpétuelle expansion, dont les prémisses – les axiomes donnés –
ne sont jamais en mesure d’expliciter, de façon préalable, toutes les conclusions
auxquelles le système peut mener. En d’autres termes, les systèmes logiques
de Leśniewski sont toujours ouverts. Dans ce cadre, puisque le nombre
de théorèmes démontrés est, en acte, toujours fini6 , il devient nécessaire
d’envisager un mécanisme qui permette aux systèmes d’implémenter une
marge d’évolution potentiellement infinie. Ce rôle est attribué aux définitions
une chose qui existe 11 et, d’autre part, « tout ce qui sera vérité à un moment
donné n’a pas toujours été vérité auparavant ; chaque jugement, qui est vrai
aujourd’hui, n’était pas tel hier » [Kotarbiński & Leśniewski 2011, 81]. En ce
sens, la condition de possibilité de l’émergence de la vérité – et d’une marge de
liberté dans la constitution celle-ci – relève précisément du fait qu’un jugement
n’est pas vrai avant que ce qu’il constate ne commence à exister.
Or, cette position implique l’invalidation du principe logique du tiers-
exclu puisque le jugement n’est – avant l’émergence de cette vérité – pas
vrai, mais il ne peut en même temps pas être faux non plus, puisque,
symétriquement, un jugement qui a été faux, sera faux pour toujours. Il
devient ainsi nécessaire de faire l’hypothèse d’un jugement ni vrai ni faux en
tant que « troisième opportunité12 », qui représente la condition de possibilité
de l’émergence de la vérité. En d’autres termes, la sphère de la possibilité
apophantique est, d’après Kotarbiński, une sphère d’activité, de création,
d’acte et de liberté ; celle de la réalité est une sphère de détermination.
Ainsi, une causalité universelle est définitivement exclue. L’homme est, dans
une certaine mesure, capable de créer la vérité, dont la condition logique réside
dans un rapport réciproque : « la création a la liberté comme condition », à
savoir, le fait qu’un jugement constatant un objet commence à exister implique
le fait que celui-ci ne soit pas prédéterminé avant d’exister et, inversement,
« la liberté à son tour a la création comme condition », puisque la non-
détermination n’est possible que si la vérité commence à un moment déterminé
[Kotarbiński & Leśniewski 2011, 87].
Dans ce cadre, la critique que Leśniewski développe part du questionne-
ment sur les termes employés par Kotarbiński et, en particulier, sur l’expression
« cesser d’exister13 ». Si « exister » signifie « être un objet à propos duquel un
jugement affirmatif, le constatant, est vrai » et si un jugement constatant un
objet, constate toujours la possession de certaines propriétés par un certain
objet, alors il n’existe que des relations d’inhérences, en tant qu’objets à propos
desquels des jugements affirmatifs qui les constatent sont vrais [Kotarbiński &
Leśniewski 2011, 74–75]. En ce sens, les objets qui ne sont pas des relations
d’inhérence n’existent pas, au sens de la possibilité des jugements affirmatifs
vrais les constatant. Il s’ensuit que la thèse principale concernant l’existence,
sur laquelle Kotarbiński fonde son article, est problématique. Nous aboutissons
en effet à des conclusions tout à fait paradoxales :
Par conséquent, les objets qui n’existaient pas n’ont pas cessé d’exister,
parce que « afin de cesser d’exister, il faut d’abord exister14 ». Pour pouvoir
résoudre cette « tragédie logique », une enquête plus approfondie portant sur
la correspondance jugement vrai – objet existant se révèle nécessaire. In primis,
Leśniewski s’interroge sur la nature temporelle de la relation d’inhérence en
se demandant si un objet existe en même temps que le jugement affirmatif
le constatant est vrai. Il en tire deux conclusions : 1) « en ce qui concerne
le temps, un objet n’existe pas seulement quand un jugement affirmatif vrai,
constatant cet objet, est » ; 2) « un jugement affirmatif, constatant un objet,
est souvent vrai, mais, en ce qui concerne le temps, pas seulement quand cet
objet existe » [Kotarbiński & Leśniewski 2011, 117]. Nous voyons ainsi que ces
deux hypothèses que Leśniewski dégage impliquent une scission, ainsi qu’une
proclamation d’autonomie, des trois pôles responsables de la vérité logique :
1) le jugement, 2) l’objet et 3) la relation d’inhérence. D’après nous, cette
nouvelle conception mène Leśniewski à soutenir la thèse de Kotarbiński selon
laquelle la vérité n’a pas de fin, en changeant pourtant tous les présupposés
qui la justifient. En particulier, l’exercice philosophique permet de distinguer
la relation d’adéquation objet-jugement du caractère sans fin de la vérité de
ce même jugement. En ce sens, même si la relation d’adéquation est passée,
puisque l’objet n’est plus présent, la vérité persiste15 : nous constatons donc
une autonomie de la vérité du jugement par rapport au moment où la relation
d’inhérence est posée.
Or, une question capitale s’impose ici : cette idée d’une vérité autonome
s’intègre-t-elle avec le nominalisme radical de Leśniewski ? Comme nous l’avons
affirmé ci-dessus, chaque signe logique est, pour Leśniewski, un objet concret
[token], qui possède une détermination spatiale et temporelle [cf. supra, 3]. Il
semblerait ainsi naturel d’asserter qu’une proposition-token n’est vraie que
quand elle désigne, par la relation d’inhérence, un tel objet-token concret
spatio-temporel. Comment pouvons-nous renoncer à cette présence de l’objet-
token, tout en gardant la vérité logique de la proposition-token qui le désigne ?
Pour répondre à cette question, nous renvoyons à la lecture que Arianna
Betti propose dans son article « Sempiternal Truth : the Bolzano-Leśniewski-
Twardowski Axis ». Celle-ci pousse jusqu’au bout l’idée nominaliste et attribue
à l’éternité de la vérité un caractère purement « métaphorique » [Betti 2006,
387]. En effet, si nous suivons à la lettre le présupposé inscriptionnaliste
leśniewskien, il est impossible de concevoir deux objets logiques équiformes
comme deux entités identiques s’ils possèdent deux coordonnées spatio-
temporelles différentes. Ainsi, deux jugements (propositions) ayant la même
forme, énoncés dans deux moments temporels différents, ne sont le même
jugement qu’au sens métaphorique 16 . En d’autres termes, l’éternité de la vérité
correspond à la vérité de tout jugement équiforme au jugement (vrai) énoncé
au moment spécifique où la relation d’adéquation a lieu.
15. En ce sens, un objet passé, qui a existé, ne peut pas posséder dans le présent
une caractéristique quelconque. S’il existait dans le passé, il a cessé d’exister. Par
contre, le jugement constatant – par la relation d’inhérence – une chose passée reste
vrai même si la chose en question a cessé d’exister. À ce propos, Leśniewski affirme
qu’il n’y a pas une réponse générale à la question de savoir si ce qui est passé a cessé
d’exister. Autrement dit, certains objets passés ont cessé d’exister, d’autres pas : « ce
qui existait et est passé a cessé d’exister. Ni l’un ni l’autre, en tant que non présents
dans le présent, ne possède aucune caractéristique dans ce présent, et donc pas non
plus la caractéristique d’exister. Ce qui est passé et existait n’existe pas non plus à
présent, tout comme ce qui existait et est passé. De manière générale : tout ce qui est
passé, à présent n’existe pas » [Kotarbiński & Leśniewski 2011, 115].
16. En ce sens, Leśniewski parle de jugements « phonétiquement identiques », mais
« sémantiquement différents » [cf. Kotarbiński & Leśniewski 2011, 122]. « Dans la
science est répandue une certaine imprécision – d’ailleurs inoffensive dans la plupart
des cas – qui repose sur le fait qu’on appelle communément deux ou plus de jugements
identiques (“les mêmes”) un (“le même”) jugement. Si par exemple diverses personnes
énoncent à des moments différents dans un sens similaire une quantité indéfinie de
jugements “l’homme est mortel”, alors on considère communément tous ces jugements
comme “un et le même” jugement “l’homme est mortel” » [Kotarbiński & Leśniewski
2011, 118].
182 Valentina Luporini
26. Dans cette direction, nous remarquons que la position de Leśniewski ne s’éloigne
pas de l’hypothèse métaphysique aristotélicienne qui prévoit un concept de substance
en tant que substrat dont l’essence ne dépend pas des attributs, en l’occurrence des
déterminations temporelles.
186 Valentina Luporini
dit, l’éternité ne serait pas considérée comme pure absence du temps, mais
comme une création continue de celui-ci. De cette façon, l’ensemble infini
de ces temporalités sera, au niveau du calcul des noms, incarné par la
prédication de type « A ε b » de l’Ontologie qui correspond, à son tour, au
déploiement de l’éternité dans l’espace et dans le temps. Dès lors, il est toujours
possible d’assimiler le toujours-là dont nous avons parlé ci-dessus, au temps de
l’ε comme création continue du temps. En ce sens, le foncteur ε bloque le
temps sur un seul et même instant, qui englobe l’entièreté des déterminations
temporelles possibles.
En dernier lieu, nous voyons que cette hypothèse d’une éternité comme
création continue du temps que nous avons introduite à partir de la significa-
tion du foncteur ε de l’Ontologie n’exclut ni celle d’éternité comme dimension
hors du temps, ni celle d’éternité métaphorique de la vérité qui apparaît dans
l’article de 1913. Dans le premier cas, l’éternité en tant que dimension ex-
tempore (définition négative) et l’éternité en tant qu’ensemble infini de toute
détermination temporelle possible (définition positive) ne sont pas tout à fait
contradictoires puisque la deuxième rejoint la première : en effet, la définition
de l’éternité comme création continue et simultanée de la combinatoire de
toute détermination temporelle possible a comme résultat le sans temps. De
même, dans le deuxième cas, la vérité est éternelle et sempiternelle selon deux
égards différents : d’une part, le temps propre au système logique correspond
à cette création continue du temps, et, de l’autre, il est toujours possible de
construire des propositions logiques équiformes à une proposition logique vraie,
en gardant ainsi la vérité de cette dernière27 .
5 Conclusion
Qu’est-ce donc que le temps logique ? Comment l’œuvre de Leśniewski
pourrait-elle nous aider à réfléchir à une détermination temporelle de la
pratique logique ? Nous l’avons vu, les constructions leśniewskiennes présentent
une tension fondamentale qui s’explicite dans la coprésence de deux tempora-
lités opposées : l’éternité et le développement spatio-temporel. En particulier,
notre hypothèse de travail – qui a englobé la totalité de cette recherche – laisse
apparaître l’exigence propre du questionnement philosophique sur les qualités
du temps de la vérité dans l’article de 1913 et du temps du foncteur ε dans
l’Ontologie. Ces temps sont hétérogènes puisqu’ils représentent à la fois une
propriété comme une autre (que nous pouvons prendre en considération ou
pas), le développement des tokens logiques et l’éternité inscriptionnelle.
27. Dans la section 3, nous avons exploré cette possibilité à partir de l’article
de 1913. De même, ce concept pourrait être appliqué à l’Ontologie : la vérité du
foncteur ε, introduite par l’axiome de l’Ontologie, permet la formation d’autres
propositions vraies à travers la construction des ε équiformes au premier. Ainsi, nous
pourrions affirmer que l’ε du métalangage est construit à partir de l’ε de l’Ontologie.
Éternité et développement: la question du temps chez Leśniewski 187
Bibliographie
Aristote [2008], Catégories, De l’interprétation, Paris : Vrin, trad. fr. par
J. Tricot.
Augustin, saint [1933], Les Confessions, t. Livre XI, Chapitre XIA, Paris :
Flammarion, trad. fr. par L. Moreau.
Austin, John Langshaw [2013], Truth, Truth (Virtual issue – Featuring classic
papers from the archive and commentaries by contemporary philosophers),
1, 27–41, the Aristotelian Society.
Betti, Arianna [2006], Sempiternal Truth : The Bolzano-Leśniewski-
Twardowski axis, dans : The Lvov-Warsaw School, édité par J. Jadacki &
28. Nous pensons par exemple à la collection suivante : Truth (Virtual issue –
Featuring classic papers from the archive and commentaries by contemporary
philosophers), et notamment aux articles [Austin 2013, Sullivan 2013, Travis 2013,
Sher 2013]. Pour une analyse de la pratique twardoskienne qui mène à un nouveau
concept de vérité logique, nous renvoyons en outre à [Simons 2008].
188 Valentina Luporini
Plotin [1857-1861], Les Ennéades de Plotin, Paris : Hachette, trad. fr. par
M.-N. Bouillet, Livre 3, Traité 7 [45].
Nom : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Prénom : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Institut ou bibliothèque : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Adresse : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Code postal : . . . . . . . . . . . . . . . . . . . . . . . Ville : . . . . . . . . . . . . . . . . . . . . . . .
Prix du numéro 24 e
Tarif France 65 e
Tarif étranger 70 e