Get Even More Visitors To Your Blog, Upgrade To A Business Listing >>

La neutralité de la science vis-à-vis des valeurs sociales : un idéal obsolète ?

Je me suis plongé récemment dans la lecture sur l’idéal de neutralité axiologique de la Science ("value-free ideal") et ait quelque peu évolué sur ces questions. Ce post a principalement pour but de faire état de mes conclusions et de référencer les sources qui m’y ont amené.

L’idéal de neutralité axiologique:

La science vise uniquement le vrai (ou la connaissance, la compréhension, etc.), et non pas ce qui est bien ou politiquement souhaitable. Donc les scientifiques ne devraient pas faire de jugements de valeur au moment d’accepter ou de rejeter des hypothèses, mais seulement accepter les hypothèses qu’ils jugent très probablement vraies (ou apportant connaissance / compréhension) suivant des standards internes à la science, conformes à son but, indépendants du reste de la société.

Ce qu’est est n’est pas l’idéal de neutralité

J’entend parfois dire que l'idéal de neutralité axiologique serait mort et enterré dans la littérature philosophique contemporaine. Ce n’est pas tout à fait juste, beaucoup d’auteurs et autrices le défendent plus ou moins explicitement (des références au fil de l’article). Rappelons quelques points importants à ce titre :

  1. Il s’agit d’un idéal. Ses défenseurs n’affirment pas que la science a déjà atteint cette neutralité vis-à-vis des Valeurs sociales, seulement que c’est souhaitable.

    • Donc pointer des entorses à la neutralité, des biais masculinistes en archéologie par exemple, n’est pas un argument contre l’idéal. Au contraire : le fait même de présenter une influence de valeurs sociales comme un problème pour l’objectivité semble impliquer qu’on adhère à cet idéal, et à la limite, critiquer l’idéal de neutralité pourrait empêcher de voir un problème (autre que moral) dans les biais masculinistes (cf. Stéphanie Ruphy 2006)
  2. Ceci dit, adhérer à l’idéal suppose de penser qu’il est en principe atteignable ou au moins qu’on peut s’en approcher indéfiniment (si c’est un idéal régulateur).

    • Donc pointer une impossibilité de principe de s’abstraite des valeurs sociales dans les jugements peut fonctionner comme argument, en une certaine mesure.
  3. Mais attention, il ne faut pas confondre valeur et perspective / position sociale. Être un homme n’est pas la même chose que de défendre des valeurs masculinistes. (cf. Hannah Hilligardt 2022).

    • Donc affirmer qu’on ne peut échapper à sa position sociale, et qu’il est donc souhaitable d’intégrer des perspectives variées, par exemple des perspectives féminines en archéologie, pour combler des points aveugles dans la recherche, n’est pas en soi une négation de l’idéal de neutralité : le fait que les femmes, de par leur expérience sociale, puissent être dotées de compétences épistémiques plus difficilement accessibles aux hommes n’implique pas que ces compétences s’appuient sur des jugements de valeur.
  4. Enfin l’idéal concerne uniquement la justification des hypothèses, “en interne” pour ainsi dire. Les interactions avec le reste de la société, même quand elles participent à la production de connaissances, peuvent tout à fait être guidées par des valeurs sans enfreindre l’idéal (Helen Longino 1990 ch. 5).

    • Mettre en avant le rôle des valeurs sociales quand il s’agit de sélectionner ou financer des programmes de recherche jugés plus importants que d’autres, ou de bannir des méthodes de collecte de données comme l’expérimentation animale, est compatible avec l’idéal de neutralité, car ça ne touche pas à la justification des hypothèses.

Ceci met la barre assez haut pour qui veut rejeter l’idéal de neutralité axiologique. On voit que ni pointer des biais à l’oeuvre en science, ni mettre en avant l’inévitabilité du positionnement social de chacun, ni faire valoir que la société a son mot à dire sur l’importance des recherches ne constituent de bons arguments contre un idéal de neutralité bien compris. Pour le rejeter, il faut argumenter que les jugements de valeurs sont en principe inévitables, voire souhaitables, pour l’acceptation ou le rejet d’hypothèse scientifiques en particulier. Pourquoi le penser ?

L’argument de l’imprégnation des catégories par les valeurs

Un premier argument que je trouvais initialement convaincant en faveur de l’inévitabilité des jugements de valeur est l’idée que les catégories scientifiques Sont parfois imprégnées de valeurs : par exemple, ce qui compte ou non comme maladie psychologique ou comme violence domestique pourra dépendre de ce qu’on juge souhaitable ou non dans un contexte social. On trouve cette idée chez John Dupré (2007) et d’autres.

L’argument proposé par David Ludwig (2016) est assez simple pour être reproduit ici :

  • La vérité ou fausseté d’une hypothèse dépend de choix ontologiques (des choix de catégorisation).
  • Les choix ontologiques dépendent de valeurs sociales.
  • Donc la vérité des hypothèses dépend des valeurs sociales.

Mais j’avoue qu’il ne me convainc pas pour la raison suivante : je pense que c’est la signification d’un énoncé qui dépend de choix ontologiques, et non pas la vérité de l’hypothèse que l’énoncé exprime. La vérité d’une hypothèse, une fois sa signification fixée, dépend essentiellement du monde. En ce sens, les choix ontologiques s’apparentent plutôt aux choix de programmes de recherche (quelle hypothèse tester ?) qu’à des choix sur ce qui est à accepter ou à rejeter, et on a vu que les jugements de valeurs sur ces aspects sont compatibles avec l’idéal de neutralité.

Ceci m’amène à douter, au delà de cet argument en particulier, que le fait que les catégories soient chargées de valeurs constitue réellement un problème pour l’idéal de neutralité. Il me semble en effet que la science vise généralement à rendre ses catégories précises et opérationelles, quitte parfois à introduire des termes techniques pour remplacer les termes vernaculaires trop chargés. Cette précision des catégories et opérationalisations utilisées me semble indéniablement être un idéal poursuivi par la science, un critère de bonne science dans la plupart sinon toutes les disciplines scientifiques. Et ce que ce critère de précision réalise, c’est une indépendance vis-à-vis des valeurs sociales pour l’évaluationde la vérité ou de la fausseté des hypothèses.

Pour voir ceci, prenons un exemple: une recherche sur les violences domestiques. Si l’on laisse le termes “violence domestique” imprécis, alors évaluer à quel point celles-ci sont répandues sera laissé à la discrétion des scientifiques responsables de la collecte des données. Disons que ceux-ci ont tendance à juger que certaines situations ne sont pas bien graves, et donc rechigneront à parler de violence, quand celles-ci jugeront que ces situations sont terribles, et constituent donc bien des situations de violences domestiques : les valeurs influencent directement les résultats obtenus. Si maintenant on se met autour d’une table pour décider de critères précis, alors dans l’idéal, aucune place n’est laissée aux jugements de valeurs au moment de l'interprétation des données : ceux-ci pourront considérer qu’une situation n’est pas bien grave, mais, respectant les choix faits en amont, ils devront la classer comme violente et à l’inverse pour celles-ci. La précision des catégories a bien pour effet d’éliminer les jugements de valeur (ou plutôt de les reléguer en amont de la collecte des données).

Bien sûr, la bonne manière de préciser les catégories et de les opérationaliser dépend de ce qu’on veut en faire, et donc en partie de valeurs sociales (mais aussi en partie du monde : certaines catégorisations sont plus fructueuses que d'autres). On peut considérer que les choix de catégorie font partie intégrante de la recherche, et affirmer que les valeurs ont un impact ici s'apparente à une concession faite aux détracteurs de l'idéal de neutralité. Par exemple, des scientifiques pourront publier le résultat “la violence domestique est inexistante” juste parce qu’ils ont fait des choix méthodologiques douteux, et en surface, on peut avoir l’impression que de mauvais jugements de valeurs ont directement affecté l’acceptation de l’hypothèse “la violence domestique est inexistante”, quand de *meilleurs jugements de valeurs* auraient permis d'aboutir à une conclusion plus censée à travers une meilleure opérationalisation de la catégorie. En ce sens, les jugements de valeurs seraient inévitables et les "bons" jugements de valeurs souhaitables en science.

Ce qu'on peut se demander ici, c'est si le fait de bien caractériser la violence domestique relève réellement du jugement de valeur. Après tout, le tort des scientifiques dans cet exemple est de proposer une compréhension idiosyncratique d'un terme qui a déjà une compréhension commune (voire également une compréhension scientifique ou juridique). Le jugement erroné me semble *épistémique* et non *moral* : ils se trompent sur ce qu'est la compréhension d'un terme. Cette erreur est peut-être influencée par leurs valeurs, mais remarquer ceci ne fait que renforcer l'idéal de neutralité. S'ils avaient mis de côté leur tendance à amoindrir la violence domestique, ils auraient employé une acception commune, reconnue, du terme. À ce titre, employer une conception trop libéral de la violence domestique pour arriver à la conclusion qu'elle est omniprésente serait tout aussi problématique. Ce qu'on attend d'une recherche objective, neutre, et ce qui fait d'ailleurs partie des bonnes pratiques en science, c'est un *alignement sur les standards* en matière de compréhension des termes, de manière à ce que le résultat de la recherche soit correctement interprétés par notre communauté linguistique. Et cette alignement ne demande pas de jugement de valeur de la part des scientifiques. Le fait que ces standards ou cette compréhension commune soit chargée de valeurs n'est pas un problème pour la neutralité, puisqu'elle ne relève pas de la compétence du scientifique.

Le seul cas où on pourrait suspecter qu'un jugement de valeur doit être émis, c'est quand les standards sont encore inexistants ou imprécis. Mais on peut suspecter que les choix faits en la matière sont principalement pragmatiques (adopter une compréhension précise, facilement opérationalisable, qu'on soupçonne fructueuse sur le plan explicatif) et qu'ils ont peu d'impacts sociaux tant que l'on reste fidèle à la compréhension de sens commun. Savoir refléter de manière appropriée le sens commun peut demander une sensibilité ou une empathie, plus facilement accessible à ceux qui ont une expérience sociale particulière, mais j'y vois personnellement une compétence cognitive plutôt que morale (bien que je serais prêt à concéder que les distinctions deviennent un peu floues ici). Dans tous les cas, le fait d'adopter des définitions précises garantie une certaine objectivité dans le résultat de la recherche : on peut trouver ce résultat peu pertinent si l’on pense que les catégories utilisées sont mal choisies, mais on ne peut le trouver *faux* si le travail a été correctement réalisé.

L’argument du risque épistémique

L’argument à l’encontre de l’idéal de neutralité qui est je pense le plus influent, le plus repris dans la littérature, et qui m’a moi même le plus convaincu est l’argument du risque épistémique.

L’idée est assez simple : pour accepter ou rejeter une hypothèse sur la base de données incertaines, il faut adopter des standards d’adéquation (par exemple une p-value à 5%, c’est à dire que la probabilité d’obtenir les données obtenues si notre hypothèse était fausse serait inférieure à 5%). Or ces standards sont arbitraires. Il dépendent essentiellement du risque qu’on est prêt à prendre : accepter une hypothèse à tort, ou bien la rejeter alors qu’elle était vraie. Et ces risques dépendent de nos valeurs, de l’importance qu’on accorde aux erreurs.

Ainsi, on adoptera des standards beaucoup plus exigeants avant de déclarer que la sangle d’un parachute est sûre que avant de déclarer que la sangle d’un sac à dos est sûre, parce que dans le second cas, l’erreur a une importance moindre.

Ce qui est intéressant avec cet argument est qu’on peut facilement l’étendre. Considérer qu’une hypothèse est confirmée n’est jamais une simple affaire de statistiques. Dans le cas de la sangle du parachute, il s’agit de vérifier un ensemble de conditions variées (humidité, etc.), un ensemble de sources d’erreurs possibles. Il s’agit, en somme, de tester la robustesse de l’hypothèse vis-à-vis d’un ensemble plus ou moins large d’hypothèses concurrentes, et de s’arrêter quand on peut croire l’hypothèse “au delà de tout doute raisonnable” (on n’ira peut-être pas jusqu’à douter de tout). L’étendue des hypothèses concurrentes qu’on jugera raisonnable d’envisager (ce qui coûte du temps et de l’argent) peut en principe dépendre de l’importance qu’on accorde à obtenir un résultat fiable, donc de nos valeurs. Il y a un lien assez directe avec la notion classique en philosophie des sciences de sous-détermination par l’expérience (il existe toujours une infinité d’explications possibles, les données empiriques ne sont jamais pleinement déterminantes), ce qui fait que l’argument du risque épistémique est un argument potentiellement très général.

En somme, pour accepter ou rejeter une hypothèse, il faut émettre un jugement de valeur concernant les risques d’erreur qu’on est prêt à accepter et donc les standards d’adéquation et de robustesse à adopter, associé à l’étendue des possibilités alternatives à considérer dans la recherche. Ceci contredit directement l’idéal de neutralité axiologique.

Contre le risque épistémique

Voilà où j’ai révisé un peu mes positions à la lecture de la littérature philosophique. Je suis en fait moins convaincu qu’avant de la pertinence de cet argument, au moins dans sa version limitée (risque d’erreur statistique), pour différentes raisons, d’abord des raisons de portée :

  • L’argument s’applique surtout aux recherches directement appliquées ou commanditées par des institutions politiques en vue d’une prise de décision précise : par exemple, interdire ou non une substance. En dehors de ces cas, le risque n’est plus vraiment évaluable parce que les résultats de la recherche peuvent être utilisée de multiples façons qu’il est difficile d’anticiper.
  • Il s’applique aux contextes d’incertitude et de ressources limitées. Si l’on a la possibilité de réduire le risque d’erreur en produisant plus de données à volonté, avec des tests variés, le jugement de valeur devient inutile.
  • Il ne concerne pas, au fond, ce qu’on devrait croire ou non, mais plutôt s’il faut agir ou non sur la base d’une hypothèse, ou la manière dont les résultats doivent être communiqués aux décideurs (Stephen John 2015).

Cette limitation de portée est quand même très problématique pour l’argument, parce que l’idéal de neutralité est bien (encore une fois) un idéal, et ici, on parle de conditions qui ne sont pas forcément des conditions idéales : quand la science est directement mise à contribution pour l’action politique, et manque de ressources.

Or, en dehors de ces contextes particuliers où il fautprendre une décision (et même pour John (ibid) au sein de ceux-ci, mais j’ai plus de doutes la dessus: cf. Kevin Elliott 2014), on peut juger que la science a tout intérêt à maintenir des standards d’adéquation très élevés lors des tests empiriques, quitte à ne pas se prononcer quand les résultats ne sont pas concluants. Il s’agit de maintenir son statut comme source de confiance : un résultat validé par la science doit être fiable pour à peu près n’importe quels buts (puisqu’on ne peut les anticiper). Abaisser les standards pour des raisons politiques serait extrêmement dommageable à long terme pour sa crédibilité (Stephen John 2015). Or adopter des standards très élevés revient, dans les faits, à se rendre imperméable aux jugements de valeur (au moins si l’on accepte qu’il s’agit d’un choix tri-partite: accepter, rejeter, ou ne pas se prononcer).

Outre ce problème, l’argument a aussi certaines faiblesses :

  • Si l’idée est que contrairement au “wishful thinking” (accepter une hypothèse seulement parce qu’on l’aime bien), fixer les standards de risque éviterait le dogmatisme, et donc que ce serait une “bonne” influence des valeurs, c’est simplement faux : il suffit d’adopter des standards extrêmement exigeant envers tout ce qui contredit nos opinions pour être dogmatique (Inmaculada de Melo-Martín and Kristen Intemann 2016).
  • Pourquoi croire que les scientifiques seraient particulièrement aptes à émettre des jugements de valeurs ? (ibid) Il semble plus judicieux d’externaliser ces jugements hors de la science, et donc idéalement, le fonctionnement interne de la science devrait être indépendant des valeurs.
  • Une manière d’externaliser les jugements de valeur est pour les scientifiques de transmettre des probabilités ou degrés de confiance ou de communiquer sur la robustesse plutôt que d’accepter ou rejeter les hypothèses, et ça semble faire partie des standards pour le GIEC par exemple (Gregor Betz 2013). Il est parfois avancé que ça implique un risque épistémique “de second ordre”, mais c’est faux : une incertitude d’incertitude peut toujours se ramener à une incertitude de premier ordre (Brian MacGillivray 2019).
  • Au final, l’évaluation formelle du risque est complexe, c’est un métier à part entière, et ça a finalement plus à voir avec l’évaluation des conséquences de différentes actions possibles suivant des critères objectifs qu’avec la fixation de seuils statistiques sur la base d’un jugement de valeur (ibid).

Quid du risque épistémique généralisé ?

Si la version de l’argument limitée aux risques statistiques me semble désormais assez faible, la version généralisée que j’ai proposée un peu plus haut, associée à la sous-détermination en général et à l’étendue des hypothèses concurrentes qu’on juge digne de considération, me semble être un peu plus prometteuse.

En effet, on parle ici de contextes plus abstraits, où il est question d’évaluer des hypothèses sans forcément de pression applicative directe. Cependant les resources sont limitées par principe, parce que le nombre d’hypothèses abstraites, conceptuellement éloignées des données empiriques, est a priori infini. Il faut faire des choix. Le risque d’erreur, dans ce cadre, n’est plus un risque tangible lié à l’action, limité aux contextes politiques. Il concerne la stratégie de recherche à long terme, ou encore le risque de répandre des idées fausses dans la population, ce qui aurait des effets indirects importants. Il n’est pas forcément évaluable quantitativement, mais n’en est pas moins réel. Par ailleurs il concerne directement nos croyances, et est donc plus étroitement lié au “but ultime” de la science (produire de la connaissance pour la société).

C’est peut-être une manière de comprendre l’approche de Priscille Touraille, quand, dans sa thèse d’anthropologie sociale, elle s’intéresse à l’hypothèse que la différence de taille entre hommes et femmes serait une adaptation à un environnement social patriarcale (je ne me prononce pas ici sur ses arguments, j’en propose seulement une interprétation ou reconstruction possible). Son argument ne consiste pas à dire que cette hypothèse est probablement vraie, mais plutôt qu’elle fait partie des possibilités qui ne sont pas prises au sérieux par les biologistes. On peut interpréter son argument dans le cadre du risque épistémique : il s’agirait d’une possibilité d’erreur jugée non pertinente par les biologistes, mais plus importante pour les féministes (faire croire à tort que les différences entre sexes seraient principalement naturelles, ce qui pourrait décourager à tort l’action politique par exemple), et ce jugement serait essentiellement un jugement de valeur.

Est-ce qu’il existe un résidu de “risque épistémique” inéliminable dans ces domaines ? Est-il vraimenent impossible d’y maintenir des standards suffisamment élevés avant d’accepter des hypothèses dans ces contextes plus abstraits ? Les biologistes ignorent-ils l’hypothèse proposée par Touraille en raison de leurs valeurs ? Ou s’agit-il en fait de jugements plus pragmatiques et indépendants de considérations sociales ? Et si c’est le cas, est-ce un problème ou non pour la science ? Est-ce qu’ils devraient considérer le risque sociale qu’il y a à négliger cette hypothèse, et donc lui donner plus d’importance ? Je reste un peu sceptique. Si l’abstraction accentue le problème de la sous-détermination par l’expérience, j’ai l’impression qu’elle efface du même coup la sensibilité au contexte social. (je ne suis pas certain, par exemple, qu’avoir négligé à tort l’hypothèse de Touraille aurait des conséquences dramatiques pour la société).

Ceci étant dit, je suis convaincu au moins d’une chose : cette notion de risque épistémique, version généralisée, rend très bien compte de la manière dont les résultats de la recherche scientifique sont politisés dans la société. Quand ces résultats appuient des croyances qu’on juge dangereuses (surtout si elles s’avéraient fausses), on devient extrêmement exigeant quant au niveau de preuve. Quand au contraire on pense que même si elles s’avéraient fausse, ce ne serait pas une grosse erreur de les avoir crues, on a tendance à abaisser drastiquement nos standards. Mais il me semble que l’influence sociale des résultats scientifiques est souvent surestimée dans ces contextes, que les risques sont mal évalués, et cette attitude est difficile à distinguer de la mauvaise foi ou du dogmatisme. Il me semblerait très problématique d’ériger cette forme de risque épistémique en norme pour la science.

Un problème récurrent pour les attaquants de l’idéal de neutralité

Au final, je suis moins convaincu que je n’ai pu l’être par le passé par les arguments contre l’idéal de neutralité axiologique, en particulier l’argument du risque épistémique. Quelle que soit la version qu’on adopte, statistique ou généralisée, un problème persiste pour l’argument : en principe, il est possible pour les scientifiques de communiquer sur l’étendue de leur incertitude plutôt que de faire un jugement de valeur, et on peut juger qu’idéalement, c’est ce qu’ils devraient faire. Cela rejoint d’ailleurs les limites de l’imprégnation par les valeurs des catégories : il est possible de rendre explicite les jugements effectués, en amont de la recherche, non seulement concernant les catégories utilisées, mais aussi l’étendue des hypothèses alternatives qu’on compte considérer, ou les standards d’adéquation empirique qu’on va employer. Et on devrait le faire. Alors la phase strictement interne de production de résultats étant donné ces choix ne dépend plus de jugements de valeurs. Or ces choix en amont s’apparente beaucoup à des choix de programme recherche, susceptible de faire ou non l’objet de financements par des entités externes à la science, et comme noté précédemment, ceci est parfaitement compatible avec un idéal de neutralité, d’autant plus si la norme est d’adopter des standards de preuve et de robustesse exigeants.

On s’approche ici d’une position de compromis proposée par Greg Lusk et Kevin Elliott (2022) : selon eux, on peut accepter que les activités scientifiques sont dirigées vers des buts, dépendant de valeurs, et que l’évaluation de l’adéquation des hypothèses pour ces buts se fait indépendamment de jugements de valeurs.

Pour ma part, je n’ai pas l’impression que les défenseurs de l’idéal de neutralité aient jamais dit autre chose. L’objectivité comme neutralité vis-à-vis des valeurs au moment de la justification ne me semble pas être problématique si l’on accepte que les choix qui sont fait en amont de la justification (quelles hypothèses considérer pour les tests, quelles catégories pour interpréter les données, quels standards de justification) sont, eux, imprégnés de valeurs.

Et finalement c’est bien là, en amont, que se situent les questions les plus pressantes quant aux rapports entre science et société : au niveau de la sélection et du financement des programmes de recherche. La dessus, les deux camps sont d’accord que les valeurs sociales peuvent intervenir (il est légitime de faire de la recherche contre le cancer parce que ça nous importe), et pourtant il me semble que ce serait un problème si les scientifiques ne disposaient pas de la liberté de choisir certains programmes sans grande utilité sociale, mais scientifiquement importants, et de la possibilité d’être financés pour ça. Ce genre d’autonomie (qui n’est pas incompatible avec des financements d’utilité social par ailleurs) me semble tout aussi essentielle à l’intégrité de la science.



This post first appeared on Un Grain De Sable, please read the originial post: here

Share the post

La neutralité de la science vis-à-vis des valeurs sociales : un idéal obsolète ?

×

Subscribe to Un Grain De Sable

Get updates delivered right to your inbox!

Thank you for your subscription

×