L’intelligence artificielle et la recherche non-animale : panacée ou pharmakon ?
The three-dimensional rendering of shining human brain. Plexus structure evolving around.

L’intelligence artificielle et la recherche non-animale : panacée ou pharmakon ?


19 décembre 2023

Pour paraphraser le philosophe Bernard Stiegler, l’objet technique, neutre par nature, peut devenir pharmacologique, c’est-à-dire poison ou remède en fonction de son usage . L’ambivalence qui caractérise le numérique, et plus spécifiquement l’intelligence artificielle (ci-après l’IA), en fait tout à la fois un instrument d’émancipation et d’aliénation.

Concernant les animaux utilisés à des fins scientifiques, ce constat relève de l’évidence : si l’IA peut être mobilisée dans le domaine des alternatives à l’expérimentation animale, comme l’attestent les pistes prometteuses du big data et du machine learning en toxicologie , elle peut aussi les asservir, à l’instar des singes tués et mutilés dans le cadre des recherches 1 menées par la startup Neuralink1. Dans cette dernière hypothèse, l’IA ne représente certes qu’un objectif indirect puisque les travaux tentant d’interfacer le biologique au silicium visent surtout à atteindre l’homme augmenté. Il reste que la cacophonie qui règne autour des nouvelles technologies est prompte à confondre, sous la même appellation, des réalités techno-scientifiques fort variées. Or, force est de constater que les technologies généreusement affublées de l’étiquette « IA » forment un ensemble hétéroclite que des précautions épistémologiques incitent plutôt à distinguer, quitte à en requalifier certaines. L’ambiguïté terminologique, savamment entretenue dans certains milieux, dessert plus qu’elle ne sert les méthodes substitutives aux tests sur les animaux basées sur l’informatique, les algorithmes, les données, et l’apprentissage machine. Aussi est-il nécessaire de spécifier le champ d’opérabilité de l’étude concernée, et préciser le type et les paramétrisations de l’IA exploitée ou développée, sous peine, le cas échéant, de s’exposer à de sévères critiques et discréditer la cause que l’on poursuit. Ces précisions faites, et sans prétention exhaustive, le présent article recense certaines recherches dont les résultats pourraient contribuer aux progrès de la recherche non animale. Loin de céder aux sirènes du techno-solutionnisme, le thème traité engage une réflexion plus générale sur les rapports entre l’éthique du numérique et l’IA, d’une part, et l’éthique animale, d’autre part.

Les multiples domaines en question

Ces dernières années, de nombreux articles ont été publiés, principalement en anglais, en chimie numérique , modélisation moléculaire , toxicologie computationnelle , bioinformatique, médecine robotique, nano-médecine, biophysique et biologie computationnelles, domaines dans lesquels le numérique devait, à un niveau ou un autre, intervenir. L’aura de cette technologie — qualifiée de « disruptive »2 — est telle qu’elle irrigue massivement toutes les disciplines de la recherche scientifique actuelle, quitte à se combiner à d’autres technologies — tout aussi prometteuses pour la recherche non animale — comme les systèmes micro-physiologiques (organoïdes et systèmes d’organes sur puce) ou la bio-robotique. Si les publications mentionnant les méthodes in vitro et in silico ne se réfèrent pas toutes à la règle des « 3R »3, les chercheurs semblent de plus en plus conscients des limites inhérentes aux méthodes in vivo.

IA : des questions fondamentales à mieux cerner

La rançon de ce succès est, faut-il y insister, le flou conceptuel et méthodologique qui entoure ce que l’on se plaît à qualifier hâtivement d’IA, alors qu’il s’agit, le plus souvent, de l’utilisation d’outils estampillés “IA” en conception, ou pour l’analyse des données du projet4. La réalité est que l’IA, dans son aspect machine learning, ne fait souvent que dissimuler des approches statistiques ou d’analyses des données, là où l’on s’attendrait à voir, à bon droit, de l’intelligence au niveau de la modélisation. De plus, il est aisé de faire l’impasse sur les problématiques de « boîte noire » et le fait que certains résultats ne sont pas toujours directement interprétables en termes biologiques.

Le cortège des imprécisions sémantiques s’étend hélas à des expressions porteuses d’espoirs pour les défenseurs des méthodes substitutives : que l’on songe aux promesses de voir un jour se substituer aux animaux de laboratoire des « robots biomimétiques » dotés de capteurs et dopés aux algorithmes, aux « jumeaux numériques », lesquels seraient capables de simuler tous les processus à l’œuvre dans les organismes vivants — en les modélisant (intégralement ?)5 — pour offrir des modèles prédictifs , ou encore à la réalité dite « virtuelle » ou « augmentée » supposée reproduire l’anatomie humaine et/ou animale, afin de permettre aux scientifiques de se passer définitivement des cobayes vivants. S’il est louable de promouvoir les « jumeaux virtuels » pour les raisons éthiques que nous connaissons, encore faut-il être rigoureux sur les modèles mathématiques qui les sous-tendent : s’agit-il d’une modélisation de tous les atomes en interaction composant l’organe en question, d’une modélisation fonctionnelle telle qu’on les réalise en physique ou ingénierie, ou encore d’un modèle seulement partiel ? Quels sont les mécanismes mis en équation ? De quelles données biologiques parle-t-on ? L’échantillonnage est-il représentatif ou ces données personnalisées sont-elles issues de patients présentant un même profil de morbidité ? En outre, sont-elles suffisantes pour décrire ledit organe dans tous ses détails physiologiques et fonctionnels, et prédire les comportements physiques, chimiques, biologiques pendant un laps de temps pertinent ? Autant de questions devant, en principe, guider la présentation des modélisations et hors desquelles un modèle ne peut être apprécié. On ne peut, dès lors, que regretter leur absence systématique dans les entreprises de vulgarisation ou de promotion des méthodes en question. À un niveau plus “méta”, ces interrogations questionnent notre propre intelligence à aborder des questions dépendant de l’intelligence introduite comme variable.

Davantage de rigueur et d’humilité pour aborder la notion d’intelligence

Notre quasi-incapacité à penser des sujets présentant une certaine réflexivité devrait nous inciter à davantage de rigueur et d’humilité dans notre façon d’aborder l’intelligence, qu’elle soit artificielle, humaine ou animale. Nous voudrions conclure notre réflexion sur la place que l’éthique du numérique accorde aux animaux non humains. Force est de reconnaître que la France accuse un retard en ce domaine au regard du nombre croissant de publications dans le monde anglo-saxon mettant l’accent sur la nécessité d’inclure les animaux dans l’éthique de l’IA. Nous savons, depuis la publication par l’Union européenne des lignes directrices pour une IA digne de confiance, que celle-ci devrait être « centrée sur l’humain »6. Cette approche se fonde sur la dignité humaine, en vertu de laquelle l’être humain posséderait une valeur intrinsèque et jouirait d’un statut moral unique et inaliénable7. Il nous semble qu’il y a là un biais anthropocentrique8 dont l’Europe devrait se défaire si elle souhaite, comme elle le prétend dans sa directive 2010/63/UE, mettre un terme à l’expérimentation animale. En effet, l’IA est une piste prometteuse pour la recherche non animale. Encore doit-on la prendre au sérieux.

 

Anaëlle Martin est Docteur en droit à l’Université de Strasbourg et rédactrice depuis septembre 2022 au sein du Comité national (pilote) d’éthique du numérique (CNPEN-CCNE). Juriste spécialisée sur les questions d’éthique du numérique et d’éthique animale, Anaëlle Martin est également membre de l’équipe du blog technorealisme.org et donne chaque année des formations concernant la réglementation européenne relative aux animaux utilisés à des fins scientifiques à l’Université de Strasbourg, CRBS (Centre de recherche en biomédecine de Strasbourg).
CNPEN (Comité national pilote d’éthique du numérique)
Le Comité national pilote d’éthique du numérique, CNPEN, a été mis en place à la fin de l’année 2019 par le Premier ministre, sous l’égide du Comité consultatif national d’éthique pour les sciences de la vie et de la santé, CCNE, et sur la recommandation du rapport Donner un sens à l’Intelligence artificielle du député Cédric Villani. Les membres du CNPEN tirent de leur expérience les enseignements suivants : Un comité consultatif national d’éthique du numérique doit proposer le cadre de référence pour développer un regard prospectif sur les enjeux considérés ; Ce comité doit offrir à chaque personne, et ainsi à l’ensemble de la société, les moyens de construire son discernement face aux enjeux du numérique ; Sa réflexion éthique doit être pluridisciplinaire, accessible, indépendante, et veiller à être visible et utile. 

A lire parmi les avis du CCNE publiés

En savoir plus sur le CCNE

https://www.ccne-ethique.fr/fr/cnpen

Image credit : Généré par Dall‑e

  1. Son fondateur Elon Musk cherche à connecter, via des implants cérébraux, les neurones des êtres vivants et l’IA.
  2. Interview T. Hartung, revue Pro Anima. Sciences Enjeux Santé n°109 — Juin 2023.
  3. La règle des 3R (Remplacer, Réduire, Raffiner) est une règle éthique dans la recherche vis-à-vis de l’expérimentation animale.
  4. La complexité du codage peut aussi être en cause. Mais sous l’angle de la vulgarisation, le sujet est épineux car il semble indispensable de recourir aux formalismes pour en saisir les enjeux. La “complexité” pour les spécialistes en physique ou ingénierie s’entend en termes de modèles en analyse mathématique (linéaire, polynomiale, exponentielle, factorielle) tandis que les informaticiens (non théoriciens et non logiciens) se bornent généralement à des formalismes d’ordre 1 (rarement d’ordre 2). Or, l’IA (même la “fausse IA” statistique) introduit des analyses causales d’ordres supérieurs dans ses développements. 
  5. Notons qu’il n’existe aujourd’hui aucun modèle prédictif de la santé car il faudrait avoir modélisé la totalité de l’organisme, tant sur le plan mécanique, biochimique, biologique que systémique. Pour prédire le comportement macroscopique d’un organisme vivant, il faut pouvoir modéliser non seulement la totalité des organes le composant, mais aussi leurs interactions, lesquelles ne sont analysables qu’en termes de cybernétique et d’analyse systémique. Prétendre le contraire relève de l’escroquerie intellectuelle, la biologie étant incapable de produire, à l’heure actuelle, des modélisations mathématiques ou informatiques complètes des comportements de macro-structures.
  6. En affirmant cela, l’UE ne dit rien de plus que ce qu’elle souhaite désigner, à savoir la nécessité de réduire les effets non désirés, à l’instar de la médecine qui s’intéresse aux symptômes, en ignorant le fond du problème et ses causes effectives.
  7. Cette dignité ontologique, héritière de la métaphysique occidentale, distinguerait l’homme de l’animal. Cette conception se retrouve dans les débats houleux relatifs à la distinction entre l’intelligence humaine et artificielle.
  8. Notons que les lignes directrices mentionnent incidemment le fait qu’une approche centrée sur l’humain devait aussi prendre en compte “l’environnement naturel et des autres êtres vivants qui font partie de l’écosystème humain”.