Pour paraphraser le philosophe Bernard Stiegler, l’objet technique, neutre par nature, peut devenir pharmacologique, c’est-à-dire poison ou remède en fonction de son usage . L’ambivalence qui caractérise le numérique, et plus spécifiquement l’intelligence artificielle (ci-après l’IA), en fait tout à la fois un instrument d’émancipation et d’aliénation.
Concernant les animaux utilisés à des fins scientifiques, ce constat relève de l’évidence : si l’IA peut être mobilisée dans le domaine des alternatives à l’expérimentation animale, comme l’attestent les pistes prometteuses du big data et du machine learning en toxicologie , elle peut aussi les asservir, à l’instar des singes tués et mutilés dans le cadre des recherches 1 menées par la startup Neuralink1. Dans cette dernière hypothèse, l’IA ne représente certes qu’un objectif indirect puisque les travaux tentant d’interfacer le biologique au silicium visent surtout à atteindre l’homme augmenté. Il reste que la cacophonie qui règne autour des nouvelles technologies est prompte à confondre, sous la même appellation, des réalités techno-scientifiques fort variées. Or, force est de constater que les technologies généreusement affublées de l’étiquette « IA » forment un ensemble hétéroclite que des précautions épistémologiques incitent plutôt à distinguer, quitte à en requalifier certaines. L’ambiguïté terminologique, savamment entretenue dans certains milieux, dessert plus qu’elle ne sert les méthodes substitutives aux tests sur les animaux basées sur l’informatique, les algorithmes, les données, et l’apprentissage machine. Aussi est-il nécessaire de spécifier le champ d’opérabilité de l’étude concernée, et préciser le type et les paramétrisations de l’IA exploitée ou développée, sous peine, le cas échéant, de s’exposer à de sévères critiques et discréditer la cause que l’on poursuit. Ces précisions faites, et sans prétention exhaustive, le présent article recense certaines recherches dont les résultats pourraient contribuer aux progrès de la recherche non animale. Loin de céder aux sirènes du techno-solutionnisme, le thème traité engage une réflexion plus générale sur les rapports entre l’éthique du numérique et l’IA, d’une part, et l’éthique animale, d’autre part.
Ces dernières années, de nombreux articles ont été publiés, principalement en anglais, en chimie numérique , modélisation moléculaire , toxicologie computationnelle , bioinformatique, médecine robotique, nano-médecine, biophysique et biologie computationnelles, domaines dans lesquels le numérique devait, à un niveau ou un autre, intervenir. L’aura de cette technologie — qualifiée de « disruptive »2 — est telle qu’elle irrigue massivement toutes les disciplines de la recherche scientifique actuelle, quitte à se combiner à d’autres technologies — tout aussi prometteuses pour la recherche non animale — comme les systèmes micro-physiologiques (organoïdes et systèmes d’organes sur puce) ou la bio-robotique. Si les publications mentionnant les méthodes in vitro et in silico ne se réfèrent pas toutes à la règle des « 3R »3, les chercheurs semblent de plus en plus conscients des limites inhérentes aux méthodes in vivo.
La rançon de ce succès est, faut-il y insister, le flou conceptuel et méthodologique qui entoure ce que l’on se plaît à qualifier hâtivement d’IA, alors qu’il s’agit, le plus souvent, de l’utilisation d’outils estampillés “IA” en conception, ou pour l’analyse des données du projet4. La réalité est que l’IA, dans son aspect machine learning, ne fait souvent que dissimuler des approches statistiques ou d’analyses des données, là où l’on s’attendrait à voir, à bon droit, de l’intelligence au niveau de la modélisation. De plus, il est aisé de faire l’impasse sur les problématiques de « boîte noire » et le fait que certains résultats ne sont pas toujours directement interprétables en termes biologiques.
Le cortège des imprécisions sémantiques s’étend hélas à des expressions porteuses d’espoirs pour les défenseurs des méthodes substitutives : que l’on songe aux promesses de voir un jour se substituer aux animaux de laboratoire des « robots biomimétiques » dotés de capteurs et dopés aux algorithmes, aux « jumeaux numériques », lesquels seraient capables de simuler tous les processus à l’œuvre dans les organismes vivants — en les modélisant (intégralement ?)5 — pour offrir des modèles prédictifs , ou encore à la réalité dite « virtuelle » ou « augmentée » supposée reproduire l’anatomie humaine et/ou animale, afin de permettre aux scientifiques de se passer définitivement des cobayes vivants. S’il est louable de promouvoir les « jumeaux virtuels » pour les raisons éthiques que nous connaissons, encore faut-il être rigoureux sur les modèles mathématiques qui les sous-tendent : s’agit-il d’une modélisation de tous les atomes en interaction composant l’organe en question, d’une modélisation fonctionnelle telle qu’on les réalise en physique ou ingénierie, ou encore d’un modèle seulement partiel ? Quels sont les mécanismes mis en équation ? De quelles données biologiques parle-t-on ? L’échantillonnage est-il représentatif ou ces données personnalisées sont-elles issues de patients présentant un même profil de morbidité ? En outre, sont-elles suffisantes pour décrire ledit organe dans tous ses détails physiologiques et fonctionnels, et prédire les comportements physiques, chimiques, biologiques pendant un laps de temps pertinent ? Autant de questions devant, en principe, guider la présentation des modélisations et hors desquelles un modèle ne peut être apprécié. On ne peut, dès lors, que regretter leur absence systématique dans les entreprises de vulgarisation ou de promotion des méthodes en question. À un niveau plus “méta”, ces interrogations questionnent notre propre intelligence à aborder des questions dépendant de l’intelligence introduite comme variable.
Notre quasi-incapacité à penser des sujets présentant une certaine réflexivité devrait nous inciter à davantage de rigueur et d’humilité dans notre façon d’aborder l’intelligence, qu’elle soit artificielle, humaine ou animale. Nous voudrions conclure notre réflexion sur la place que l’éthique du numérique accorde aux animaux non humains. Force est de reconnaître que la France accuse un retard en ce domaine au regard du nombre croissant de publications dans le monde anglo-saxon mettant l’accent sur la nécessité d’inclure les animaux dans l’éthique de l’IA. Nous savons, depuis la publication par l’Union européenne des lignes directrices pour une IA digne de confiance, que celle-ci devrait être « centrée sur l’humain »6. Cette approche se fonde sur la dignité humaine, en vertu de laquelle l’être humain posséderait une valeur intrinsèque et jouirait d’un statut moral unique et inaliénable7. Il nous semble qu’il y a là un biais anthropocentrique8 dont l’Europe devrait se défaire si elle souhaite, comme elle le prétend dans sa directive 2010/63/UE, mettre un terme à l’expérimentation animale. En effet, l’IA est une piste prometteuse pour la recherche non animale. Encore doit-on la prendre au sérieux.
A lire parmi les avis du CCNE publiés
En savoir plus sur le CCNE
https://www.ccne-ethique.fr/fr/cnpen
Image credit : Généré par Dall‑e