Alors que les systèmes d'intelligence artificielle s'imposent progressivement dans les laboratoires de recherche, une question fondamentale refait surface dans le monde scientifique : jusqu'où peut-on déléguer à une machine ce que l'on ne comprend plus soi-même ? Dans une tribune publiée le 8 avril 2026 dans Le Monde, la physicienne Wiebke Drenckhan et le philosophe Jean Farago mobilisent l'héritage d'Isaac Asimov pour formuler une mise en garde contre ce qu'ils décrivent comme une tendance croissante et encore largement sous-estimée dans la communauté scientifique.

Le paradoxe de la délégation cognitive

Le cœur de l'argument est moins technologique que philosophique. Lorsqu'un chercheur confie à un modèle d'IA l'analyse de données qu'il n'est plus en mesure d'interpréter lui-même, il s'éloigne de la pratique scientifique au sens classique du terme : il valide des résultats sans en maîtriser pleinement les fondements. Ce glissement, progressif et souvent imperceptible, est précisément ce que Drenckhan et Farago cherchent à nommer. Le risque n'est pas que l'IA se trompe — les systèmes actuels restent sujets à des erreurs — mais qu'un chercheur ne soit plus en position de détecter ces erreurs ni d'en comprendre l'origine.

La référence à Asimov n'est pas anodine. L'auteur de Fondation et des lois de la robotique avait imaginé des civilisations entières incapables de fonctionner sans leurs machines, non par malveillance de ces dernières, mais par une atrophie progressive des capacités humaines. Le parallèle avec la recherche contemporaine est tracé avec soin : ce n'est pas l'IA qui menace la science, mais l'abandon de l'exigence de compréhension qui en fragilise les fondements.

Un débat qui traverse déjà plusieurs disciplines

Ce questionnement n'est pas isolé. En biologie computationnelle, en physique théorique et en chimie prédictive, des équipes utilisent désormais des modèles de grande taille pour générer des hypothèses, identifier des corrélations ou proposer des structures moléculaires sans que les chercheurs puissent toujours retracer le raisonnement sous-jacent. Cette opacité, souvent liée à la complexité intrinsèque des modèles, pose des défis nouveaux pour la validation scientifique.

Des publications récentes dans des revues spécialisées ont signalé des cas où des résultats produits par des outils d'IA n'ont pas pu être reproduits par des méthodes conventionnelles, soulevant des interrogations sur la robustesse épistémique de ces approches. Cette difficulté à reproduire ou expliquer certains résultats fragilise un pilier central de la méthode scientifique : la vérifiabilité.

Les partisans d'une intégration plus large de l'IA dans la recherche avancent, eux, que l'outillage scientifique a toujours dépassé la compréhension intuitive immédiate — du microscope électronique aux accélérateurs de particules. L'argument est recevable, mais Drenckhan et Farago y opposent une distinction nette : un instrument amplifie la perception humaine, alors qu'un modèle génératif peut, dans certains cas, s'y substituer. Ce n'est pas la même relation au savoir ni au processus de validation.

Quelle gouvernance pour la science augmentée ?

La tribune ne plaide pas pour un rejet de l'IA dans la recherche. Elle appelle à une réflexion institutionnelle sur les conditions dans lesquelles ces outils sont déployés : formation des chercheurs, exigences de transparence algorithmique dans les publications et maintien d'une culture de la vérification par les pairs qui ne se contente pas de valider un résultat, mais en exige l'intelligibilité.

Ces questions commencent à atteindre les instances de financement et d'accréditation scientifique. Plusieurs agences de recherche européennes ont engagé en 2025 des consultations sur les critères d'acceptabilité des méthodes fondées sur l'IA dans les projets qu'elles financent. La réponse institutionnelle reste fragmentée, mais le signal est clair : la communauté scientifique ne peut plus traiter la délégation cognitive comme une simple question d'efficacité, mais comme une question centrale de méthode scientifique à long terme.