La nouvelle initiative « Mission Genesis » de Donald Trump promet d’utiliser l’intelligence artificielle pour réinventer la pratique scientifique, dans le but de relever les défis les plus complexes dans des domaines tels que la robotique, la biotechnologie et la fusion nucléaire.
Ce système envisage une approche où l’IA conçoit des expériences, les réalise, tire des enseignements des résultats et propose en permanence de nouvelles pistes de recherche. L’objectif est d’accroître considérablement la productivité de la recherche financée par l’État.
Cette vision s’inscrit dans une tendance internationale plus large, y compris au Royaume-Uni : les gouvernements investissent massivement dans l’IA pour la science, citant des succès tels que AlphaFold de DeepMind , qui prédit les structures protéiques et est désormais intégré dans de nombreux domaines de la biologie et de la découverte de médicaments.
Cependant, les principaux enseignements de la philosophie des sciences montrent pourquoi « automatiser la découverte » est bien plus difficile – et risquée – que ne le laisse entendre la rhétorique.
Le philosophe Karl Popper a décrit la science comme un processus de « conjectures audacieuses et de tentatives rigoureuses pour les réfuter ». Dans cette perspective, la découverte commence lorsque les chercheurs se trouvent face à une anomalie – un phénomène que les théories existantes peinent à expliquer. Ils proposent alors de nouvelles hypothèses susceptibles de résoudre l’énigme. Les philosophes appellent cela « abduction » : inférer une explication plutôt que de simplement extrapoler à partir de données antérieures.
Les grands modèles de langage qui sous-tendent les systèmes d’IA actuels imitent certains schémas de raisonnement abductif. Mais ils ne possèdent ni l’expérience, ni le savoir-faire, ni la compréhension situationnelle sur lesquels s’appuient les scientifiques pour reformuler un problème ou redéfinir ce qui constitue une anomalie.
Les machines excellent dans la détection de régularités dans les données existantes. Pourtant, les avancées scientifiques les plus intéressantes surviennent souvent lorsque les chercheurs remarquent ce que les données ne parviennent pas à saisir – ou décident qu’une anomalie jusque-là ignorée est en réalité un indice ouvrant la voie à une nouvelle piste de recherche.
Même lorsqu’une nouvelle idée est proposée, les scientifiques doivent décider quelles théories approfondir, affiner et dans lesquelles investir des ressources limitées . Ces choix sont guidés non seulement par des résultats empiriques immédiats, mais aussi par des qualités telles que la cohérence avec d’autres idées, la simplicité, la profondeur explicative ou la capacité d’ouvrir la voie à de nouveaux programmes de recherche prometteurs.
Aucun de ces éléments ne peut être réduit à des règles fixes. Tenter de les réduire à des indicateurs plus simples mais plus mesurables risque de privilégier des projets générant des gains à court terme au détriment de pistes de recherche spéculatives mais potentiellement transformatrices. Il existe également un risque d’ignorer les hypothèses qui remettent en question l’ordre établi.
La justification ne se résume pas aux données
Les scientifiques évaluent les théories concurrentes à l’aide de données probantes, mais les philosophes ont depuis longtemps constaté que les données, à elles seules , contraignent rarement à une conclusion unique. Plusieurs théories incompatibles peuvent souvent expliquer les mêmes données, ce qui signifie que les scientifiques doivent peser le pour et le contre de chaque théorie, examiner leurs hypothèses sous-jacentes et débattre de la nécessité, face à certaines anomalies, de recueillir davantage de données ou de modifier le cadre théorique.
L’automatisation complète de cette étape est source de problèmes, car les systèmes de décision algorithmiques ont tendance à dissimuler leurs hypothèses et à réduire des compromis complexes à des résultats binaires : approuver ou refuser, signaler ou ignorer. Le scandale néerlandais des allocations familiales de 2021 a illustré les conséquences de ce phénomène sur les politiques publiques. Un algorithme d’évaluation des risques a « émettre des hypothèses » et « évalué » quelles familles commettaient des fraudes pour obtenir des allocations. Ces conclusions « justifiées » ont ensuite été intégrées à des processus automatisés exigeant le remboursement des allocations, plongeant ainsi de nombreuses familles innocentes dans la ruine financière.
Genesis propose d’intégrer des formes d’automatisation similaires aux processus de décision scientifique. Par exemple, cela pourrait permettre à des agents d’IA de déterminer quels résultats sont crédibles, quelles expériences sont redondantes et quelles pistes de recherche doivent être abandonnées. Tout cela soulève des inquiétudes : comment expliquer les conclusions d’un agent ? Existe-t-il un biais sous-jacent dans sa programmation ? Le processus est-il réellement contrôlé ?
Une autre leçon tirée de la philosophie et de l’histoire des sciences est que la production de données ne représente que la moitié du travail ; les scientifiques doivent également se convaincre mutuellement du bien-fondé d’une affirmation. Le philosophe autrichien Paul Feyerabend a montré comment même des figures emblématiques telles que Galilée choisissaient stratégiquement leur langage, leur public et leur style rhétorique pour promouvoir de nouvelles idées.
Cela ne signifie pas que la science est de la propagande ; l’idée est que la connaissance est acceptée grâce à l’argumentation, la critique et le jugement des pairs d’un scientifique.
Si les systèmes d’IA commencent à formuler des hypothèses, à mener des expériences et même à rédiger des articles avec une intervention humaine minimale, la question se pose de savoir qui est réellement responsable de convaincre la communauté scientifique dans un domaine donné. Les revues, les comités de lecture et les organismes de financement examineront-ils les arguments élaborés par les modèles de base avec le même scepticisme que celui appliqué aux auteurs humains ? Ou bien l’aura d’objectivité des machines rendra-t-elle plus difficile la remise en question des méthodes et des hypothèses erronées profondément ancrées dans le processus ?
Prenons l’exemple d’AlphaFold, souvent cité comme preuve que l’IA peut « résoudre » des problèmes scientifiques majeurs. Ce système a en effet transformé la biologie structurale (l’étude de la forme des molécules vivantes) en fournissant des prédictions de haute qualité pour un grand nombre de protéines. Il a considérablement facilité l’étude de l’influence de la structure d’une protéine sur son fonctionnement.
Cependant, des évaluations rigoureuses soulignent que ces résultats doivent être considérés comme des « hypothèses précieuses » : des points de départ très instructifs qui nécessitent encore une validation expérimentale .
Les propositions de type Genesis risquent de généraliser à outrance à partir de tels succès, en oubliant que les systèmes d’IA les plus utiles scientifiquement fonctionnent précisément parce qu’ils sont intégrés dans des écosystèmes de recherche dirigés par l’humain, et non parce qu’ils gèrent des laboratoires de manière autonome.
Protéger ce qui rend la science si spéciale
Les institutions scientifiques ont émergé en partie pour arracher l’autorité aux traditions opaques, aux castes sacerdotales et aux guérisseurs charismatiques, remplaçant les appels à l’enchantement par des normes publiques de preuve, de méthode et de critique.
Pourtant, la pratique scientifique a toujours été auréolée d’un certain romantisme : les récits d’illuminations soudaines, les débats passionnés autour de théories rivales et l’effort collectif pour appréhender un monde qui se heurte à nos réalités. Ce romantisme n’est pas un simple ornement ; il reflète les facultés humaines – curiosité, courage, ténacité, imagination – qui font progresser la recherche.
Automatiser la science comme l’envisage Genesis risque de la réduire à ce qui peut être consigné dans des ensembles de données, des fonctions de perte et des diagrammes de flux de travail. Une approche plus responsable consisterait à considérer l’IA comme un ensemble d’outils puissants, solidement ancrés au sein des communautés de recherche humaines. Ces outils viendraient en définitive soutenir, sans jamais se substituer, les processus complexes, argumentatifs et souvent imprévisibles par lesquels le savoir scientifique est créé, débattu et, finalement, validé.
Akhil Bhardwaj
Professeur associé (Stratégie et organisation), École de gestion, Université de Bath




















