asd

La philosophie est cruciale à l’ère de l’IA

Les nouvelles connaissances scientifiques et les nouvelles techniques d’ingénierie ont toujours impressionné et effrayé. Il ne fait aucun doute qu’elles continueront de le faire. OpenAI a récemment annoncé qu’elle prévoyait une « superintelligence » – une IA surpassant les capacités humaines – au cours de cette décennie. Elle a donc constitué une nouvelle équipe et a consacré 20 % de ses ressources informatiques à garantir que le comportement de ces systèmes d’IA soit conforme aux valeurs humaines.

Il semble que les scientifiques ne souhaitent pas voir des superintelligences artificielles errantes déclarer la guerre à l’humanité, comme dans le thriller de science-fiction Terminator de James Cameron sorti en 1984 (le Terminator d’Arnold Schwarzenegger est renvoyé dans le passé à partir de 2029). OpenAI fait appel aux meilleurs chercheurs et ingénieurs en apprentissage automatique pour les aider à résoudre ce problème.

Mais les philosophes ont-ils quelque chose à apporter ? Plus généralement, que peut-on attendre de cette discipline millénaire dans la nouvelle ère technologiquement avancée qui émerge ?

Pour commencer à répondre à cette question, il convient de souligner que la philosophie a joué un rôle déterminant dans l’IA depuis sa création. L’une des premières réussites de l’IA fut un programme informatique de 1956 , surnommé le Logic Theorist, créé par Allen Newell et Herbert Simon. Son travail consistait à prouver des théorèmes à l’aide de propositions tirées des Principia Mathematica, un ouvrage en trois volumes de 1910 des philosophes Alfred North Whitehead et Bertrand Russell, visant à reconstruire toutes les mathématiques sur une base logique.

En effet, l’ accent mis dès le début sur la logique dans l’IA doit beaucoup aux débats fondateurs menés par les mathématiciens et les philosophes.

L’élaboration de la logique moderne par le philosophe allemand Gottlob Frege à la fin du XIXe siècle a constitué une étape importante. Frege a introduit dans la logique l’utilisation de variables quantifiables, plutôt que d’objets tels que des personnes. Son approche a permis non seulement de dire, par exemple, « Joe Biden est président », mais aussi d’exprimer systématiquement des idées générales telles que « il existe un X tel que X est président », où « il existe » est un quantificateur et « X » est une variable.

Parmi les autres contributeurs importants des années 1930, on peut citer le logicien d’origine autrichienne Kurt Gödel, dont les théorèmes de complétude et d’incomplétude portent sur les limites de ce que l’on peut prouver, et la « preuve de l’indéfinissabilité de la vérité » du logicien polonais Alfred Tarski. Ce dernier a montré que la « vérité » dans tout système formel standard ne peut être définie au sein de ce système particulier, de sorte que la vérité arithmétique, par exemple, ne peut être définie au sein du système arithmétique.

Enfin, la notion abstraite de machine informatique formulée en 1936 par le pionnier britannique Alan Turing s’est inspirée de ce développement et a eu un impact considérable sur les débuts de l’IA.

On pourrait cependant dire que même si cette bonne vieille IA symbolique était redevable à une philosophie et une logique de haut niveau, l’IA de la « deuxième vague » , basée sur l’apprentissage profond, dérive davantage des prouesses d’ingénierie concrètes associées au traitement de vastes quantités de données.

Mais la philosophie a aussi joué un rôle ici. Prenons l’exemple des grands modèles linguistiques, comme celui qui alimente ChatGPT, qui produit des textes conversationnels. Ce sont des modèles énormes, avec des milliards, voire des milliers de milliards de paramètres, formés sur de vastes ensembles de données (comprenant généralement une grande partie de l’Internet). Mais au fond, ils suivent – ​​et exploitent – ​​les modèles statistiques d’utilisation du langage. Une idée très proche de cette idée a été formulée par le philosophe autrichien Ludwig Wittgenstein au milieu du XXe siècle : « le sens d’un mot », a-t-il déclaré, « est son utilisation dans la langue ».

Mais la philosophie contemporaine, et pas seulement son histoire, est pertinente pour l’IA et son développement. Un master en droit pourrait-il réellement comprendre le langage qu’il traite ? Pourrait-il atteindre la conscience ? Ce sont là des questions profondément philosophiques.

La science n’a pas encore réussi à expliquer complètement comment la conscience naît des cellules du cerveau humain. Certains philosophes pensent même qu’il s’agit d’un « problème si difficile » qu’il dépasse le cadre de la science et qu’il pourrait nécessiter l’aide de la philosophie.

Dans la même optique, on peut se demander si une IA capable de générer des images pourrait être véritablement créative. Margaret Boden, spécialiste britannique des sciences cognitives et philosophe de l’IA, soutient que même si l’IA sera capable de produire de nouvelles idées, elle aura du mal à les évaluer comme le font les créatifs.

Elle anticipe également que seule une architecture hybride (neuro-symbolique) – qui utilise à la fois les techniques logiques et l’apprentissage profond à partir des données – permettra d’atteindre l’intelligence artificielle générale.

Les valeurs humaines

Pour revenir à l’annonce d’OpenAI, lorsque nous avons posé notre question sur le rôle de la philosophie à l’ère de l’IA, ChatGPT nous a suggéré que (entre autres choses) elle « contribue à garantir que le développement et l’utilisation de l’IA soient alignés sur les valeurs humaines ».

Dans cet esprit, nous pouvons peut-être nous permettre de proposer que, si l’alignement de l’IA est le problème sérieux qu’OpenAI considère comme tel, il ne s’agit pas seulement d’un problème technique à résoudre par des ingénieurs ou des entreprises technologiques, mais aussi d’un problème social. Cela nécessitera l’apport de philosophes, mais aussi de spécialistes des sciences sociales, de juristes, de décideurs politiques, d’utilisateurs citoyens et d’autres.

En effet, de nombreuses personnes s’inquiètent de la montée en puissance et de l’influence des entreprises technologiques et de leur impact sur la démocratie. Certains estiment que nous devons repenser l’IA, en prenant en compte les systèmes sous-jacents qui soutiennent ce secteur. L’avocat et auteur britannique Jamie Susskind, par exemple, estime qu’il est temps de construire une « république numérique », qui rejette le système politique et économique qui a donné tant d’influence aux entreprises technologiques.

Enfin, posons-nous brièvement la question de savoir quel effet l’IA aura sur la philosophie. La logique formelle en philosophie remonte en fait aux travaux d’Aristote dans l’Antiquité. Au XVIIe siècle, le philosophe allemand Gottfried Leibniz a suggéré que nous pourrions un jour disposer d’un « calcul ratiocinateur » – une machine à calculer qui nous aiderait à trouver des réponses à des questions philosophiques et scientifiques de manière quasi oraculaire.

Peut-être commençons-nous aujourd’hui à concrétiser cette vision, certains auteurs préconisant une « philosophie computationnelle » qui encode littéralement les hypothèses et en tire les conséquences. Cela permet en fin de compte d’évaluer les résultats de manière factuelle et/ou fondée sur des valeurs.

Par exemple, le projet PolyGraphs simule les effets du partage d’informations sur les réseaux sociaux. Ces résultats peuvent ensuite être utilisés pour répondre par ordinateur à des questions sur la manière dont nous devrions former nos opinions.

Certes, les progrès de l’IA ont donné matière à réflexion aux philosophes ; ils ont peut-être même commencé à fournir quelques réponses.

Brian Ball

Professeur associé de philosophie, d’intelligence artificielle et d’éthique de l’information, Northeastern University London

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Articles Similaires

- Advertisement -

A La Une