Qu’est-ce que l’intelligence artificielle et qu’est-ce qu’elle n’est pas

Ces dernières années, le terme intelligence artificielle et tout ce qui s’y rapporte a acquis une grande importance et un surdimensionnement. L’expression intelligence artificielle est abusée et utilisée de manière fondamentalement incorrecte au quotidien et dans de multiples sphères quotidiennes, de la politique aux affaires.

Existe-t-il des machines vraiment intelligentes, semblables aux humains ? Si nous répondons à cette question avec une certaine rigueur, à partir des fondements des sciences fondamentales qui soutiennent les piliers de ce domaine – les mathématiques et la physique –, la réponse est non. Et de nombreux scientifiques conjecturent et soutiennent sérieusement qu’ils n’existeront probablement jamais .

Partons des domaines de connaissances adjacents aux mathématiques et à la physique qui se sont développés depuis les années 30 et 40 du XXe siècle, comme l’informatique, l’électronique, l’automatisation ou le domaine de l’intelligence artificielle elle-même.

En 1937, deux publications scientifiques d’une énorme importance sont publiées : la première, On Computable Numbers, avec une application au Entscheidungsproblem par le mathématicien Alan Turing, et la seconde, Symbolic Analysis of Relays and Switching Circuits , par le mathématicien et ingénieur électronicien Claude Shannon. Ces travaux ont fondé la voie initiale de création de machines électroniques capables de calculer, de gérer des informations et de manipuler des symboles grâce à la programmation algorithmique.

Cependant, l’intelligence artificielle, entendue comme celle qui vise à reproduire des capacités intellectuelles similaires à celles des animaux ou des personnes (appelée intelligence générale ou intelligence forte ), n’a pas du tout été démontrée. C’est-à-dire qu’il n’existe aucune preuve mathématique ou physique, ni aucun prototype connu équivalent aux capacités de réflexion d’un cerveau humain.

Décision contre choix

En 1966, le mathématicien et professeur d’informatique au Massachusetts Institute of Technology (MIT) Joseph Weizenbaum a créé dans son laboratoire un programme appelé ELIZA capable de traiter le langage naturel.

Cet outil simple reconnaissait les mots clés dans les phrases de l’utilisateur pour choisir une phrase modèle dans sa base de données avec laquelle répondre.

ELIZA a pu entamer une conversation avec des êtres humains en simulant un psychologue empathique. Weizenbaum a modélisé son style de conversation sous forme de questions ouvertes pour encourager les patients à communiquer plus efficacement avec le thérapeute , et il a été surpris que son programme soit pris au sérieux par de nombreux utilisateurs.

Compte tenu du fait qu’un grand nombre d’admirateurs considéraient le programme comme le véritable précurseur des machines à penser, l’auteur lui-même a été contraint de préciser qu’il considérait cette interprétation comme complètement fausse et a tenté avec véhémence de corriger ces idées dans ses interventions ultérieures. .

Parmi de nombreux autres écrits, Weizenbaum a publié en 1976 le livre Computer Power and Human Reason: From Judgment to Calculation . Avec lui, il a essayé d’expliquer au grand public son travail et ses conséquences de la philosophie des sciences, sans inclure de formules mathématiques dérangeantes dans le texte.

Dans le livre, l’auteur fait la distinction entre les capacités des ordinateurs et le raisonnement humain, et fait une distinction cruciale entre décider et choisir . Tout comme dans l’automatisation, la décision et le contrôle d’un processus industriel sont mis en œuvre avec un circuit ou un ordinateur en tant que contrôleur programmé dudit processus, Weizenbaum explique que la décision est une activité de calcul, quelque chose qui peut finalement être programmé et, cependant, le choix est le produit d’un jugement et non d’un calcul.

Le rôle de la mécanique quantique

En 1989, le physicien, mathématicien et lauréat du prix Nobel 2020 Roger Penrose a publié son livre influent The Emperor’s New Mind dans lequel il démontre que la pensée humaine n’est pas essentiellement algorithmique.

À cheval sur les mathématiques, la philosophie des sciences et la physique, le texte intègre à la fois des démonstrations mathématiques et des discussions illustrées de tests d’intelligence célèbres (tels que le test de Turing et l’ expérience en chambre chinoise ). De plus, il conjecture l’éventuelle nécessité des lois de la mécanique quantique pour expliquer correctement notre esprit.

Le travail a été dévastateur pour l’intelligence artificielle forte traditionnelle. Il a inspiré les réponses de plusieurs auteurs dans divers domaines de la connaissance, mais leurs thèses n’ont pas pu être réfutées de manière convaincante.

Penrose a encore avancé ses idées avec le deuxième de ses livres sur la conscience humaine, publié en 1994 : Shadows of the Mind . Il comprend une proposition détaillée sur la manière dont ces processus quantiques pourraient être mis en œuvre dans le cerveau.

Les nouvelles conjectures, en collaboration avec la biologie et les neurosciences médicales proposées par Penrose, incluent notamment le cytosquelette des neurones. Les microtubules en particulier, composants importants du cytosquelette, sont des sites plausibles pour le traitement quantique et, finalement, pour la conscience.

Ces idées pourraient bien être fausses, comme le soutient Penrose lui-même. De nombreux chercheurs multidisciplinaires dans ces domaines ont tenté de réfuter une partie de ces propositions, mais elles sont toujours valables aujourd’hui .

Pas d’intelligence artificielle en vue

D’un point de vue global, on sait que de multiples approches ont été étudiées depuis des décennies pour tenter d’étendre l’intelligence artificielle. Les réseaux de neurones, les systèmes experts, la logique floue et, plus récemment , le deep learning et le big data ont donné naissance à des outils utiles pour résoudre des problèmes à des fins spécifiques.

Ces outils peuvent être impressionnants, mais nous devons être très clairs sur le fait que nous ne nous sommes pas approchés du développement de l’intelligence artificielle générale. L’intelligence dite faible (ou intelligence étroite) correspond aux applications que nous avons aujourd’hui , mais les affirmations exagérées sur ses succès nuisent en fait à la réputation de l’IA en tant que science.

En plus de quatre-vingts ans de recherche dans ce domaine, aucune preuve solide des niveaux humains d’intelligence artificielle générale n’a été produite. Nous savons que les circuits artificiels sont incapables de modéliser le système nerveux des invertébrés, même les plus simples. Même avec des ordinateurs très rapides et d’énormes bases de données, croire que le raisonnement, l’intelligence et la conscience surgiront d’une manière ou d’une autre simplement en augmentant de plus en plus la complexité semble n’être rien de plus qu’une impasse.

Les outils informatiques sont très utiles, mais même si une machine bat les joueurs d’échecs professionnels ou est capable de proposer un recours judiciaire en recherchant la jurisprudence dans sa grande base de données, ce n’est pas une machine à penser. Il est important de ne pas banaliser, de différencier entre outils technologiques et entités intelligentes, ainsi que de permettre à la science de continuer à travailler rigoureusement sur ce sujet passionnant.

Victor Etxebarria Ecenarro

Professeur, Université du Pays Basque / Euskal Herriko Unibertsitatea

Articles Similaires

- Advertisement -

A La Une