De l’IA à Z : tous les termes que vous devez connaître pour rester à la pointe de l’IA

L’intelligence artificielle (IA) devient de plus en plus présente dans nos vies. Il n’est plus confiné à certaines industries ou institutions de recherche ; L’IA est maintenant pour tout le monde. Il est difficile d’esquiver le déluge de contenu d’IA en cours de production, et encore plus difficile de donner un sens aux nombreux termes utilisés. Mais nous ne pouvons pas avoir de conversations sur l’IA sans comprendre les concepts qui la sous-tendent.

Voici un glossaire de termes que nous pensons que tout le monde devrait connaître, s’ils veulent suivre le rythme.

Algorithme

Un algorithme est un ensemble d’instructions données à un ordinateur pour résoudre un problème ou pour effectuer des calculs qui transforment des données en informations utiles.

Problème d’alignement

Le problème d’alignement fait référence à l’écart entre nos objectifs prévus pour un système d’IA et le résultat qu’il produit. Un système mal aligné peut être plus performant, mais se comporter d’une manière qui va à l’encontre des valeurs humaines. Nous en avons vu un exemple en 2015 lorsqu’un algorithme de reconnaissance d’images utilisé par Google Photos a été trouvé, marquant automatiquement des photos de personnes noires comme des « gorilles ».

Intelligence Artificielle Générale (IAG)

L’intelligence artificielle générale fait référence à un point hypothétique dans le futur où l’IA devrait égaler (ou dépasser) les capacités cognitives des humains. La plupart des experts en IA conviennent que cela se produira, mais ne sont pas d’accord sur des détails spécifiques tels que le moment où cela se produira et si cela se traduira ou non par des systèmes d’IA entièrement autonomes.

Réseau de neurones artificiels (ANN)

Les réseaux de neurones artificiels sont des algorithmes informatiques utilisés dans une branche de l’IA appelée apprentissage en profondeur . Ils sont constitués de couches de nœuds interconnectés d’une manière qui imite les circuits neuronaux du cerveau humain.

Big Data

Les mégadonnées font référence à des ensembles de données beaucoup plus volumineux et complexes que les données traditionnelles. Ces ensembles de données, qui dépassent largement la capacité de stockage des ordinateurs domestiques, ont aidé les modèles d’IA actuels à fonctionner avec des niveaux de précision élevés.

Le Big Data peut être caractérisé par quatre V : le « volume » fait référence à la quantité globale de données, la « vélocité » fait référence à la rapidité avec laquelle les données se développent, la « véracité » fait référence à la complexité des données et la « variété » fait référence aux différents types de données. formats dans lesquels les données arrivent.

Chambre Chinoise

L’ expérience de pensée Chinese Room a été proposée pour la première fois par le philosophe américain John Searle en 1980. Elle soutient qu’un programme informatique, aussi intelligent soit-il dans sa conception, ne sera jamais conscient et restera incapable de vraiment comprendre son comportement comme le fait un humain .

Ce concept revient souvent dans les conversations sur les outils d’IA tels que ChatGPT, qui semblent présenter les traits d’une entité consciente de soi – mais ne présentent en fait que des résultats basés sur des prédictions faites par le modèle sous-jacent.

L’apprentissage en profondeur

L’apprentissage en profondeur est une catégorie de la branche de l’apprentissage automatique de l’IA. Les systèmes d’apprentissage en profondeur utilisent des réseaux de neurones avancés et peuvent traiter de grandes quantités de données complexes pour atteindre une plus grande précision.

Ces systèmes fonctionnent bien sur des tâches relativement complexes et peuvent même présenter un comportement intelligent de type humain.

Modèle de diffusion

Un modèle de diffusion est un modèle d’IA qui apprend en ajoutant du « bruit » aléatoire à un ensemble de données d’apprentissage avant de le supprimer, puis en évaluant les différences. L’objectif est d’apprendre les modèles sous-jacents ou les relations dans les données qui ne sont pas immédiatement évidentes.

Ces modèles sont conçus pour s’autocorriger lorsqu’ils rencontrent de nouvelles données et sont donc particulièrement utiles dans des situations où il y a de l’incertitude ou si le problème est très complexe.

IA explicable

L’IA explicable est un domaine interdisciplinaire émergent qui s’intéresse à la création de méthodes qui augmenteront la confiance des utilisateurs dans les processus des systèmes d’IA.

En raison de la complexité inhérente de certains modèles d’IA, leur fonctionnement interne est souvent opaque et nous ne pouvons pas dire avec certitude pourquoi ils produisent les résultats qu’ils produisent. L’IA explicable vise à rendre ces systèmes de « boîte noire » plus transparents.

IA générative

Ce sont des systèmes d’IA qui génèrent de nouveaux contenus – y compris du texte, des images, du contenu audio et vidéo – en réponse à des invites. Les exemples populaires incluent ChatGPT, DALL-E 2 et Midjourney.

Étiquetage

L’étiquetage des données est le processus par lequel les points de données sont catégorisés pour aider un modèle d’IA à donner un sens aux données. Cela implique l’identification des structures de données (telles que l’image, le texte, l’audio ou la vidéo) et l’ajout d’étiquettes (telles que les balises et les classes) aux données.

Les humains font l’étiquetage avant le début de l’apprentissage automatique. Les données étiquetées sont divisées en ensembles de données distincts pour la formation, la validation et les tests.

L’ensemble d’apprentissage est transmis au système pour l’apprentissage. L’ensemble de validation est utilisé pour vérifier si le modèle fonctionne comme prévu et quand le réglage et la formation des paramètres peuvent s’arrêter. L’ensemble de test est utilisé pour évaluer les performances du modèle fini.

Grand modèle de langage (LLM)

Les grands modèles de langage (LLM) sont formés sur des quantités massives de texte non étiqueté. Ils analysent les données, apprennent les modèles entre les mots et peuvent produire des réponses de type humain. Quelques exemples de systèmes d’IA qui utilisent de grands modèles de langage sont la série GPT d’OpenAI et les séries BERT et LaMDA de Google.

Apprentissage automatique

L’apprentissage automatique est une branche de l’IA qui implique la formation de systèmes d’IA capables d’analyser des données, d’apprendre des modèles et de faire des prédictions sans instruction humaine spécifique.

Traitement du langage naturel (TAL)

Alors que les grands modèles de langage sont un type spécifique de modèle d’IA utilisé pour les tâches liées au langage, le traitement du langage naturel est le domaine plus large de l’IA qui se concentre sur la capacité des machines à apprendre, comprendre et produire le langage humain.

Paramètres

Les paramètres sont les paramètres utilisés pour régler les modèles d’apprentissage automatique. Vous pouvez les considérer comme les pondérations et les biais programmés qu’un modèle utilise lors de la réalisation d’une prédiction ou de l’exécution d’une tâche.

Étant donné que les paramètres déterminent la manière dont le modèle traitera et analysera les données, ils déterminent également ses performances. Un exemple de paramètre est le nombre de neurones dans une couche donnée du réseau de neurones. L’augmentation du nombre de neurones permettra au réseau de neurones de s’attaquer à des tâches plus complexes, mais le compromis sera un temps et des coûts de calcul plus élevés.

IA responsable

Le mouvement de l’IA responsable plaide pour le développement et le déploiement de systèmes d’IA centrés sur l’humain.

L’un des aspects consiste à intégrer des systèmes d’IA avec des règles qui les feront adhérer à des principes éthiques. Cela les empêcherait (idéalement) de produire des résultats biaisés, discriminatoires ou qui pourraient autrement conduire à des résultats néfastes.

Analyse des sentiments

L’analyse des sentiments est une technique de traitement du langage naturel utilisée pour identifier et interpréter les émotions derrière un texte . Il capture des informations implicites telles que, par exemple, le ton de l’auteur et l’étendue de l’expression positive ou négative.

Enseignement supervisé

L’apprentissage supervisé est une approche d’apprentissage automatique dans laquelle des données étiquetées sont utilisées pour entraîner un algorithme à faire des prédictions. L’algorithme apprend à faire correspondre les données d’entrée étiquetées à la sortie correcte. Après avoir appris d’un grand nombre d’exemples, il peut continuer à faire des prédictions lorsqu’il est présenté avec de nouvelles données.

Données d’entraînement

Les données d’entraînement sont les données (généralement étiquetées) utilisées pour enseigner aux systèmes d’IA comment faire des prédictions. La précision et la représentativité des données d’entraînement ont un impact majeur sur l’efficacité d’un modèle.

Transformateur

Un transformateur est un type de modèle d’apprentissage en profondeur utilisé principalement dans les tâches de traitement du langage naturel.

Le transformateur est conçu pour traiter des données séquentielles, telles que du texte en langage naturel, et déterminer comment les différentes parties sont liées les unes aux autres. Cela peut être comparé à la façon dont une personne lisant une phrase fait attention à l’ordre des mots pour comprendre le sens de la phrase dans son ensemble.

Un exemple est le transformateur pré-formé génératif (GPT), sur lequel le chatbot ChatGPT s’exécute. Le modèle GPT utilise un transformateur pour apprendre à partir d’un grand corpus de texte non étiqueté.

Essai de Turing

Le test de Turing est un concept d’intelligence artificielle introduit pour la première fois par l’informaticien Alan Turing en 1950.

C’est conçu comme un moyen de déterminer si un ordinateur peut faire preuve d’intelligence humaine. Dans le test, les sorties informatiques et humaines sont comparées par un évaluateur humain. Si les sorties sont jugées impossibles à distinguer, l’ordinateur a réussi le test.

LaMDA de Google et ChatGPT d’OpenAI auraient réussi le test de Turing – bien que les critiques disent que les résultats révèlent les limites de l’utilisation du test pour comparer l’intelligence informatique et humaine.

Apprentissage non supervisé

L’apprentissage non supervisé est une approche d’apprentissage automatique dans laquelle les algorithmes sont entraînés sur des données non étiquetées. Sans intervention humaine, le système explore les modèles dans les données, dans le but de découvrir des modèles non identifiés qui pourraient être utilisés pour une analyse plus approfondie.

Samar Fátima

Chargé de recherche Enterprise AI and Data Analytics Hub, RMIT University

Articles Similaires

- Advertisement -

A La Une