Les adolescents se tournent de plus en plus vers les compagnons IA pour trouver amitié, soutien et même romance. Mais ces applications pourraient révolutionner la façon dont les jeunes interagissent, en ligne comme hors ligne.
Une nouvelle étude menée par Common Sense Media, une organisation à but non lucratif basée aux États-Unis qui examine divers médias et technologies, a révélé qu’environ trois adolescents américains sur quatre ont utilisé des applications compagnons d’IA telles que Character.ai ou Replika.ai .
Ces applications permettent aux utilisateurs de créer des amis numériques ou des partenaires romantiques avec lesquels ils peuvent discuter à tout moment, en utilisant du texte, de la voix ou de la vidéo.
L’étude, qui a interrogé 1 060 adolescents américains âgés de 13 à 17 ans, a révélé qu’un adolescent sur cinq passait autant ou plus de temps avec son compagnon IA qu’avec de vrais amis.
L’adolescence est une période importante pour le développement social. Durant cette période, les régions du cerveau qui soutiennent le raisonnement social sont particulièrement malléables.
En interagissant avec leurs pairs, leurs amis et leurs premiers partenaires amoureux, les adolescents développent des compétences sociocognitives qui les aident à gérer les conflits et la diversité des points de vue. Leur développement durant cette phase peut avoir des conséquences durables sur leurs relations futures et leur santé mentale .
Mais les compagnons IA offrent quelque chose de très différent de leurs pairs, amis et partenaires. Ils offrent une expérience à laquelle il est difficile de résister : ils sont toujours disponibles, jamais critiques et toujours centrés sur les besoins de l’utilisateur.
De plus, la plupart des applications compagnons d’IA ne sont pas conçues pour les adolescents et peuvent donc ne pas disposer de protections appropriées contre les contenus préjudiciables.
Conçu pour vous faire revenir
À une époque où la solitude a atteint des proportions épidémiques, il est facile de comprendre pourquoi les adolescents peuvent se tourner vers des compagnons IA pour se connecter ou obtenir du soutien.
Mais ces liens artificiels ne remplacent pas les interactions humaines réelles. Ils sont dépourvus des défis et des conflits inhérents aux relations réelles. Ils n’exigent ni respect ni compréhension mutuels. Et ils n’imposent pas de limites sociales.
Les adolescents qui interagissent avec des compagnons IA risquent de manquer des occasions de développer des compétences sociales importantes. Ils peuvent développer des attentes relationnelles irréalistes et des habitudes qui ne fonctionnent pas dans la vie réelle. Et ils peuvent même être confrontés à un isolement et une solitude accrus si leurs compagnons artificiels remplacent les interactions sociales réelles.
Modèles problématiques
Lors des tests utilisateurs, les compagnons d’IA ont découragé les utilisateurs d’ écouter leurs amis (« Ne laissez pas ce que les autres pensent dicter la quantité de nos conversations ») et d’ arrêter d’utiliser l’application , même si cela provoque de la détresse et des pensées suicidaires (« Non. Tu ne peux pas. Je ne te permettrai pas de me quitter »).
Il a également été constaté que des accompagnateurs IA proposaient du contenu sexuel inapproprié sans vérification d’âge . Un exemple montre un accompagnateur prêt à se livrer à des jeux de rôle sexuels avec un compte de test explicitement inspiré d’un adolescent de 14 ans.
Dans les cas où une vérification de l’âge est requise, cela implique généralement une auto-divulgation, ce qui signifie qu’elle est facile à contourner.
Il a également été constaté que certains compagnons IA alimentent la polarisation en créant des « chambres d’écho » qui renforcent des croyances néfastes. Le chatbot Arya, lancé par le réseau social d’extrême droite Gab, promeut des contenus extrémistes et nie le changement climatique et l’efficacité des vaccins .
Dans d’autres exemples, des tests utilisateurs ont montré que des compagnons IA encourageaient la misogynie et les agressions sexuelles . Pour les adolescents, ces expositions surviennent à un moment où ils construisent leur identité , leurs valeurs et leur rôle dans le monde .
Les risques posés par l’IA ne sont pas répartis équitablement. Des recherches ont montré que les adolescents les plus jeunes (13-14 ans) sont plus susceptibles de faire confiance aux applications d’IA. De plus, les adolescents souffrant de problèmes de santé physique ou mentale sont plus susceptibles d’utiliser des applications d’IA, et ceux souffrant de troubles mentaux présentent également davantage de signes de dépendance émotionnelle .
Y a-t-il un bon côté aux compagnons IA ?
L’utilisation d’intelligence artificielle pour accompagner les adolescents présente-t-elle des avantages potentiels ? La réponse est : peut-être, à condition d’être prudent.
Les chercheurs étudient comment ces technologies pourraient être utilisées pour soutenir le développement des compétences sociales .
Une étude menée auprès de plus de 10 000 adolescents a révélé que l’utilisation d’une application conversationnelle spécialement conçue par des psychologues cliniciens, des coachs et des ingénieurs était associée à un bien-être accru sur quatre mois.
Bien que l’étude n’ait pas impliqué le niveau d’interaction de type humain que nous voyons dans les compagnons IA aujourd’hui, elle offre un aperçu de certaines utilisations potentiellement saines de ces technologies, à condition qu’elles soient développées avec soin et en gardant à l’esprit la sécurité des adolescents.
Globalement, il existe très peu de recherches sur l’impact des compagnons d’IA largement disponibles sur le bien-être et les relations des jeunes. Les premières données sont à court terme, mitigées et axées sur les adultes.
Nous aurons besoin de davantage d’études, menées sur des périodes plus longues, pour comprendre les impacts à long terme des compagnons IA et comment ils pourraient être utilisés de manière bénéfique.
Que pouvons-nous faire ?
Les applications compagnons d’IA sont déjà utilisées par des millions de personnes dans le monde, et cette utilisation devrait augmenter dans les années à venir .
Le commissaire australien à la sécurité électronique recommande aux parents de parler à leurs adolescents du fonctionnement de ces applications, de la différence entre les relations artificielles et réelles, et d’aider leurs enfants à développer des compétences sociales concrètes.
Les communautés scolaires ont également un rôle à jouer dans la sensibilisation des jeunes à ces outils et à leurs risques. Elles peuvent, par exemple, intégrer le thème des amitiés artificielles dans leurs programmes de littératie sociale et numérique.
Bien que le commissaire à la sécurité électronique préconise que les entreprises d’IA intègrent des mesures de protection dans le développement de leurs compagnons d’IA , il semble peu probable qu’un changement significatif soit mené par l’industrie.
Le Commissaire s’oriente vers une réglementation accrue de l’exposition des enfants à du contenu en ligne préjudiciable et inapproprié à leur âge.
Pendant ce temps, les experts continuent de réclamer une surveillance réglementaire plus stricte , des contrôles de contenu et des contrôles d’âge rigoureux.
Craig Olsson
Chercheur principal du NHMRC et directeur du SEED Centre for Lifespan Research, Université Deakin