asd

L’utilisation des outils d’IA est-elle une innovation ou une exploitation ?

L’intelligence artificielle peut être utilisée de multiples façons – et les problèmes éthiques qu’elle soulève sont eux aussi innombrables.

Prenons l’exemple des « créateurs de contenu pour adultes », qui ne sont pas forcément le premier domaine qui vient à l’esprit. En 2024, on a assisté à une forte augmentation du nombre d’influenceurs créés par l’IA sur Instagram : de faux modèles avec des visages créés par l’IA, attachés à des photos et vidéos volées de vrais modèles. Non seulement les créateurs de contenu d’origine n’ont pas consenti à ce que leurs images soient utilisées, mais ils n’ont pas été rémunérés.

Dans tous les secteurs d’activité, les travailleurs sont confrontés chaque jour à des questions éthiques plus immédiates sur l’opportunité d’utiliser l’IA. Dans un essai mené par le cabinet d’avocats britannique Ashurst, trois systèmes d’IA ont considérablement accéléré l’examen des documents , mais ont manqué des nuances juridiques subtiles que des avocats expérimentés auraient pu saisir. De même, les journalistes doivent trouver un équilibre entre l’efficacité de l’IA pour résumer les recherches de fond et la rigueur requise par les normes de vérification des faits.

Ces exemples illustrent la tension croissante entre innovation et éthique. Que doivent les utilisateurs de l’IA aux créateurs dont le travail constitue l’épine dorsale de ces technologies ? Comment pouvons-nous évoluer dans un monde où l’IA remet en question le sens de la créativité – et le rôle des humains dans celle-ci ?

En tant que doyen supervisant les bibliothèques universitaires , les programmes universitaires et la presse universitaire, je suis quotidiennement témoin de la façon dont les étudiants, le personnel et les professeurs se débattent avec l’IA générative . L’étude de trois écoles d’éthique différentes peut nous aider à aller au-delà des réactions instinctives pour répondre aux questions fondamentales sur la manière d’utiliser les outils d’IA avec honnêteté et intégrité.

Droits et devoirs

À la base, l’éthique déontologique s’interroge sur les devoirs fondamentaux des individus les uns envers les autres : ce qui est bien ou mal, quelles que soient les conséquences.

Appliquée à l’IA, cette approche met l’accent sur les droits et obligations fondamentaux. À travers ce prisme, nous devons examiner non seulement ce que l’IA nous permet de faire, mais aussi quelles sont nos responsabilités envers les autres personnes de nos communautés professionnelles.

Par exemple, les systèmes d’IA apprennent souvent en analysant de vastes collections d’œuvres créées par des humains, ce qui remet en cause les notions traditionnelles de droits créatifs . Un photographe dont le travail a été utilisé pour former un modèle d’IA pourrait se demander si son travail a été approprié sans compensation équitable, si sa propriété fondamentale sur son propre travail a été violée.

D’un autre côté, l’éthique déontologique met également l’accent sur les devoirs positifs des individus envers les autres – des responsabilités que certains programmes d’IA peuvent aider à remplir. L’association à but non lucratif Tarjimly souhaite utiliser une plateforme alimentée par l’IA pour mettre en relation des réfugiés avec des traducteurs bénévoles. L’outil d’IA de l’organisation fournit également une traduction en temps réel, que les bénévoles peuvent réviser pour en vérifier l’exactitude.

Cette double approche axée sur le respect des droits des créateurs tout en remplissant les devoirs envers les autres illustre comment l’éthique déontologique peut guider l’utilisation éthique de l’IA.

Les implications de l’IA

Une autre approche est celle du conséquentialisme, une philosophie qui évalue les actions en fonction de leurs résultats . Cette perspective déplace l’attention des droits et des responsabilités des individus vers les effets plus larges de l’IA. Les avantages potentiels de l’IA générative justifient-ils son impact économique et culturel ? L’IA fait-elle progresser l’innovation au détriment des moyens de subsistance créatifs ?

Cette tension éthique entre avantages et inconvénients est au cœur des débats actuels et des poursuites judiciaires . Des organisations comme Getty Images ont engagé des actions en justice pour protéger le travail des contributeurs humains contre les formations non autorisées de l’IA. Certaines plateformes qui utilisent l’IA pour créer des images, comme DeviantArt et Shutterstock , offrent aux artistes la possibilité de se retirer ou de recevoir une compensation, ce qui constitue une avancée vers la reconnaissance des droits créatifs à l’ère de l’IA.

Les implications de l’adoption de l’IA vont bien au-delà des droits des créateurs individuels et pourraient remodeler en profondeur les industries créatives. Les secteurs de l’édition, du divertissement et du design sont confrontés à une automatisation sans précédent, qui pourrait affecter les travailleurs tout au long de la chaîne de production, de la conceptualisation à la distribution.

Ces perturbations ont suscité une résistance importante. En 2023, par exemple, les syndicats de scénaristes et d’acteurs ont lancé des grèves qui ont mis à l’arrêt les productions hollywoodiennes.

L’approche conséquentialiste nous oblige toutefois à regarder au-delà des menaces économiques immédiates ou des droits et responsabilités des individus, pour examiner l’impact sociétal plus large de l’IA. Dans cette perspective plus large, le conséquentialisme suggère que les préoccupations concernant les dommages sociaux doivent être mises en balance avec les avantages sociétaux potentiels.

Les outils d’IA sophistiqués transforment déjà des domaines tels que la recherche scientifique, accélèrent la découverte de médicaments et apportent des solutions au changement climatique . Dans le domaine de l’éducation, l’IA favorise l’apprentissage personnalisé des élèves en difficulté . Les petites entreprises et les entrepreneurs des régions en développement peuvent désormais être compétitifs à l’échelle mondiale en accédant à des capacités de niveau professionnel autrefois réservées aux grandes entreprises.

Les artistes doivent eux aussi peser le pour et le contre de l’impact de l’IA : il n’est pas seulement négatif. L’IA a donné naissance à de nouvelles façons d’exprimer sa créativité , comme la musique et les arts visuels générés par l’IA. Ces technologies permettent de réaliser des compositions et des visuels complexes qui pourraient être difficiles à produire à la main, ce qui en fait un collaborateur particulièrement précieux pour les artistes handicapés.

Personnage pour l’ère de l’IA

L’éthique de la vertu, la troisième approche, s’interroge sur la façon dont l’utilisation de l’IA façonne les utilisateurs en tant que professionnels et personnes. Contrairement aux approches qui se concentrent sur les règles ou les conséquences, ce cadre se concentre sur le caractère et le jugement.

Des cas récents illustrent les enjeux. Le recours par un avocat à des citations juridiques générées par l’IA a conduit à des sanctions judiciaires, mettant en évidence la manière dont l’automatisation peut éroder la diligence professionnelle. Dans le domaine de la santé, la découverte de préjugés raciaux dans les chatbots médicaux d’IA a forcé les prestataires de soins à envisager la manière dont l’automatisation pourrait compromettre leur engagement en faveur de soins équitables.

Ces échecs révèlent une vérité plus profonde : maîtriser l’IA nécessite de cultiver un bon jugement. L’intégrité professionnelle des avocats exige qu’ils vérifient les déclarations générées par l’IA. L’engagement des médecins envers le bien-être des patients nécessite de remettre en question les recommandations de l’IA qui pourraient perpétuer les préjugés. Chaque décision d’utiliser ou de rejeter les outils d’IA façonne non seulement les résultats immédiats, mais aussi le caractère professionnel.

Les travailleurs individuels ont souvent un contrôle limité sur la manière dont leur lieu de travail met en œuvre l’IA. Il est donc d’autant plus important que les organisations professionnelles élaborent des lignes directrices claires. De plus, les individus ont besoin d’un espace pour préserver leur intégrité professionnelle dans le cadre des règles de leur employeur afin d’exercer leur propre jugement.

Au-delà de la question « L’IA peut-elle accomplir cette tâche ? », les organisations devraient réfléchir à la manière dont sa mise en œuvre pourrait affecter le jugement et la pratique professionnelle des travailleurs. À l’heure actuelle, la technologie évolue plus vite que la sagesse collective dans son utilisation, ce qui rend la réflexion délibérée et la pratique vertueuse plus essentielles que jamais.

Tracer la voie à suivre

Chacun de ces trois cadres éthiques éclaire différents aspects du dilemme de notre société en matière d’IA.

La réflexion fondée sur les droits met en lumière nos obligations envers les créateurs dont le travail forme les systèmes d’IA. Le conséquentialisme révèle à la fois les avantages plus larges de la démocratisation de l’IA et ses menaces potentielles, notamment pour les moyens de subsistance des créateurs. L’éthique de la vertu montre comment les choix individuels concernant l’IA façonnent non seulement les résultats mais aussi le caractère professionnel.

Ces perspectives suggèrent que l’utilisation éthique de l’IA ne se limite pas à de nouvelles directives. Elle nécessite de repenser la manière dont le travail créatif est valorisé.

Le débat sur l’IA ressemble souvent à une bataille entre l’innovation et la tradition. Mais cette façon de voir les choses passe à côté du véritable enjeu : développer des approches qui respectent à la fois la créativité humaine et le progrès technologique et leur permettent de se renforcer mutuellement. Au fond, cet équilibre repose sur des valeurs.

Léo S. Lo

Doyen et professeur, Collège des bibliothèques universitaires et des sciences de l’apprentissage, Université du Nouveau-Mexique

Articles Similaires

- Advertisement -

A La Une