L’intelligence artificielle et l’apprentissage automatique ont le potentiel de contribuer à la résolution de certains des problèmes les plus insolubles de notre temps. Les exemples incluent le changement climatique et les pandémies. Mais ils ont aussi la capacité de causer du tort. Et ils peuvent, s’ils ne sont pas utilisés correctement, perpétuer des injustices historiques et des inégalités structurelles.
Pour atténuer leurs dommages potentiels, le monde a besoin de cadres de gouvernance des données qui soient économiquement favorables et qui préservent les droits.
L’intelligence artificielle et l’apprentissage automatique fonctionnent sur la base d’ensembles de données massifs à partir desquels des algorithmes sont programmés pour discerner des modèles. Ces modèles peuvent être utilisés pour déduire de nouvelles informations et également prédire le comportement et les résultats. De plus en plus, l’intelligence artificielle et l’apprentissage automatique sont utilisés pour remplacer les décisions humaines par une prise de décision automatisée au nom des humains. C’est souvent dans des domaines qui peuvent avoir un impact significatif sur la vie des gens. Accédez à des prêts ou même accédez à un pays .
Pourtant, tout se passe dans une boîte noire à laquelle même le concepteur de l’algorithme n’a peut-être pas accès, il est donc important de décider de ce qui entre dans la boîte.
Les plus grands ensembles de données et activités algorithmiques sont générés par les réseaux sociaux mondiaux qui surveillent chacune de nos actions en ligne. Ces ensembles de données peuvent être utilisés pour anticiper et modeler nos besoins et nos désirs.
Les grandes entreprises technologiques, les agences multilatérales et les banques de développement ont largement exploité le potentiel de l’intelligence artificielle pour faire progresser la croissance économique et le développement national. Et ils sont de plus en plus utilisés dans les applications sociales et économiques ainsi que dans la prise de décision publique, la planification et l’allocation des ressources. Il s’agit notamment de guider les jugements des tribunaux, de sélectionner les candidats à un emploi et d’affecter des universitaires aux systèmes scolaires.
La pandémie de COVID-19 a également mis en évidence l’énorme valeur des données publiques et la valeur potentielle de la combinaison des données publiques et privées pour faire face aux crises de santé publique et aux catastrophes.
Pourtant, on s’inquiète de plus en plus de la répartition inégale des opportunités et des inconvénients associés à l’intelligence artificielle.
Les menaces
L’utilisation croissante de l’intelligence artificielle et de l’apprentissage automatique dans la prise de décision publique soulève des questions cruciales concernant l’équité et les droits de l’homme.
En particulier, la façon dont les données numériques sont produites est signalée par un signal d’ alarme. Les ensembles de données présentent d’énormes lacunes. Certaines personnes sont rendues visibles, sous-représentées et discriminées de ce fait, dans la manière dont les données sont collectées. Le fait que la plupart de la population mondiale ne soit pas connectée à Internet et aux réseaux sociaux mondiaux qui animent la nouvelle économie fondée sur les données signifie qu’ils n’existent tout simplement pas.
À l’échelle mondiale, l’intelligence artificielle constitue également un risque pour les progrès réalisés vers l’égalité des sexes . Les histoires abondent de systèmes d’intelligence artificielle biaisés contre les femmes et les minorités de genre.
De plus, les systèmes d’intelligence artificielle peuvent s’appuyer sur des hypothèses et des données qui excluent ou déforment des groupes déjà confrontés à des formes multiples et croisées de discrimination. Cela se traduit souvent par des résultats qui reflètent et renforcent les inégalités et les préjugés sexistes, raciaux et capacitistes .
Ces systèmes ne sont pas suffisamment soumis au type de responsabilité et de réglementation rigoureuses nécessaires pour atténuer les risques qu’ils posent à la société.
Cette menace est si importante que plusieurs forums internationaux ont vu le jour, engagés dans le développement d’ une intelligence artificielle « bonne », « éthique » et « responsable ».
Mais la plupart des initiatives présentent des solutions techniques aux problèmes sociaux et politiques. Cela signifie qu’ils sont développés en dehors du cadre des droits de l’homme. Ce sont aussi en grande partie des initiatives du Nord global, avec une participation multipartite limitée du Sud global.
Une approche fondée sur les droits
Il existe des cadres de données basés sur les droits qui informent le développement de l’intelligence artificielle. Il s’agit notamment du règlement général de l’Union européenne sur la protection des données . Mais ils ont tendance à se concentrer principalement sur la première génération ou les droits fondamentaux, tels que la vie privée. La vie privée est largement conçue comme un droit individualisé. Ce n’est peut-être pas toujours la valeur principale dans les sociétés plus centrées sur le communautarisme.
La pandémie de COVID-19 a mis en évidence la nécessité de réguler les données dans l’intérêt collectif ou le bien commun. Cela ne signifie pas qu’il faille renoncer au droit à la vie privée .
L’intérêt collectif concerne également la gouvernance des données dans le contexte de groupes ou de communautés identifiables où la conséquence potentielle de l’identification individuelle entraîne l’exposition de l’identité collective.
La littérature et la pratique de la gouvernance des données ont été principalement considérées et entreprises dans cette perspective réglementaire négative. En d’autres termes, en mettant l’accent sur le respect de la protection des données et de la cybersécurité et des sanctions en cas de violation.
C’est une condition nécessaire à l’intelligence artificielle uniquement . Mais ce n’est pas suffisant. De nombreux domaines de la gouvernance des données nécessitent une intervention positive. Les exemples incluent l’accès aux données, leur facilité d’utilisation et leur intégrité si elles doivent traiter des questions d’inclusion, d’égalité, de réparation et de justice sociale.
Ce sont des questions qui peuvent être comprises comme des droits sociaux et économiques de deuxième et troisième génération.
Une IA qui respecte les droits humains
Pour répondre à ces enjeux, un nouveau projet global est lancé en marge du Sommet pour la Démocratie .
Le sommet représente un forum international pour faire avancer les engagements en faveur de la démocratie et des droits de l’homme. Son objectif est d’évaluer les progrès réalisés par les pays dans la promotion de l’intelligence artificielle qui respecte les droits de l’homme et les valeurs démocratiques.
Le projet est connu sous le nom de Global Index on Responsible AI. Il est dirigé par le groupe de réflexion africain sur le numérique, Research ICT Africa , et un réseau indépendant Data 4 Development .
Les gouvernements et la communauté internationale ont commencé à répondre à l’appel mondial pour une intelligence artificielle responsable. En 2019, 42 pays ont adhéré aux principes de l’OCDE sur une IA digne de confiance . Cela les engage à garantir que les systèmes d’IA sont sûrs, équitables et dignes de confiance.
Plus récemment, l’UNESCO a élaboré une Recommandation sur l’éthique en IA qui a été adoptée par sa 41e Assemblée générale. La recommandation est centrée sur la protection des droits et libertés fondamentaux, la durabilité environnementale et la diversité.
L’indice mondial répond au besoin d’une norme inclusive et mesurable qui complète la compréhension en évolution rapide de ce que signifie une intelligence artificielle responsable dans la pratique. Il encourage et suit également la mise en œuvre des principes de gouvernance par les acteurs concernés.
Le Global Index suivra la mise en œuvre des principes d’IA responsable dans plus de 120 pays. Un réseau international de chercheurs indépendants sera établi pour évaluer dans quelle mesure les principes sont appliqués. Il collectera également des données primaires et secondaires sur les indicateurs clés d’une intelligence artificielle responsable.
Cela fournira aux gouvernements, à la société civile, aux chercheurs et aux autres parties prenantes les preuves clés dont ils ont besoin pour faire respecter les principes d’utilisation responsable dans le développement et la mise en œuvre de systèmes d’intelligence artificielle. Les preuves seront également utilisées pour :
respecter les obligations en matière de développement et de droits humains,
renforcer les capacités pour une IA responsable dans le monde, et
approfondir la coopération internationale.
Le public et les autres parties prenantes intéressées auront l’opportunité d’aider à façonner la conception et la portée de l’indice qui sera développé consciemment à travers une lentille globale du Sud.
Son développement représente une opportunité importante pour les experts du continent africain et des pays du Sud, d’être à l’avant-garde de l’élaboration du nouveau programme mondial sur l’utilisation et le développement responsables de l’intelligence artificielle.
Alison Gillwald – Professeur, Nelson Mandela School of Public Governance, Université du Cap
La situation sanitaire à Mayotte après le passage du cyclone Chido met en lumière les…
La police enquêtant sur la fusillade du PDG d'UnitedHealthcare, Brian Thompson, le 4 décembre 2024,…
John Dramani Mahama, le nouveau président du Ghana , a eu l'occasion de réécrire son…
Un nouveau livre inhabituel et fascinant a été écrit par deux anthropologues, intitulé Conspiracy Narratives…
Pour répondre aux défis structurels et financiers qui freinent le développement de la République Démocratique…
La présidence Tshisekedi vient procéder à des permutations dans la hiérarchie militaire, une décision qui…