
La Révolution de l'Intelligence Artificielle (IA) est déjà un fait clair et présent. Son pouvoir de transformation a explosé ces derniers mois avec la mise en lumière du Chat GPT 4 au début de l'année dernière. Sa capacité à générer des opportunités jusqu'alors inaccessibles nous ébahit avec un boom hebdomadaire dans la constellation croissante et inconmensurable d'applications qui ont fait leur apparition sur le marché. Des diagnostics par imagerie précis, auparavant impossibles, aux créations artistiques étonnantes, en passant par l'automatisation des processus et la personnalisation de l'attention et des recommandations aux clients, l'IA ne cesse de se répandre et de croître en performances. Cependant, parallèlement à de tels succès se construisent de profondes préoccupations concernant un large éventail de menaces que cette technologie entraîne.
Les révolutions technologiques ont toujours engendré des impacts sociaux, économiques, politiques et culturels. La révolution industrielle a produit des changements d'une manière profonde et durable, pour le meilleur et pour le pire. La révolution du savoir, encore plus. L'état de bien-être de l'humanité a crû, mais aussi les asymétries. De telles transformations ont été progressives et ont pris des décennies. La révolution de l'IA, quant à elle, se caractérise par une rapidité de développement et de propagation qui affecte la compréhension profonde des changements qu'elle engendre et de la maîtrise de ses conséquences.
Pratiquement aucun domaine de la connaissance et de l'action humaine n'est exempt d'un impact direct ou potentiel de l'IA. Son pouvoir est époustouflant : diverses recherches fournissent des preuves empiriques de cet impact. Dans une étude récente, 453 professionnels universitaires ont reçu une tâche d'analyse et de rédaction. La moitié d'entre eux a eu accès à Chat GPT. Les résultats ne surprennent déjà plus : le temps moyen avec cet outil a diminué de 40 % et la qualité a augmenté de 18 %. Cependant, parallèlement à cette capacité extraordinaire de générer de la valeur, l'IA pose un ensemble de menaces qui, face à la vulnérabilité de l'être humain, engendrent des dommages réels et des risques pour la société.
Il existe un consensus généralisé selon lequel l'IA générative pose des menaces sévères qui incluent, entre autres, l'atteinte aux droits de l'homme via le scoring social et la discrimination qui en découle, le conditionnement des décisions de consommation, la discrimination, l'approfondissement des inégalités ou des écarts en fonction du niveau d'accès, et, entre autres, le mauvais usage de la technologie pour commettre des délits ou pour générer des actes affectant la vérité (fake news), l'identité, l'intégrité, la vie privée, la liberté, la cybersécurité ou la propriété intellectuelle des personnes. À ce large éventail doit s'ajouter la possibilité d'erreurs des plus diverses, comme par exemple le cas de la mort causée par un véhicule autonome d'Uber ou la “hallucination”, qui consiste en la possibilité d'inventer des données ou des faits inexistants qui a déjà été mise en évidence et n'a pas encore été suffisamment diagnostiquée.
La perte massive d'emplois s'ajoute à la liste des menaces avec des niveaux d'angoisse et de pessimisme sans précédent. La prospective stratégique de l'IA annonce une croissance de la dépendance à l'IA dans tous les processus, la concentration subséquente du pouvoir économique, l'exacerbation des inégalités et le déclenchement d'une course aux armements basée sur l'IA. Le manque de transparence dans les processus menés par les algorithmes d'IA aggrave encore l'approche de telles menaces.
Ces menaces sont graves et se manifestent par des exemples horripilants. Amazon, par exemple, a dû désactiver un système de sélection du personnel en raison d'un biais favorable aux hommes par rapport aux femmes. Les algorithmes de l'IA résolvent leurs problèmes sur la base de leur formation antérieure dans, au moins, l'infosphère d'internet ou l'intranet d'entreprise. Si les "datasets" ont un biais, les solutions le sont aussi. Dans ce cas, le biais implique discrimination.
Chaque avancée dans l'IA génère un grand bénéfice et en même temps un grand risque. Le défi est de tirer parti des bénéfices tout en prévenant les risques. La somme de toutes les peurs et l'absence de régulations portent la frontière de l'avancée de l'IA dans le domaine de l'éthique appliquée : il s'agit de savoir ce qui est bien et ce qui est mal dans chaque cas. L'éthique appliquée est née comme un domaine de connaissance théorique et pratique pour répondre à de telles questions. À cette fin, elle fournit divers instruments de navigation. Du point de vue déontologique, ou de l'éthique du devoir, c'est bien ce qui respecte les normes ou préceptes moraux (ou légaux) applicables. Pour la perspective téléologique, ou de l'éthique des conséquences, ce qui produit le plus grand bien ou le plus grand mal est considéré comme bien. Si ces références sont faibles pour résoudre un dilemme, l'impératif catégorique de Kant offre une bouée de sauvetage : c'est bien ce qui peut se transformer en règle universelle et ce que dicte la plus profonde conscience de chaque personne.
Dans le domaine de l'incorporation de la technologie à l'humanité, ce que l'on pourrait nommer technoéthique, il s'agit de savoir ce qui est bien et ce qui est mal dans l'intégration de la technologie à la dynamique humaine. Logiquement, l'éthique des conséquences semble être la référence la plus utile face au manque de normes posées par l'IA. Les préoccupations sont d'un large spectre. L'IA change pour toujours la façon d'agir, mais aussi celle d'être. Les menaces identifiées alimentent des agendas de préoccupations dans tous les domaines et à tous les niveaux. La technoéthique cherche à identifier les risques et à établir des garde-fous pour les prévenir.
La prise de conscience
De manière analogue à ce qui s'est passé avec l'énergie atomique, la génétique ou la bio-ingénierie, le regard de la technoéthique permet de découvrir une agenda croissante de préoccupations qui nécessitent des consensus et des instruments pour maximiser les avantages et prévenir les risques. Dans cette agenda convergent, naturellement, des intérêts coopératifs et compétitifs de acteurs pertinents : les chercheurs qui renforcent quotidiennement la technologie de l'IA, les entreprises qui se nourrissent du produit de la recherche et déploient des applications, la société, sujet d'expérimentation et de transformations émergentes, et les gouvernements qui devraient recevoir le mandat de protéger les personnes et promouvoir le bien commun.
Dans le monde des affaires, comme il était logique, les préjudices ont été identifiés tôt et la recherche de limites éthiques est passée des idées à l'action. En 2017, Google, Amazon, IBM, DeepMind, Microsoft et Apple ont uni leurs forces pour créer le Partnership on AI, une initiative dont le but est le développement responsable de l'Intelligence Artificielle. Cette organisation dispose aujourd'hui d'un ensemble de programmes visant à promouvoir la responsabilité dans toute la chaîne de valeur de l'IA qui incluent l'équité, la transparence et la responsabilité dans le développement et le déploiement des algorithmes ; la prise en compte de l'impact économique et du travail et l'intégrité dans la communication sur l'IA. Le Partnership on AI a connu une croissance incessante et compte aujourd'hui 113 institutions de 18 pays, incluant des entreprises, des universités, des ONG et des médias.
Au plus haut niveau de la communauté internationale, l'Organisation des Nations Unies pour l'Éducation, la Science et la Culture (UNESCO) a promu fin 2021 les Recommandations Éthiques sur l'Intelligence Artificielle, “reconnaissant l'impact positif et négatif profond et dynamique de l'intelligence artificielle sur les sociétés, l'environnement, les écosystèmes et la vie humaine, y compris la pensée humaine, en partie à cause des nouveaux modes dont son utilisation influence la pensée humaine, l'interaction et les processus décisionnels…”. Cet instrument s'appuie sur 4 valeurs centrales qui incluent la protection des droits et de la dignité humaine, la vie en paix dans des sociétés justes et interconnectées, l'assurance de la diversité et de l'inclusion et le renforcement de l'environnement et des écosystèmes. D'un point de vue de l'éthique appliquée, il propose 10 principes directeurs de l'action que doivent suivre les gouvernements, les entreprises et les sociétés :
- Proportionnalité et Nécessité : les systèmes d'IA doivent être utilisés dans la mesure du nécessaire et ne pas causer de dommages.
- Identification et Prévention des Risques.
- Protection des données et de la vie privée.
- Respect de la souveraineté des États et constitution d'une gouvernance qui prenne en compte tous les acteurs concernés.
- Responsabilité et reddition de comptes. Les systèmes doivent être conçus et utilisés afin d'assurer la traçabilité des conséquences.
- Transparence et explicabilité. Les systèmes doivent être transparents dans leurs processus internes et explicables pour l'être humain.
- Supervision humaine. Les États doivent assumer la responsabilité finale de superviser la traçabilité dans la reddition de comptes.
- Soutenabilité. Les écosystèmes doivent être alignés sur les Objectifs de Développement Durable de l'ONU.
- Connaissance et conscience publique. Les États membres doivent garantir la diffusion et l'éducation sur l'IA afin de sensibiliser.
- Justice dans l'accès, les processus et les produits de l'IA en garantissant l'absence de discrimination.
Ce décologue représente une plateforme de base pour la communauté internationale. Sa capacité à générer des politiques publiques dépend des dirigeants de l'industrie, du gouvernement et de la société civile. La porosité des frontières à la connectivité mondiale en général et, en particulier, aux applications de l'IA générative, soulève la nécessité de consensus et d'instruments pour une gouvernance mondiale de l'IA générative, qui, pour beaucoup, est devenue plus indispensable que celle qui a été générée à l'époque de l'énergie atomique.
L'Organisation de Coopération et de Développement Économiques (OCDE) a développé des plateformes de connaissance et des recommandations de grande valeur pour le design de politiques publiques. En ce qui concerne les menaces dans le domaine de l'éthique, elle a développé un Observatoire des Politiques Publiques en IA qui, parmi ses outils, dispose d'un Moniteur des Incidents d'IA, dans lequel sont capturés des cas à travers des articles de presse dans le monde entier. Bien qu'il s'agisse d'un indicateur proxy de la réalité (du fait à l'article, il y a un grand chemin), l'évolution du nombre d'incidents ajoute un sens d'urgence à la nécessité de développer des politiques publiques. En effet, le nombre d'incidents mensuels a augmenté de 40 en 2020 à 600 à la mi-2023 comme le montre la Figure 1. Chaque incident est catégorisé en fonction du type de principe d'IA impacté. Les plus fréquents incluent : droits de l'homme (267), transparence (270) et vie privée (223). L'application permet également de classifier par pays : États-Unis (191), Inde (84), Royaume-Uni (81) et Chine (24). La croissance de ces indicateurs, qui s'explique en partie par l'irruption explosive du Chat GPT 4 au début de 2023 et d'autres applications d'IA générative, constitue une alarme en soi. Le nombre d'incidents dans lesquels un des principes d'éthique de l'IA est violé est clairement en forte augmentation.

La nécessité de réglementer
La loi est l'éthique codifiée. Les consensus nécessaires pour réguler ne suffisent pas à satisfaire tous les intérêts. Le pouvoir conditionne la réglementation. Celle-ci module à son tour l'exercice du pouvoir. La dynamique du cui bono est la seule manière d'expliquer l'exercice du pouvoir en général et encore plus dans le domaine incertain de l'IA. Pour Henry Farrel, de la John Hopkins University, il n'existe pas de “consensus sur quels problèmes nous devons gouverner, et encore moins comment nous devons les gouverner”. Le débat autour du déploiement de l'IA a trois facettes : de quoi faut-il s'inquiéter, que faut-il réguler et que ne faut-il pas, et comment contrôler cette régulation. Le spectre est large.
Aux États-Unis, des groupes d'intérêt réclament une Déclaration des Droits face à l'IA de l'ampleur de celle de 1791 qui a été la pierre angulaire du pays. À partir de cette position, les algorithmes prennent d'abord des décisions, alors que la diligence raisonnable est une réflexion ultérieure et non contraignante. Le Canada s'oriente vers l'évaluation des outils avant de libérer leur utilisation. La Commission Européenne a promulgué en juin 2023 la Loi sur l'Intelligence Artificielle qui a une approche centrée sur le risque pour la santé et les droits de l'homme, qui est expliquée par elle-même dans le concept présenté à la Figure 2.
La réglementation est croissante en fonction des restrictions selon le risque perçu. Les différentes orientations pour la réglementation expliquent les doutes générés par l'impact de l'IA sur la société. La responsabilité finale de l'impact de l'IA sur l'humanité repose sur les gouvernements et leur capacité, leur détermination et leur honnêteté à ce que la direction finale de la réglementation saisisse les paramètres éthiques profonds du bien et du mal dans chaque cas.

Il s'agit d'un sujet complexe où les relations de cause à effet ne sont pas si évidentes. La prise de conscience de la société concernant les bénéfices et les risques de l'IA devient vitale dans la direction que prendra la réglementation, qui avant tout, doit être intelligente.
Les universités et les organisations de la société civile acquièrent un rôle aussi transcendant que irremplaçable dans la diffusion du débat et des perspectives pour l'alimenter. Dans notre pays, la Société Argentine d'Intelligence Artificielle a relevé ce défi et promeut des initiatives pertinentes pour la diffusion des risques et des opportunités.
L'obligation morale des dirigeants ne se limite pas à prévenir les risques. Promouvoir les capacités en IA comme source de richesse et de bien-être fait partie de cette obligation morale. L'IA génère une nouvelle division dans l'humanité : ceux qui sauront tirer parti de cette vague seront plus prospères, tandis que ceux qui la manqueront subiront un sous-développement plus irréversible que ceux de la révolution industrielle ou de la révolution du savoir.