
L'intelligence artificielle en tant qu'aspiration créative humaine nous accompagne depuis le début de l'histoire et comme réalité pratique depuis environ soixante-dix ans. Gisela Baños dans son livre Le rêve de l'intelligence artificielle (2024), soutient que l'IA a traversé des “hivers” sombres et des “été” lumineux. Le premier été de l'IA (1956-1974) était circonscrit au domaine expérimental, le second (1981-1987) englobait le monde professionnel et entrepreneurial, le troisième (depuis 2011 jusqu'à nos jours) a permis l'accès à l'IA à toute personne disposant d'un simple dispositif sans avoir besoin de recourir à des technologies de premier niveau.
L'IA est dans nos vies depuis longtemps bien que, en raison de l'utilisation quotidienne que nous en faisons, nous ne la remarquions pas. Elle fait partie d'une révolution industrielle –la quatrième ou 4.0– qui présente des caractéristiques uniques dans l'histoire de l'humanité telles que le facteur d'accélération et la convergence technologique. Elle est à la fois une “espèce” créée par l'homme pour le servir, mais qui, en raison de son “évolution”, peut l'égaliser et, à un certain moment, le surpasser dans certaines capacités qui sont celles qui ont doté l'homo sapiens d'agence et de patience morale. Pour cette raison, il est possible d'affirmer qu'actuellement, une ontologie particulière se construit autour de l'IA (que nous pouvons appeler “ontologie numérique”) entendue comme une nouvelle façon de créer des sens par le biais de l'langage qui impacte la subjectivité humaine à travers l'IA générative qui, en produisant communication - par l'itération dialogique - influence et transforme nos perceptions, expériences et compréhensions du monde.
En gros, on parle de trois types d'intelligence artificielle. L'faible, la forte, et la súper intelligente. L'IA faible est celle qui est au service de l'humain. L'IA forte est celle qui égalise les capacités de l'humain. L'IA super intelligente est celle qui dépasse les capacités de l'humain. Dans quelle situation nous trouvons-nous actuellement ? Dans le domaine de l'IA faible. Jusqu'en 2022, la simple attente d'un rapprochement ou d'un pas minimum vers l'IA forte était englobée dans une vision futuriste lointaine jusqu'à ce que, dans l'univers du traitement du langage naturel (TLN), les modèles de langage de grande taille apparaissent, et tout a changé pour toujours. Chat GPT 3.5 et Chat GPT4 (lancé début 2023) de OpenIA ont rendu possible que ce qui appartenait au cinéma d'anticipation devienne réalité : pour la première fois dans l'histoire, l'être humain a ressenti qu'il faisait le premier pas sur le chemin vers une IA forte.
Face à une réalité impossible à nier, dans le domaine de la réglementation, on a commencé à débattre de la nécessité de sanctionner une certaine sorte de régulation concernant l'IA. Non seulement en regardant le présent, mais aussi, en apercevant l'avenir. Avec une perplexité de plus en plus évidente : le droit construit sur la logique du monde analogique devient souvent inefficace pour réguler les défis émergents du monde numérique.
La première variable qui a été écartée était l'autorégulation qui, bien qu'elle présente une plus grande flexibilité permettant de surmonter les obstacles émergents de la création et de l'application des normes juridiques et de s'adapter facilement à la dynamique des changements technologiques, son application présente un grand inconvénient : ne pas étant la réglementation obligatoire, son respect est lié exclusivement à la bonne volonté des agents impliqués dans le processus de création et de déploiement de l'IA.
En termes de modèles idéaux de régulation, il est possible de distinguer trois variantes : le hyperrégulé, le coevolutif et le de contention.
Le modèle hyperrégulé se caractérise principalement par un niveau extrême de régulation qui impose des contrôles très stricts et détaillés sur tous les aspects du développement et de l'utilisation de l'IA. Les régulations sont exhaustives et proactives, cherchant à minimiser les risques potentiels avant qu'ils ne puissent se matérialiser. Bien qu'elle puisse garantir un niveau élevé de sûreté et de contrôle, elle risque également de limiter l'innovation et la flexibilité technologique. D'abord, elle mise sur la interdiction de l'IA puis sur son développement depuis une position anthropocentrique extrême.
Le modèle coévolutif propose que la régulation de l'IA se développe conjointement avec l'évolution de la technologie. Il propose un cadre juridique adaptable et dynamique qui peut être ajusté à mesure que progressent les capacités et les applications de l'IA. Il encourage la collaboration entre législateurs, développeurs, académiciens et d'autres acteurs pour s'assurer que les normes restent pertinentes et efficaces face aux progrès rapides technologiques. Il plaide pour le droit d'accéder et d'utiliser l'IA, ainsi que pour la capacité de coexister socioaffectivement avec une IA. D'abord, il mise sur le développement de l'IA (avec ses bénéfices respectifs) puis établit les procédures de contrôle.
Le modèle de contention vise à équilibrer la prévention des risques et le favoriser de l'innovation. Il propose une évaluation minutieuse et continue des risques associés à l'IA, en mettant en œuvre des mesures de contention pour prévenir les dommages, tout en favorisant le développement de technologies qui offrent des bénéfices significatifs. Du point de vue juridique, il se caractérise par une approche proactive et flexible, qui vise à garantir que le développement de l'IA soit responsable, sûr et bénéfique pour l'humanité. Il mise de manière synchrone sur le développement de l'IA et sur des procédés de contrôle basés sur la contention.
Quelques exemples de ces modèles peuvent être trouvés dans l'Union Européenne (hyperrégulation), Canada et États-Unis (contention), Singapour (coevolution). Ce dernier est un paradigme à analyser car étant Singapour un pays territorialement petit et avec une pénurie de ressources naturelles, grâce au développement d'une solide infrastructure numérique et à une réserve de talents hautement qualifiés, il se classe au niveau mondial derrière États-Unis et Chine; ce modèle a adopté une approche sectorielle qui dispense d’une loi spécifique et d'une agence dédiée exclusivement à l'IA, utilise des cadres sectoriels et des réglementations volontaires pertinentes, ainsi qu’applique la réglementation existante dans d'autres domaines tels que la protection des données et la sûreté en ligne.
Face au début d'un débats naissant dans la Chambre des Députés sur la régulation de l'IA, la fenêtre d'opportunités qui se présente pour son développement dans notre pays, rend nécessaire de rejeter toute alternative qui s'approche du modèle hyperrégulé, et en même temps, d'explorer diverses alternatives normatives qui –dans le contexte argentin– naviguent entre les modèles de coevolution et de contention.
Nous sommes en position idéale pour devenir un référent mondial de l'IA. Nous avons une grande possibilité de créer un pôle qui attire des investissements, génère de nouvelles opportunités d'emploi et place notre pays sur la carte mondiale de l'innovation; ne la laissons pas passer avec des réglementations qui, sans comprendre le facteur d'accélération technologique, constituent un obstacle plus qu'une protection autour du droit au développement scientifique et technologique, et surtout, concernant le droit de produire, déployer, accéder et utiliser l'intelligence artificielle.