
Réponse : Nous avons de nombreuses réglementations, et je pense que la plus globale est celle que nous mettons en œuvre à l'Unesco, qui est la Recommandation sur l'Éthique en intelligence artificielle, un accord mondial, non contraignant, signé par [en 2021] 194 pays et qui est en cours de mise en œuvre. C'est pourquoi je pense que nous devrions atténuer un peu cette affirmation selon laquelle il n'y a pas de cadre mondial. Cela a évolué d'une perception selon laquelle les technologies sont des agents exogènes qui nous tombent dessus et auxquelles nous ne pouvons que nous adapter, vers une proposition beaucoup plus active et de leadership, où ce sont nous, les gouvernements, les entreprises, les citoyens qui décidons comment nous voulons que l'intelligence artificielle se développe et soit utilisée. Il s'agit d'un outil qui peut avoir des usages doubles, qui peut vous aider à avoir de meilleurs diagnostics dans le système de santé comme il peut être utilisé pour une surveillance de masse. Par conséquent, plus cette technologie a de capacités, plus il est évident que nous devons porter une attention particulière à nos cadres légaux et juridiques.
Q : L'intelligence artificielle a effectivement de nombreux avantages, comme l'automatisation et la simplification des tâches, mais elle comporte également des risques importants, comme la surveillance de masse que vous avez mentionnée. Quels autres risques souligneriez-vous ?
Q : D'où l'importance de réglementer...
R : C'est le point le plus important, car nous avons été dans une narrative de libre marché où il semble que le marché soit le seul à avoir de la sagesse et que si les gouvernements interviennent, ils vont alors étouffer l'innovation et personne ne va en bénéficier, et c'est un faux récit. Ce que nous faisons ces jours-ci en Uruguay [au Sommet ministériel et des hautes autorités sur l'éthique de l'intelligence artificielle] avec les pays d'Amérique latine, dans un programme de pointe, est d'assumer la responsabilité des États en termes d'assurer que l'État de droit continue d'exister et garantir la transparence et la responsabilité. Les risques sont importants, mais nous devons nous assurer qu'il y ait des développements qui nous bénéficient, qui nous aident. Ces technologies doivent être adaptées aux besoins et aux priorités définis par les pays et par les individus. C'est le point fondamental, et je pense qu'il y a déjà un changement, car les gouvernements assument leur responsabilité historique.

Q : En août, la loi approuvée par l'Union européenne pour réglementer l'intelligence artificielle est entrée en vigueur, avec pour objectif de favoriser l'innovation et de limiter les abus potentiels de cette technologie, un règlement qui fixe des obligations et qui sera appliqué, surtout, à partir de 2026, même si certaines dispositions seront contraignantes l'année prochaine. Comment évaluez-vous cette loi ? Est-elle insuffisante ?
R : C'est un pas très positif que l'Union européenne a franchi. Quelqu'un devait avoir le courage de le faire, et l'approche qu'ils ont choisie, qui est une gestion des risques, la plus basique et qui concerne le fait que la technologie doit être soumise à diverses supervisions pour protéger l'innovation et qu'il y ait une réglementation. Je pense que c'était positif, car ils sont en train de diriger ce changement de perception vers une question très simple de savoir ce qu'ils doivent mettre à jour dans leur outil de politiques publiques pour pouvoir influencer ces développements, et je pense qu'ils le font très bien. Le point fondamental est que les institutions doivent être chargées de cela. Si l'Europe a créé le Bureau de l'intelligence artificielle, tout comme les États-Unis disposent également d'un institut sur l'intelligence artificielle, tous les autres doivent suivre ces étapes.
Q : L'Espagne a également approuvé en mai une stratégie dont l'objectif est de faciliter l'application de l'intelligence artificielle dans le secteur public et privé et de favoriser la transparence. Comment voyez-vous l'Espagne à cet égard ?
R : L'Espagne a été un leader. Le Parlement européen a approuvé en mars de cette année le Règlement sur l'intelligence artificielle de l'UE pendant la présidence espagnole [du Conseil de l'UE] et personne ne croyait que cela allait se produire. Mais l'Espagne avait des fonctionnaires extraordinaires, tant Carmen Díaz que Mayte Ledo, et a dirigé la négociation, qui n'a pas été facile.
Q : L'intelligence artificielle constitue un impulso dans la productivité des pays, mais cela nécessite de l'innovation et de l'investissement, et en Espagne, près de 90 % du tissu entrepreneurial est composé de petites et moyennes entreprises, ce qui leur rendra plus difficile d'investir dans cette technologie.
R : Je pense que nous devons maintenant faire un effort accru pour que précisément les petites et moyennes entreprises n'intègrent pas seulement ces technologies dans leurs processus pour devenir plus efficaces et compétitives, mais qu'elles acquièrent également les compétences nécessaires et attirent des talents, aient des analystes de données et puissent automatiser les processus nécessaires selon leurs intérêts. Il faut tenir compte du fait que l'intelligence artificielle ne doit pas être uniquement réservée aux grandes entreprises, mais aussi aux startups, et pour cela, il existe des programmes de soutien à l'industrie.