À la fin du mois dernier, Mark Zuckerberg a suscité une large polémique en révélant que son projet "Llama" d'Intelligence Artificielle (IA) allait être open source (open source, comme Linux). Ceux qui soutiennent une IA open source ont généralement tendance à être contre la réglementation car cela limiterait l'innovation et l'accessibilité. Cela dit, comme toute époque de changement, le nouveau est souvent renouvelant, bien qu'il comporte en même temps des limites et des risques. J'insiste sur le fait que l'utilisation indiscriminée et non régulée des IA fait face à la possibilité d'abus avec des intentions négatives concernant la confidentialité et le prestige des personnes et des entreprises, comme nous avons pu le voir dans l'interprétation de la réglementation récente de l'Union Européenne à ce sujet.
Avec cette annonce de la nouvelle Intelligence Artificielle de Meta (Facebook, Instagram, WhatsApp, etc.), celle-ci se distingue des autres entreprises d'IA (OpenAI, Google DeepMind et Anthropic) qui facturent l'accès. L'open source ouvre la possibilité que davantage de créations falsifiées (deepfake) soient réalisées sans pouvoir en retracer l'origine. Zuckerberg soutient que son développement favorise la démocratisation ; les critiques soulignent les risques.
Enfin, l'innovation a mis en débat la question de savoir si l'IA doit être réglementée ou non. Après la norme SB1047 en Californie et le règlement de l'UE 2024/1689, il ne fait aucun doute que la réglementation est à venir. De plus, à partir de l'expérience de cas de fausses nouvelles, d'images, d'audios et d'accès à des informations confidentielles, je me déclare fervent défenseur d'une réglementation qui ne nuise pas à l'utilisation potentiellement innovante de l'Intelligence Artificielle.
Ceux qui soutiennent une IA open source ont généralement tendance à être contre la réglementation car cela limiterait l'innovation et l'accessibilité
En faveur de Meta, il est vrai que derrière le potentiel contrôle de l'IA open source se cachent les intérêts des entreprises qui ne veulent pas renoncer à vendre l'accès à leurs plateformes (fees), bien qu'il ne soit pas moins vrai que les risques sont déjà palpables et évidents. Nous savons déjà qu'une attaque au prestige de quelqu'un avec une IA est un fait qui nécessite seulement d'avoir de la chance une seule fois, tandis que la défense nécessite d'avoir de la chance à chaque fois. C'est comme un virus, qui peut se propager et tuer en l'espace de quelques jours, tandis que la mise en œuvre d'un traitement peut prendre des années.
Par conséquent, toutes les réglementations qui obligent les entreprises à prendre la responsabilité de limiter l'utilisation abusive de l'Intelligence Artificielle doivent être bien accueillies. Zuckerberg admet que la technologie open source en matière d'Intelligence Artificielle est facilement volée par des acteurs malveillants, la solution qu'il semble proposer est de la donner gratuitement.
D'autre part, nous constatons que l'IA est arrivée pour changer le monde et nous ne savons pas encore exactement quelles conséquences elle aura sur l'avenir de nos vies. Certains usages qu'elle inclut commencent à déplacer des postes de travail, surtout dans les secteurs créatifs qui jusque-là étaient des endroits de remplacement difficile de la capacité humaine de travail. La photographie, les réponses automatiques de services, l'éducation, l'identification biométrique, la programmation et potentiellement le transport public sont ceux qui sont les plus en évidence.
Il est vrai que derrière le potentiel contrôle de l'IA open source se cachent les intérêts des entreprises qui ne veulent pas renoncer à vendre l'accès à leurs plateformes
La reproduction d'images et de voix devient très difficile à identifier si elle est fausse ou vraie, c'est pourquoi la réglementation de l'Union Européenne (UE) établit les bases pour continuer à avancer vers une IA fiable et sécurisée. Le règlement souligne la protection des personnes en relation avec le traitement de données personnelles qui restreignent l'utilisation de systèmes d'IA comme dans le cas de l'identification biométrique. Sa préoccupation se concentre sur l'application de manière distante, même si elle est appliquée dans la juridiction de l'UE. La réglementation souligne particulièrement l'adaptation du Droit déjà constitué et son harmonisation avec les droits visant à la protection des données, la protection des consommateurs, les droits fondamentaux, l'emploi, la protection des travailleurs et la sécurité des produits.
Le risque le plus évident est de protéger la vie privée et la confidentialité des communications, ainsi que la préoccupation concernant les conditions de stockage des données personnelles. Reste à voir comment cette nouvelle réglementation sera appliquée de manière concrète, mais d'ores et déjà, cela représente un progrès dans l'identification de risques potentiels et l'établissement de limites qui protègent les droits des personnes.
D'un côté, il y a ceux qui sont contre la réglementation de l'IA et de l'autre, ceux qui sont en faveur. Une analyse détaillée de ce débat en Argentine mériterait un traitement d'urgence. Espérons que cela sera réalisé.
L'auteur est consultant, expert en recherche et prévention de fraude d'entreprise et directeur général d'Analitix