
Dans son discours prononcé jeudi devant l'audience de l'Organisation internationale du Travail (OIT) à Genève, en Suisse, le président brésilien Lula a accusé les pays riches de créer une intelligence artificielle (IA) pour « tenter de manipuler le reste de l'humanité ». C'est pour cette raison que Lula a demandé à l'OIT et à l'ONU de créer un projet pour « l' intelligence artificielle du Sud », sans donner de détails sur ce qu'il entend par cette différenciation. Les déclarations du président brésilien interviennent peu avant sa participation à la réunion du G7 en Italie, où le thème de l'intelligence artificielle était l'un de ceux qui ont focalisé le débat entre les sept pays membres du groupe. Même le pape François est intervenu sur la question, mettant en garde contre les risques. « L’intelligence artificielle pourrait provoquer une plus grande injustice entre les pays avancés et les pays en développement, entre les classes sociales dominantes et les classes sociales opprimées, mettant ainsi en danger la possibilité d’une culture de la rencontre au profit d’une culture du jetable », a déclaré le Pape.
Au Brésil, l’IA est plus répandue et plus avancée technologiquement qu’on ne le croit . Le rapport 2023 sur l'Intelligence Artificielle du District, une plateforme leader pour les technologies émergentes en Amérique latine, a révélé que le Brésil se distingue par la plus grande concentration d'entreprises et le plus grand volume d'investissements dans l'IA, représentant 73,65% du total des startups, se positionnant comme leader régional du développement et de l'innovation en Amérique latine . Les startups brésiliennes d’IA ont reçu 2 milliards de dollars d’investissements en 2022. Même les géants de l’électronique de télécommunications comme Motorola parient sur le géant latino-américain, considéré comme l’un des pôles les plus prometteurs au monde dans le secteur. L'entreprise américaine a investi 25 millions de reais, soit 4,65 millions de dollars, dans la recherche de l'Université fédérale d'Amazonas (UFAM), qui collabore également au projet avec les universités d'Acre, Campinas et Pernambuco. Peu de gens savent que Motorola s'occupe de toute la détection des logiciels malveillants, de la qualité d'image HDR (High Dynamic Range) au Brésil avec des techniques d'intelligence artificielle, de traitement d'image, de sécurité du système Android et du centre d'intelligence artificielle.
Cependant, le revers de la médaille montre également un Brésil où l’IA est utilisée de manière frauduleuse . Selon les données de Sumsub, une entreprise technologique qui propose des plateformes pour vérifier la fraude, le géant latino-américain fait partie des 10 pays au monde avec le plus grand nombre de deepfakes détectés au premier trimestre 2024 . De 2023 à 2024, ils ont augmenté de 840 % . Les deepfakes, c'est-à-dire la falsification de photos et de vidéos grâce à l'IA, sont devenus une menace mondiale car leur capacité totale de manipulation est à l'origine de milliers de fraudes et de délits tels que le harcèlement sexuel et le chantage sexuel pour de l'argent. Quant au Brésil, ces derniers mois, des publicités frauduleuses sont apparues sur Meta utilisant la voix et le visage d'un député bolsonariste bien connu, Nikolas Ferreira , faisant la promotion de fausses offres d'achat d'appareils Starlink ou même de montres Rolex. Grâce à la tromperie de ces deepfakes, le lecteur sans méfiance est dirigé vers de fausses pages qui imitent les pages officielles et perd des milliers de reais. Des deepfakes qui ont manipulé l'image d'un homme d'affaires brésilien bien connu, Luciano Hang , ont également été utilisés pour collecter des fonds en faveur des victimes de l'État dévasté par les inondations du Rio Grande Sul.

Il y a aussi le problème de la dénonciation des mineurs et des préjugés raciaux . Selon un rapport publié lundi par l'organisation non gouvernementale Human Rights Watch , des photos d'enfants et d'adolescents brésiliens sont utilisées pour créer des outils d'intelligence artificielle à leur insu et sans leur consentement. L'analyse a conclu que LAION-5b, un ensemble de données utilisé pour former des outils d'intelligence artificielle populaires et construit à partir d'informations récupérées sur Internet, contient des liens vers des photos identifiables d'enfants. En plus des photos, la plateforme fournit également les noms de certains enfants dans les sous-titres ou dans l'URL où est stockée la photo. Dans de nombreux cas, les identités sont traçables, avec des informations sur le moment et l’endroit où se trouvait l’enfant au moment de la photo. Au total, 170 photos d'enfants provenant de dix États brésiliens ont été découvertes. Cependant, selon l'ONG, il ne s'agit là que d'un petit échantillon du problème, qui semble gigantesque. LAION-5b compte 5,85 milliards d’images et de légendes et seulement 0,0001 % de la base de données a été analysée dans le rapport.
L'outil WhatsApp AI qui permet de créer des figurines avec une simple commande textuelle est également arrivé au Brésil, bien que pour l'instant en mode test. Bien que l'application bloque des mots tels que « enfant », « cocaïne » et « anorexie », elle permet de créer des figurines de personnes tenant des armes à feu, même des armes de gros calibre comme des fusils Kalachnikov. De plus, comme les dessins générés par l'IA sont simplifiés au maximum, donnant l'effet de représenter des enfants, il existe de nombreuses figurines qui montrent des enfants noirs avec des armes à la main. C'est une question sensible au Brésil, où de nombreux enfants utilisent des armes à feu dans les favelas.
Sur les réseaux sociaux comme Instagram , les experts ont également détecté des défaillances de l'IA pouvant alimenter les préjugés raciaux. Par exemple, certains filtres appliqués aux personnes noires peuvent flouter leurs visages et estomper leurs cheveux crépus. Avec des effets qui simulent le maquillage, comme « Skin smoothing texture » (Skin smoothing texture en anglais), le visage devient grisâtre et même flou. Pour Silvana Bahia , coordinatrice de PretaLab, un projet qui promeut la production technologique par les femmes noires et autochtones, « nous utilisons des algorithmes pour essayer de prédire l'avenir, mais avec des données du passé, où les Noirs sont stéréotypés. Comment cet avenir sera-t-il plus inclusif si l’on regarde les données où les stéréotypes se répètent ? L’intelligence artificielle est générée par des algorithmes de lecture d’images, entraînés à partir d’une base de données contenant des milliers d’images. Plus le programme lit d'images, plus il les reconnaît. Le problème est qu’il y a peu de visages noirs dans cette base de données. En résumé, au Brésil, où selon le recensement de 2022 55,5 % de la population était définie comme noire ou métisse, l'IA semble renforcer les stéréotypes raciaux, comme le rapporte également le journal Folha de São Paulo , qui, à l'aide de la fonction ChatGPT, a demandé à générer des images d’une femme brésilienne. Ce qui a émergé était une femme à la peau bronzée avec des bijoux indigènes au milieu d'une jungle tropicale. Selon les experts, ce stéréotype est dû au manque de données différenciées disponibles sur le sujet. Il ne s'agit pas seulement d'un échec des modèles d'intelligence artificielle d'OpenAI. Même Google a désactivé la capacité de son modèle Gemini à générer des images, après que la plateforme ait proposé des représentations historiquement inexactes telles que des soldats nazis asiatiques et noirs.
Les prochaines élections municipales au Brésil en octobre constitueront également un test décisif pour le pays en ce qui concerne l'utilisation abusive potentielle de l'IA . Selon l'entreprise technologique Sumsub, de 2023 à 2024 , l'apparition de deepfakes a augmenté de 245 % dans le monde, avec une croissance multiple dans certains pays où des élections ont eu ou auront lieu en 2024, comme les États-Unis, l'Inde, Indonésie, Mexique et Afrique du Sud. La polarisation politique au Brésil pourrait être amplifiée, depuis les niveaux de communication les plus simples, comme les autocollants WhatsApp qui circulent déjà montrant des dessins de Bolsonaro et Lula maussades avec des cœurs et des fleurs, jusqu'à la désinformation stratégique qui risque d'être utilisée par les politiciens brésiliens mais aussi par les étrangers. acteurs avec l'intention d'utiliser les élections municipales comme preuve pour les élections présidentielles de 2026. C'est précisément pour cette raison que le Tribunal électoral supérieur (TSE) a interdit l'utilisation de deepfakes pendant la campagne électorale. En avril, la représentante du Parti socialiste brésilien (PSB) Tabata Amaral , candidate à la mairie de la ville de São Paulo, avait publié sur ses réseaux sociaux une vidéo avec un deepfake dans laquelle le visage de l'actuel maire Ricardo Nunes remplaçait le par l'acteur Ryan Gosling, qui joue Ken dans le film "Barbie". Amaral a ensuite supprimé la vidéo. Au-delà de l’interdiction du TSE, reste le problème de l’identification de la masse de deepfakes dont on craint qu’ils envahissent les réseaux sociaux pendant la campagne électorale. Ces manipulations réalistes pourraient être utilisées pour diffamer les candidats, diffuser de fausses nouvelles et déformer l’opinion publique, avec de fausses vidéos de discours incendiaires ou de confessions fictives.

Mais le défi est mondial, et c’est pourquoi même le Brésil ne peut échapper au débat sur la réglementation de l’IA. Le G7, auquel Lula a assisté à la réunion à l'invitation de la Première ministre italienne Giorgia Meloni , travaille sur le front législatif. Lors du sommet de l'année dernière au Japon, le G7 a établi le « Processus d'Hiroshima » pour promouvoir des mesures mondiales pour les systèmes d'IA avancés et un code de conduite international pour les développeurs afin d'encourager des pratiques responsables et standardisées dans ce secteur. Parmi les 11 principes fondamentaux du processus d'Hiroshima figure également la gestion des risques, qui encourage l'adoption de mesures d'évaluation, notamment des tests internes et externes, et l'atténuation de divers types de risques, depuis les produits chimiques jusqu'à la cybersécurité. Quant à l’Union européenne (UE), en mars de cette année, la loi sur l’intelligence artificielle a été approuvée. Il s'agit d'un ensemble de règles pour le développement, la commercialisation, le déploiement et l'utilisation de systèmes d'intelligence artificielle dans l'UE et a été formulé selon une approche basée sur les risques. Elle s’applique aux institutions publiques et aux entreprises opérant dans l’espace européen, mais également aux entreprises extérieures si leurs produits ou services d’IA sont utilisés sur le Vieux Continent. En cas d'utilisation abusive ou de non-respect des systèmes d'Intelligence Artificielle, des amendes très élevées peuvent être infligées, comme 7 % du chiffre d'affaires mondial annuel et jusqu'à 35 millions d'euros.
Le Brésil n'a pas encore sa propre réglementation, mais le ministère de la Science, de la Technologie et de l'Innovation a créé lundi un groupe de travail qui se réunira jusqu'à fin juillet pour orienter la proposition d'un plan brésilien d'intelligence artificielle au Conseil national de la science et de la technologie. . En revanche, le vote au Sénat pour approuver le projet de loi (PL) 2 338/2023, qui réglemente le développement et l'utilisation de l'IA au Brésil, a été reporté à mardi prochain. L'orateur est le sénateur Eduardo Gomes , du Parti libéral, PL de Bolsonaro, qui a présenté un texte de remplacement à celui déjà présenté en 2023 par le président du Sénat, Rodrigo Pacheco . Gomes a déclaré que la réglementation de l’IA ne doit pas être confondue avec d’autres questions, telles que « la lutte contre les fausses nouvelles et la polarisation politique ».
Cependant, les mesures contre les deepfakes sont absentes du nouveau texte, tandis que l'avocate Estela Aranha , membre du Conseil consultatif de haut niveau de l'ONU sur l'intelligence artificielle, a défendu que le projet de loi inclue des mécanismes pour inhiber ce qu'elle a appelé « la discrimination algorithmique ». « Il existe de nombreuses preuves statistiques et scientifiques démontrant que les algorithmes ont des biais qui conduisent à des résultats discriminatoires, même intentionnellement. Dans la littérature, la discrimination est un artefact du processus technologique de l’IA. Cela conduit à une discrimination illégale ou injuste. Ces préjugés peuvent reproduire et amplifier les préjugés et les inégalités raciales, de genre et de classe », a déclaré Aranha.
Nouveau