
San Francisco a présenté cette semaine une demande sans précédent contre plusieurs sites web permettant la création de d'images falsifiées de nus par le biais de d'intelligence artificielle. Ces services promettent de “déshabiller n'importe quelle photo” téléchargée sur la plateforme en quelques secondes, comme l'a rapporté ABC News.
La plainte accuse ces services de violer des lois d'État de Californie qui interdisent les pratiques commerciales frauduleuses, la pornographie non consensuelle et l'abus sexuel des enfants. Cette action en justice intervient dans un contexte où l'intelligence artificielle est facilement accessible sur Internet, générant des images qui humilient et menacent les femmes et les filles dans le monde entier.
David Chiu, procureur de la ville de San Francisco, a déclaré que “la prolifération de ces images a explosé à un nombre alarmant de femmes et de filles à l'échelle mondiale”. Chiu a ajouté que l'impact sur les victimes inclut des dommages sévères à leur réputation, leur santé mentale, et une perte d'autonomie, et dans certains cas, a conduit à des tentatives de suicide.

Le problème des sites web qui créent des deepfakes n'est pas nouveau. En septembre dernier, à Almendralejo, Espagne, une communauté a été touchée lorsque des images nues générées par IA d'élèves de secondaire ont été découvertes. Récemment, un tribunal pour mineurs a condamné à un an de probation 15 de leurs camarades impliqués dans l'affaire. Cependant, l'outil d'intelligence artificielle responsable de ces images est toujours disponible sur Internet.
San Francisco n'est pas le premier endroit où ces problèmes sont apparus, mais c'est la première ville aux États-Unis à engager des poursuites judiciaires de cette ampleur. La difficulté réside dans l'identification des opérateurs de ces sites, qui ne sont pas disponibles dans les magasins d'applications mobiles, mais se trouvent facilement sur le web.
Des experts pensent que cette plainte pourrait établir un précédent légal dans le domaine de l'exploitation sexuelle et des deepfakes. Selon Emily Slifer, directrice des politiques chez Thorn, “la plainte a le potentiel d'établir un précédent légal dans ce domaine”. Cependant, Riana Pfefferkorn, chercheuse à la Université de Stanford, a averti qu'il sera difficile d'amener les accusés en justice, en particulier ceux qui opèrent en dehors des États-Unis, comme elle l'a déclaré à l'agence de presse The Associated Press (AP).

Chiu a exprimé qu'ils utilisaient des outils d'enquête et d'autorité de citation pour approfondir l'identité et la localisation de ces opérateurs. Il a ajouté qu'ils agiront énergiquement en matière de litiges.
Dans d'autres parties du monde, des outils similaires d'IA se sont infiltrés dans les environnements scolaires. Dans des endroits comme Australie et Beverly Hills, des élèves masculins ont créé et circulé des images de leurs camarades par le biais des réseaux sociaux, affectant gravement les victimes.
Dra. Miriam Al Adib Mendiri, une médecin dont la fille a été victime à Almendralejo, a souligné dans une interview avec AP que non seulement la société, l'éducation, les parents et les écoles doivent prendre leurs responsabilités, mais aussi les grandes entreprises numériques qui tirent profit de ces contenus.
Bien que plusieurs écoles et forces de sécurité aient puni les créateurs et distributeurs de ces deepfakes, il y a encore un sentiment qu'il reste beaucoup à faire pour contrôler les outils eux-mêmes utilisés pour créer ce matériel nuisible.